JP4451897B2 - GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD - Google Patents

GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD Download PDF

Info

Publication number
JP4451897B2
JP4451897B2 JP2007128278A JP2007128278A JP4451897B2 JP 4451897 B2 JP4451897 B2 JP 4451897B2 JP 2007128278 A JP2007128278 A JP 2007128278A JP 2007128278 A JP2007128278 A JP 2007128278A JP 4451897 B2 JP4451897 B2 JP 4451897B2
Authority
JP
Japan
Prior art keywords
motion data
data
basic
motion
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007128278A
Other languages
Japanese (ja)
Other versions
JP2008282340A (en
Inventor
篤紀 坂本
光生 長本
秀行 桑原
英樹 永浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2007128278A priority Critical patent/JP4451897B2/en
Publication of JP2008282340A publication Critical patent/JP2008282340A/en
Application granted granted Critical
Publication of JP4451897B2 publication Critical patent/JP4451897B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ゲームプログラム、特に、ゲーム空間において動作するキャラクタを画像表示部に表示するゲームを実現するためのゲームプログラムに関する。また、このゲームプログラムにより実現されるゲームを実行可能なゲーム装置、およびこのゲームプログラムにより実現されるゲームをコンピュータにより制御するゲーム制御方法に関する。   The present invention relates to a game program, and more particularly to a game program for realizing a game in which a character operating in a game space is displayed on an image display unit. The present invention also relates to a game apparatus capable of executing a game realized by the game program, and a game control method for controlling the game realized by the game program by a computer.

従来から様々なビデオゲームが提案されている。これらビデオゲームは、ゲーム装置において実行されるようになっている。たとえば、一般的なゲーム装置は、モニタと、モニタとは別体のゲーム機本体と、ゲーム機本体とは別体の入力装置たとえばコントローラとを有している。コントローラには、複数の入力釦が配置されている。   Conventionally, various video games have been proposed. These video games are executed in a game device. For example, a general game device has a monitor, a game machine main body separate from the monitor, and an input device such as a controller separate from the game machine main body. The controller has a plurality of input buttons.

このようなゲーム装置によって実現されるゲームの1つとして、たとえば、野球ゲームが知られている(非特許文献1を参照)。このような野球ゲームでは、試合イベントが実行されると、投手キャラクタ、野手キャラクタ、および打者キャラクタ等がモニタに表示される。この状態において、プレイヤが、モニタに表示された各キャラクタに対して各種の命令を指示すると、指示された命令に対応する動作を各キャラクタに実行させることができる。   As one of the games realized by such a game device, for example, a baseball game is known (see Non-Patent Document 1). In such a baseball game, when a game event is executed, a pitcher character, a fielder character, a batter character, and the like are displayed on the monitor. In this state, when the player instructs various characters to each character displayed on the monitor, each character can be caused to perform an action corresponding to the instructed command.

ここでは、たとえば、プレイヤが打者キャラクタに各種の命令を指示する場合を考える。具体的には、投手キャラクタからリリースされたボールを捉えるためのミートカーソルがストライクゾーンの中央部でモニタに表示された状態において、相手プレイヤがコントローラを操作することにより投手キャラクタに投球の開始を指示すると、投手キャラクタの投球動作がモニタに表示される。そして、投手キャラクタからボールがリリースされると、リリースされたボールが打者キャラクタのヒッティング面を通過するときの位置を示す着弾点が、モニタに表示される。   Here, for example, consider a case where the player instructs various commands to the batter character. Specifically, in a state where the meet cursor for catching the ball released from the pitcher character is displayed on the monitor in the center of the strike zone, the opponent player instructs the pitcher character to start pitching by operating the controller. Then, the pitching motion of the pitcher character is displayed on the monitor. Then, when the ball is released from the pitcher character, the landing point indicating the position when the released ball passes the hitting surface of the batter character is displayed on the monitor.

そして、ストライクゾーンの中央部に表示されたミートカーソルがボールの予想通過位置に一致するように、プレイヤがコントローラを操作すると、ミートカーソルがボールの着弾点の方向に移動する状態がモニタに表示される。そして、プレイヤが打者キャラクタにスイングを開始させるための命令を指示すると、打者キャラクタのスイング動作がモニタに表示される。そして、プレイヤが、投手キャラクタからリリースされたボールが打者キャラクタのヒッティング面に到達したときのボールの着弾点に、ミートカーソルの一部を重複させることができれば、打者キャラクタにより打ち返されたボールが移動する状態がモニタに表示される。
実況パワフルプロ野球13 決定版、コナミデジタルエンタテインメント、PS2版、2006年7月13日
When the player operates the controller so that the meat cursor displayed in the center of the strike zone matches the expected passing position of the ball, the monitor displays a state in which the meat cursor moves in the direction of the ball landing point. The When the player instructs the batter character to start a swing, the swing motion of the batter character is displayed on the monitor. If the player can overlap a part of the meat cursor with the landing point of the ball when the ball released from the pitcher character reaches the hitting surface of the batter character, the ball returned by the batter character The moving state is displayed on the monitor.
Jikkyou Powerful Pro Baseball 13 Final Edition, Konami Digital Entertainment, PS2 Edition, July 13, 2006

従来の野球ゲームでは、コントローラを操作することにより、ミートカーソルをストライクゾーンの中央部(初期位置)からコントローラの操作方向に移動させることができるようになっていた。そして、打者キャラクタにスイングを開始させるための命令が指示されると、打者キャラクタのスイング動作がモニタに表示されるようになっていた。   In the conventional baseball game, the meat cursor can be moved from the central portion (initial position) of the strike zone in the operation direction of the controller by operating the controller. When a command for starting the swing is instructed to the batter character, the swing motion of the batter character is displayed on the monitor.

このような従来の野球ゲームでは、投手キャラクタのスイング動作をモニタに表示するために、スイング用のモーションデータが記憶部に格納されている。このスイング用のモーションデータは、ストライクゾーンの中央部(ミートカーソルの初期位置)を通る上下方向の各位置において定義されていた。このため、ミートカーソルがストライクゾーンの中央部を通る垂線上に位置するときに、打者キャラクタにスイング開始命令が指示された場合は、打者キャラクタがスムーズにスイングする動作がモニタに表示されていた。   In such a conventional baseball game, motion data for swing is stored in the storage unit in order to display the swing motion of the pitcher character on the monitor. The motion data for swing is defined at each position in the vertical direction passing through the central portion of the strike zone (the initial position of the meet cursor). For this reason, when the swing start command is instructed to the batter character when the meat cursor is positioned on the vertical line passing through the central portion of the strike zone, the motion of the batter character swinging smoothly is displayed on the monitor.

しかしながら、ミートカーソルがストライクゾーンの中央部を通る垂線上に位置しないときに、打者キャラクタにスイング開始命令が指示された場合は、ミートカーソルから垂線までの水平距離分だけ打者キャラクタを移動した後に、記憶部に格納されたスイング用のモーションデータを用いて、打者キャラクタのスイング動作がモニタに表示されていた。このように、従来の野球ゲームでは、ミートカーソルがストライクゾーンの中央部を通る垂線上に位置しない場合、打者キャラクタがスイングを開始する前に水平方向に移動するという動作、すなわち現実には考えられないような打撃時の動画が、モニタに表示されてしまうという問題点があった。   However, if the batter character is instructed to start a swing when the meat cursor is not positioned on the vertical line passing through the center of the strike zone, after moving the batter character by the horizontal distance from the meat cursor to the vertical line, The swing motion of the batter character was displayed on the monitor using the motion data for swing stored in the storage unit. Thus, in the conventional baseball game, when the meat cursor is not positioned on the vertical line passing through the central portion of the strike zone, the batter character moves in the horizontal direction before starting the swing, that is, it is considered in reality. There was a problem that the video at the time of hitting was not displayed on the monitor.

本発明の目的は、現実空間において人が行う動作をゲーム空間においても違和感なく表示することができるようにすることにある。   An object of the present invention is to enable an operation performed by a person in a real space to be displayed in a game space without a sense of incongruity.

請求項1に係るゲームプログラムは、ゲーム空間において動作するキャラクタを画像表示部に表示するゲームを実行可能なコンピュータに、以下の機能を実現させるためのプログラムである。
(1)キャラクタの基本動作に対応する複数の基本モーションデータを、記憶部から読み出し、複数の基本モーションデータそれぞれを、制御部に認識させる基本モーションデータ認識機能。
(2)複数の基本モーションデータのうちの少なくとも2つのモーションデータそれぞれを、第1モーションデータとして、制御部に認識させ記憶部に格納する第1モーションデータ認識機能。
(3)複数の第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれを、第2モーションデータとして、制御部に認識させ記憶部に格納する第2モーションデータ認識機能。
(4)キャラクタの基本動作の対象となる対象点の基本位置を示す基本位置データを、記憶部から読み出し、基本位置データを制御部に認識させ記憶部に格納する基本対象点認識機能。
(5)キャラクタの基本動作を含むキャラクタの動作の対象となる対象点の設定位置を示す設定位置データを、1フレームごとに制御部に認識させ記憶部に格納する設定対象点認識機能。
(6)記憶部に格納された各フレームの設定位置データ、および第1モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の第1モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第1合成モーションデータとして、制御部に認識させ記憶部に格納する第1合成モーションデータ認識機能。
(7)記憶部に格納された各フレームの設定位置データ、および第2モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の第2モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第2合成モーションデータとして、制御部に認識させ記憶部に格納する第2合成モーションデータ認識機能。
(8)記憶部に格納された各フレームの設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて、記憶部に格納された第1合成モーションデータと、記憶部に格納された第2合成モーションデータとを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第3合成モーションデータとして、制御部に認識させ記憶部に格納する第3合成モーションデータ認識機能。
(9)記憶部に格納された第3合成モーションデータを用いて、対象点を対象にして動作するキャラクタを画像表示部に表示するキャラクタ表示機能。
A game program according to claim 1 is a program for causing a computer capable of executing a game for displaying a character operating in a game space on an image display unit to realize the following functions.
(1) A basic motion data recognition function that reads a plurality of basic motion data corresponding to the basic motion of the character from the storage unit and causes the control unit to recognize each of the plurality of basic motion data .
(2) A first motion data recognition function in which at least two pieces of motion data among a plurality of basic motion data are recognized as first motion data by the control unit and stored in the storage unit .
(3) The control unit recognizes each of at least two pieces of motion data out of the plurality of basic motion data excluding at least one of the plurality of first motion data as second motion data. A second motion data recognition function stored in the storage unit .
(4) A basic target point recognition function that reads basic position data indicating a basic position of a target point that is a target of a character's basic movement from the storage unit, recognizes the basic position data in the control unit, and stores the basic position data in the storage unit .
(5) A setting target point recognition function for recognizing the setting position data indicating the setting position of the target point, which is the target of the character's motion including the basic motion of the character, and storing it in the storage unit for each frame .
(6) Set the position data of each frame stored in the storage unit, and based on the basic position data corresponding to the first motion data, the processing for combining a plurality of first motion data stored in the storage unit, 1 A first synthesized motion data recognition function for causing the control unit to recognize the motion data synthesized by the processing as the first synthesized motion data by causing the control unit to execute it for each frame and store the motion data in the storage unit .
(7) setting position data of each frame stored in the storage unit, and based on the basic position data corresponding to the second motion data, the processing for combining a plurality of second motion data stored in the storage unit, 1 A second synthesized motion data recognition function for causing the control unit to recognize the motion data synthesized by the processing as the second synthesized motion data by causing the control unit to execute it for each frame, and store it in the storage unit .
(8) Based on the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data, the first position data stored in the storage unit By causing the control unit to execute a process for synthesizing one synthesized motion data and the second synthesized motion data stored in the storage unit for each frame , the synthesized motion data is converted into the third synthesized motion data. As a third synthesized motion data recognition function that is recognized by the control unit and stored in the storage unit .
(9) A character display function for displaying, on the image display unit, a character that operates with respect to the target point, using the third synthesized motion data stored in the storage unit .

このゲームプログラムでは、基本モーションデータ認識機能において、キャラクタの基本動作に対応する複数の基本モーションデータが、記憶部から読み出され、複数の基本モーションデータそれぞれが、制御部に認識される。第1モーションデータ認識機能においては、複数の基本モーションデータのうちの少なくとも2つのモーションデータそれぞれが、第1モーションデータとして、制御部に認識され記憶部に格納される。第2モーションデータ認識機能においては、複数の第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれが、第2モーションデータとして、制御部に認識され記憶部に格納される。 In this game program, in the basic motion data recognition function, a plurality of basic motion data corresponding to the basic motion of the character is read from the storage unit, and each of the plurality of basic motion data is recognized by the control unit. In the first motion data recognition function, at least two pieces of motion data among the plurality of basic motion data are recognized as first motion data by the control unit and stored in the storage unit. In the second motion data recognition function, at least two of the plurality of basic motion data excluding at least one first motion data among the plurality of first motion data are each set as second motion data. , Recognized by the control unit and stored in the storage unit.

基本対象点認識機能においては、キャラクタの基本動作の対象となる対象点の基本位置を示す基本位置データが、記憶部から読み出され、この基本位置データが制御部に認識され記憶部に格納される。設定対象点認識機能においては、キャラクタの基本動作を含むキャラクタの動作の対象となる対象点の設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納される。 In the basic target point recognition function, basic position data indicating the basic position of the target point that is the target of the basic motion of the character is read from the storage unit, and this basic position data is recognized by the control unit and stored in the storage unit. The In the setting target point recognition function, setting position data indicating the setting position of the target point that is the target of the character's motion including the basic motion of the character is recognized by the control unit for each frame and stored in the storage unit.

第1合成モーションデータ認識機能においては、記憶部に格納された各フレームの設定位置データ、および第1モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の第1モーションデータを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第1合成モーションデータとして、制御部に認識され記憶部に格納される。第2合成モーションデータ認識機能においては、記憶部に格納された各フレームの設定位置データ、および第2モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の第2モーションデータを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第2合成モーションデータとして、制御部に認識され記憶部に格納される。 In the first synthesized motion data recognition function, a plurality of first motion data stored in the storage unit based on the set position data of each frame stored in the storage unit and the basic position data corresponding to the first motion data Is performed by the control unit for each frame . Then, the motion data synthesized by this processing is recognized by the control unit as first synthesized motion data and stored in the storage unit. In the second synthesized motion data recognition function, a plurality of second motion data stored in the storage unit based on the set position data of each frame stored in the storage unit and the basic position data corresponding to the second motion data Is performed by the control unit for each frame . Then, the motion data synthesized by this process is recognized by the control unit as second synthesized motion data and stored in the storage unit.

第3合成モーションデータ認識機能においては、記憶部に格納された各フレームの設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて、記憶部に格納された第1合成モーションデータと、記憶部に格納された第2合成モーションデータとを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第3合成モーションデータとして、制御部に認識され記憶部に格納される。キャラクタ表示機能においては、記憶部に格納された第3合成モーションデータを用いて、対象点を対象にして動作するキャラクタが、画像表示部に表示される。 In the third synthesized motion data recognition function, based on the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data, A process of combining the first synthesized motion data stored in the storage unit and the second synthesized motion data stored in the storage unit is executed by the control unit for each frame . Then, the motion data synthesized by this processing is recognized by the control unit as third synthesized motion data and stored in the storage unit. In the character display function, using the third synthesized motion data stored in the storage unit, a character that operates with respect to the target point is displayed on the image display unit.

たとえば、本ゲームプログラムで野球ゲームを実現した場合、打者キャラクタの基本スイング動作に対応する複数の基本モーションデータそれぞれが、制御部に認識される。そして、複数の基本モーションデータのうちの少なくとも2つのモーションデータそれぞれが、第1モーションデータとして制御部に認識される。また、複数の第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれが、第2モーションデータとして制御部に認識される。 For example, if you realize the baseball game in this game program, a plurality of basic motion data corresponding to the basic swing motion of the punching's character is recognized by the control unit. Then, each of at least two pieces of motion data among the plurality of basic motion data is recognized by the control unit as first motion data. Each of at least two pieces of motion data out of a plurality of basic motion data excluding at least one first motion data among the plurality of first motion data is recognized by the control unit as second motion data.

そして、打者キャラクタの基本スイング動作の対象となる対象点の基本位置を示す基本位置データが、制御部に認識される。また、打者キャラクタの基本スイング動作を含む打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納される Then, the basic position data indicating the basic position of the target point to be basic swing motion of the punching's character is recognized by the control unit. Also, set position data indicating the set position of the meet cursor that is the target of the batter character's swing motion including the batter character's basic swing motion is recognized by the control unit and stored in the storage unit for each frame .

そして、設定位置データおよび第1モーションデータに対応する基本位置データに基づいて、複数の第1モーションデータを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第1合成モーションデータとして制御部に認識され記憶部に格納される。また、設定位置データおよび第2モーションデータに対応する基本位置データに基づいて、複数の第2モーションデータを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第2合成モーションデータとして制御部に認識され記憶部に格納されるThen, based on the basic position data corresponding to the set position data and the first motion data, a process of combining a plurality of first motion data is executed for each frame by the control unit. Then, the motion data synthesized by this processing is recognized by the control unit as first synthesized motion data and stored in the storage unit . Further, a process of combining a plurality of second motion data based on the set position data and the basic position data corresponding to the second motion data is executed by the control unit for each frame . Then, the motion data synthesized by this processing is recognized by the control unit as second synthesized motion data and stored in the storage unit .

そして、記憶部に格納された各フレームの設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて、記憶部に格納された第1合成モーションデータと、記憶部に格納された第2合成モーションデータとを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第3合成モーションデータとして制御部に認識され記憶部に格納される。すると、この第3合成モーションデータを用いて、ミートカーソルを対象にしてスイング動作する打者キャラクタが、画像表示部に表示される。 Then, based on the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data, the first position stored in the storage unit A process of combining the synthesized motion data and the second synthesized motion data stored in the storage unit is executed by the control unit for each frame . Then, the motion data synthesized by this process is recognized by the control unit as third synthesized motion data and stored in the storage unit . Then, using this third synthesized motion data, a batter character that swings around the meat cursor is displayed on the image display unit.

この場合、設定位置データおよび第1モーションデータに対応する基本位置データに基づいて、打者キャラクタの基本スイング動作に対応する複数の基本モーションデータに含まれる、複数の第1モーションデータを1フレームごとに合成することにより、第1合成モーションデータが生成される。また、設定位置データおよび第2モーションデータに対応する基本位置データに基づいて、打者キャラクタの基本スイング動作に対応する複数の基本モーションデータに含まれる、複数の第2モーションデータを1フレームごとに合成することにより、第2合成モーションデータが生成される。そして、設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて、第1合成モーションデータと第2合成モーションデータとを1フレームごとに合成することにより、第3合成モーションデータが生成される。すると、この第3合成モーションデータを用いて、ミートカーソルを対象にしてスイング動作する打者キャラクタが、画像表示部に表示される。 In this case, based on the basic position data corresponding to the set position data and the first motion data, the plurality of first motion data included in the plurality of basic motion data corresponding to the basic swing motion of the batter character is obtained for each frame. By synthesizing, first synthesized motion data is generated. Further, based on the basic position data corresponding to the set position data and the second motion data, a plurality of second motion data included in the plurality of basic motion data corresponding to the basic swing motion of the batter character is synthesized for each frame. As a result, second synthesized motion data is generated. Then, based on the set position data, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data, the first combined motion data and the second combined motion data are obtained for each frame. By synthesizing, third synthesized motion data is generated. Then, using this third synthesized motion data, a batter character that swings around the meat cursor is displayed on the image display unit.

このように、請求項1に係る発明では、基本位置データが示す基本スイング動作の対象位置および設定位置データが示すミートカーソルの位置に基づいて、基本となる基本モーションデータを1フレームごとに合成し、合成されたモーションデータを1フレームごとに再合成することにより、最終的な合成モーションデータが生成されるようになっている。すなわち、基本位置データが示す基本スイング動作の対象位置および設定位置データが示すミートカーソルの位置に基づいて、基本となる基本モーションデータから、第1合成モーションデータおよび第2合成モーションデータを介して、第3合成モーションデータが1フレームごとに生成されるようになっている。このため、ミートカーソルがどの位置に位置していても、第3合成モーションデータを用いることにより、打者キャラクタの現実的なスイング動作を、モニタに表示することができる。一般的な表現を用いると、請求項1に係る発明では、現実空間において人が行う動作をゲーム空間においても違和感なく表示することができる。 Thus, in the invention according to claim 1, basic basic motion data is synthesized for each frame based on the target position of the basic swing motion indicated by the basic position data and the position of the meet cursor indicated by the set position data. By re-synthesizing the synthesized motion data for each frame , final synthesized motion data is generated. That is, based on the basic swing motion target position indicated by the basic position data and the position of the meet cursor indicated by the set position data, from the basic basic motion data via the first synthetic motion data and the second synthetic motion data, Third synthesized motion data is generated for each frame . For this reason, regardless of the position of the meet cursor, the realistic swing motion of the batter character can be displayed on the monitor by using the third synthesized motion data. If a general expression is used, in the invention according to claim 1, it is possible to display an action performed by a person in the real space without any discomfort in the game space.

請求項2に係るゲームプログラムは、請求項1に記載のゲームプログラムにおいて、コンピュータに、以下の機能をさらに実現させるためのプログラムである。
(10)キャラクタの動作の対象となる対象点を移動させるための対象点移動命令が発行されたか否かを制御部に判断させる対象点移動判断機能。
A game program according to claim 2 is a program for causing the computer to further realize the following functions in the game program according to claim 1.
(10) A target point movement determination function that causes the control unit to determine whether or not a target point movement command for moving a target point that is a target of character movement has been issued.

このゲームプログラムでは、対象点移動判断機能において、キャラクタの動作の対象となる対象点を移動させるための対象点移動命令が発行されたか否かが、制御部により判断される。そして、設定対象点認識機能においては、対象点移動命令が発行されていないと制御部により判断された場合、現在の対象点の設定位置を示す設定位置データが、制御部に認識される。一方で、対象点移動命令が発行されたと制御部により判断された場合、移動後の対象点の設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納されるIn this game program, in the target point movement determination function, the control unit determines whether or not a target point movement command for moving the target point that is the target of the action of the character has been issued. In the setting target point recognition function, when the control unit determines that the target point movement command has not been issued, the setting unit data indicating the current setting position of the target point is recognized by the control unit. On the other hand, when the control unit determines that the target point movement command has been issued, the set position data indicating the set position of the target point after the movement is recognized by the control unit for each frame and stored in the storage unit .

たとえば、本ゲームプログラムで野球ゲームを実現した場合、打者キャラクタのスイング動作の対象となるミートカーソルを移動させるためのミートカーソル移動命令が発行されたか否かが、制御部により判断される。そして、ミートカーソル移動命令が発行されていないと制御部により判断された場合、現在のミートカーソルの設定位置を示す設定位置データが、制御部に認識される。一方で、ミートカーソル移動命令が発行されたと制御部により判断された場合、移動後のミートカーソルの設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納されるFor example, when a baseball game is realized by this game program, the control unit determines whether or not a meet cursor movement command for moving a meet cursor that is a target of the batter character's swing motion is issued. When the control unit determines that the meet cursor movement command has not been issued, the control unit recognizes the set position data indicating the current set position of the meet cursor. On the other hand, when the control unit determines that a meet cursor movement command has been issued, set position data indicating the set position of the meet cursor after movement is recognized by the control unit for each frame and stored in the storage unit .

この場合、ミートカーソル移動命令が発行されたと制御部により判断された場合、移動後のミートカーソルの設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納される。具体的には、ミートカーソルが移動した場合、移動後のミートカーソルの設定位置データが、1フレームごとに制御部に認識され記憶部に格納される。このように、請求項2に係る発明では、ミートカーソルがどの位置に移動しても、第3合成モーションデータを用いることにより、打者キャラクタの現実的なスイング動作を、モニタに表示することができる。一般的な表現を用いると、請求項2に係る発明では、現実空間において人が行う動作をゲーム空間においても違和感なく表示することができる。 In this case, when the control unit determines that a meet cursor movement command has been issued, set position data indicating the set position of the meet cursor after movement is recognized by the control unit for each frame and stored in the storage unit . Specifically, when the meet cursor moves, the set position data of the moved meet cursor is recognized by the control unit for each frame and stored in the storage unit . As described above, in the invention according to claim 2, regardless of the position of the meat cursor, the realistic swing motion of the batter character can be displayed on the monitor by using the third synthesized motion data. . If a general expression is used, in the invention according to claim 2, it is possible to display an action performed by a person in the real space without any discomfort in the game space.

請求項3に係るゲームプログラムは、請求項1又は2に記載のゲームプログラムにおいて、コンピュータに、以下の機能をさらに実現させるためのプログラムである。
(11)キャラクタの動作の対象となる対象点の設定位置を示す設定位置データを受け付ける時間を制限するための受付制限時間データを、制御部に認識させる受付制限時間データ認識機能。
(12)キャラクタに動作を開始させるための動作開始命令が発行されたか否かを制御部に判断させる動作開始命令判断機能。
(13)動作開始命令が発行されたと制御部により判断された場合に、動作開始命令が発行された時点を基準として、受付制限時間データが示す時間が経過したか否かを制御部に判断させる制限時間判断機能。
A game program according to claim 3 is a program for causing a computer to further realize the following functions in the game program according to claim 1 or 2.
(11) A reception time limit data recognition function that causes the control unit to recognize reception time limit data for limiting the time for receiving the setting position data indicating the setting position of the target point that is the target of the character's movement.
(12) A motion start command determination function that causes the control unit to determine whether or not a motion start command for causing the character to start a motion has been issued.
(13) When the control unit determines that the operation start command has been issued, the control unit determines whether or not the time indicated by the reception limit time data has elapsed with reference to the time point when the operation start command is issued. Time limit judgment function.

このゲームプログラムでは、受付制限時間データ認識機能において、キャラクタの動作の対象となる対象点の設定位置を示す設定位置データを受け付ける時間を制限するための受付制限時間データが、制御部に認識される。動作開始命令判断機能においては、キャラクタに動作を開始させるための動作開始命令が発行されたか否かが、制御部により判断される。制限時間判断機能においては、動作開始命令が発行されたと制御部により判断された場合、動作開始命令が発行された時点を基準として、受付制限時間データが示す時間が経過したか否かが、制御部により判断される。そして、設定対象点認識機能においては、動作開始命令が発行されたと制御部により判断され、動作開始命令が発行された時点を基準として受付制限時間データが示す時間が経過していないと制御部により判断された場合に、キャラクタの動作の対象となる対象点の設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納されるIn this game program, in the reception time limit data recognition function, the control unit recognizes reception time limit data for limiting the time for receiving the setting position data indicating the setting position of the target point that is the target of the character's movement. . In the motion start command determination function, the control unit determines whether or not a motion start command for causing the character to start motion is issued. In the time limit determination function, when the control unit determines that an operation start command has been issued, it is controlled whether or not the time indicated by the reception time limit data has elapsed with reference to the time when the operation start command has been issued. Determined by the department. In the setting target point recognition function, the control unit determines that the operation start command has been issued, and the control unit determines that the time indicated by the reception limit time data has not elapsed with respect to the time point when the operation start command is issued. When it is determined, set position data indicating the set position of the target point that is the target of the character's action is recognized by the control unit for each frame and stored in the storage unit .

たとえば、本ゲームプログラムで野球ゲームを実現した場合、打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データを受け付ける時間を制限するための受付制限時間データが、制御部に認識される。そして、打者キャラクタにスイング動作を開始させるためのスイング動作開始命令が発行されたか否かが、制御部により判断される。そして、スイング動作開始命令が発行されたと制御部により判断された場合、スイング動作開始命令が発行された時点を基準として、受付制限時間データが示す時間が経過したか否かが、制御部により判断される。そして、スイング動作開始命令が発行されたと制御部により判断され、スイング動作開始命令が発行された時点を基準として受付制限時間データが示す時間が経過していないと制御部により判断された場合に、打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納されるFor example, when the baseball game is realized with this game program, the control unit recognizes the reception time limit data for limiting the time for receiving the setting position data indicating the setting position of the meet cursor that is the target of the batter character's swing motion. Is done. Then, the control unit determines whether or not a swing motion start command for issuing a swing motion to the batter character is issued. When the control unit determines that the swing operation start command has been issued, the control unit determines whether or not the time indicated by the reception limit time data has elapsed with respect to the time point when the swing operation start command is issued. Is done. Then, when the control unit determines that the swing operation start command has been issued, and when the control unit determines that the time indicated by the reception limit time data has not elapsed with respect to the time point when the swing operation start command has been issued, The set position data indicating the set position of the meet cursor that is the target of the batter character's swing motion is recognized by the control unit for each frame and stored in the storage unit .

この場合、スイング動作開始命令が発行されたと制御部により判断され、スイング動作開始命令が発行された時点を基準として受付制限時間データが示す時間が経過していないと制御部により判断された場合に、打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納される。具体的には、打者キャラクタがスイング動作を開始した時点から受付制限時間(所定の時間)が経過するまでの間は、ミートカーソルの設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納される。言い換えると、打者キャラクタがスイング動作を開始した時点から受付制限時間(所定の時間)が経過した後は、ミートカーソルの設定位置を示す設定位置データの認識が、制御部に拒否される。このように、請求項3に係る発明では、打者キャラクタがスイング動作を開始した時点から受付制限時間が経過すると、ミートカーソルの設定位置が認識されなくなるので、打者キャラクタがフォロースイングを行っているときや、投手キャラクタからリリースされたボールがヒッティング面を通過したときなどに、不要なモーションデータを合成する処理が実行されないようにすることができる。一般的な表現を用いると、請求項3に係る発明では、ゲーム空間において有用な動作だけを、効率良く生成することができ、違和感なく表示することができる。 In this case, when the control unit determines that the swing operation start command has been issued, and the control unit determines that the time indicated by the reception limit time data has not elapsed with respect to the time point when the swing operation start command is issued The set position data indicating the set position of the meet cursor that is the target of the batter character's swing motion is recognized by the control unit for each frame and stored in the storage unit . Specifically, the set position data indicating the set position of the meet cursor is sent to the control unit for each frame until the reception limit time (predetermined time) elapses after the batter character starts the swing motion. Recognized and stored in the storage unit . In other words, after the reception limit time (predetermined time) has elapsed since the time when the batter character started the swing motion, the control unit rejects the recognition of the set position data indicating the set position of the meet cursor. Thus, in the invention according to claim 3, when the limited time elapses after the batter character starts the swing motion, the setting position of the meet cursor is not recognized, so that the batter character is performing the follow swing In addition, when the ball released from the pitcher character passes through the hitting surface, the process of synthesizing unnecessary motion data can be prevented from being executed. If a general expression is used, in the invention according to claim 3, only a motion useful in the game space can be generated efficiently and displayed without a sense of incongruity.

請求項4に係るゲームプログラムは、請求項1から3のいずれかに記載のゲームプログラムにおいて、コンピュータに、以下の機能をさらに実現させるためのプログラムである。
(14)キャラクタの動作の対象となる対象領域の範囲を示す範囲データを、制御部に認識させる対象範囲認識機能。
A game program according to claim 4 is a program for causing a computer to further realize the following functions in the game program according to any one of claims 1 to 3.
(14) A target range recognition function that causes the control unit to recognize range data indicating a range of a target region that is a target of character motion.

このゲームプログラムでは、対象範囲認識機能において、キャラクタの動作の対象となる対象領域の範囲を示す範囲データが、制御部に認識される。そして、基本対象点認識機能においては、対象領域の範囲内に位置する対象点の基本位置を示す基本対象位置データが、制御部に認識される。また、設定対象点認識機能においては、対象領域の範囲内に位置する対象点の設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納されるIn this game program, in the target range recognition function, range data indicating the range of the target area that is the target of the action of the character is recognized by the control unit. In the basic target point recognition function, the basic target position data indicating the basic position of the target point located within the range of the target region is recognized by the control unit. In the setting target point recognition function, the setting position data indicating the setting position of the target point located within the range of the target area is recognized by the control unit for each frame and stored in the storage unit .

たとえば、本ゲームプログラムで野球ゲームを実現した場合、打者キャラクタのスイング動作の対象となるボールの通過領域の範囲を示す範囲データが、制御部に認識される。そして、ボールの通過領域の範囲内に位置する基本位置を示す基本対象位置データが、制御部に認識される。また、ボールの通過領域の範囲内に位置するミートカーソルの設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納されるFor example, when a baseball game is realized with this game program, range data indicating the range of the passing area of the ball that is the target of the batter character's swing motion is recognized by the control unit. Then, the basic target position data indicating the basic position located within the range of the passing area of the ball is recognized by the control unit. In addition, set position data indicating the set position of the meet cursor positioned within the range of the ball passing area is recognized by the control unit for each frame and stored in the storage unit .

この場合、ボールの通過領域の範囲を示す範囲データを制御部に認識させることにより、ボールの通過領域をゲーム空間に設定することができる。また、ボールの通過領域の範囲内において基本位置およびミートカーソルの設定位置を1フレームごとに制御部に認識させることにより、ボールの通過領域の範囲内に位置するミートカーソルの位置に応じて、第3合成モーションデータを生成することができる。一般的な表現を用いると、請求項4に係る発明では、ゲーム空間における対象領域を対象として、キャラクタの動作をスムーズにモニタに表示することができる。 In this case, the ball passing area can be set in the game space by causing the control unit to recognize the range data indicating the range of the ball passing area. In addition, by making the control unit recognize the basic position and the set position of the meet cursor within the range of the ball passing area for each frame , according to the position of the meet cursor positioned within the range of the ball passing area, Three synthetic motion data can be generated. If a general expression is used, in the invention according to claim 4, the motion of the character can be smoothly displayed on the monitor for the target area in the game space.

請求項5に係るゲームプログラムは、請求項1から4のいずれかに記載のゲームプログラムにおいて、コンピュータに、以下の機能をさらに実現させるためのプログラムである。
(15)キャラクタの基本動作の対象となる対象点に対する、キャラクタの動作の対象となる対象点の相対的な位置を規定するための相対データを、1フレームごとに算出する処理を、制御部に実行させる相対データ算出機能。
A game program according to claim 5 is a program for causing a computer to further realize the following functions in the game program according to any one of claims 1 to 4.
For the target points to be basic operation of the (15) character, the relative data for defining the relative position of the object point to be movement of the character, the process of calculating for each frame, the control unit Relative data calculation function to be executed.

このゲームプログラムでは、相対データ算出機能において、キャラクタの基本動作の対象となる対象点に対する、キャラクタの動作の対象となる対象点の相対的な位置を規定するための相対データを、1フレームごとに算出する処理が、制御部により実行される。そして、第1合成モーションデータ認識機能においては、記憶部に格納された各フレームの設定位置データ、および第1モーションデータに対応する基本位置データに基づいて算出された第1相対データを用いて、記憶部に格納された複数の第1モーションデータを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第1合成モーションデータとして制御部に認識され記憶部に格納される。また、第2合成モーションデータ認識機能においては、記憶部に格納された各フレームの設定位置データ、および第2モーションデータに対応する基本位置データに基づいて算出された第2相対データを用いて、記憶部に格納された複数の第2モーションデータを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第2合成モーションデータとして制御部に認識され記憶部に格納される。さらに、第3合成モーションデータ認識機能においては、記憶部に格納された各フレームの設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて算出される第3相対データを用いて、記憶部に格納された第1合成モーションデータと、記憶部に格納された第2合成モーションデータとを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第3合成モーションデータとして制御部に認識され記憶部に格納されるIn this game program, in the relative data calculation function, relative data for defining the relative position of the target point that is the target of the character's motion is determined for each frame with respect to the target point that is the target of the basic motion of the character. The calculation process is executed by the control unit. Then, in the first synthesized motion data recognition function, using the setting position data of each frame stored in the storage unit and the first relative data calculated based on the basic position data corresponding to the first motion data, A process of combining a plurality of first motion data stored in the storage unit is executed by the control unit for each frame . Then, the motion data synthesized by this processing is recognized by the control unit as first synthesized motion data and stored in the storage unit . Further, in the second synthesized motion data recognition function, using the setting position data of each frame stored in the storage unit and the second relative data calculated based on the basic position data corresponding to the second motion data, A process of combining a plurality of second motion data stored in the storage unit is executed by the control unit for each frame . Then, the motion data synthesized by this processing is recognized by the control unit as second synthesized motion data and stored in the storage unit . Further, in the third synthesized motion data recognition function, based on the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data. The process of combining the first synthesized motion data stored in the storage unit and the second synthesized motion data stored in the storage unit using the third relative data calculated in the above is performed by the control unit for each frame. Executed. Then, the motion data synthesized by this process is recognized by the control unit as third synthesized motion data and stored in the storage unit .

たとえば、本ゲームプログラムで野球ゲームを実現した場合、打者キャラクタの基本スイング動作の対象となる対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための相対データを、1フレームごとに算出する処理が、制御部により実行される。すると、記憶部に格納された各フレームの設定位置データ、および第1モーションデータに対応する基本位置データに基づいて算出された第1相対データを用いて、記憶部に格納された複数の第1モーションデータを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第1合成モーションデータとして制御部に認識され記憶部に格納される。また、第2合成モーションデータ認識機能においては、記憶部に格納された各フレームの設定位置データ、および第2モーションデータに対応する基本位置データに基づいて算出された第2相対データを用いて、記憶部に格納された複数の第2モーションデータを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第2合成モーションデータとして制御部に認識され記憶部に格納される。さらに、第3合成モーションデータ認識機能においては、記憶部に格納された各フレームの設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて算出される第3相対データを用いて、記憶部に格納された第1合成モーションデータと、記憶部に格納された第2合成モーションデータとを合成する処理が、1フレームごとに制御部により実行される。すると、この処理により合成されたモーションデータが、第3合成モーションデータとして制御部に認識され記憶部に格納されるFor example, when a baseball game is realized by this game program, relative data for defining the relative position of the meet cursor that is the target of the batter character's swing motion with respect to the target point that is the target of the batter character's basic swing motion Is calculated for each frame by the control unit. Then, the first relative data calculated based on the set position data of each frame stored in the storage unit and the basic position data corresponding to the first motion data is used to store a plurality of first data stored in the storage unit . The process of synthesizing the motion data is executed by the control unit for each frame . Then, the motion data synthesized by this processing is recognized by the control unit as first synthesized motion data and stored in the storage unit . Further, in the second synthesized motion data recognition function, using the setting position data of each frame stored in the storage unit and the second relative data calculated based on the basic position data corresponding to the second motion data, A process of combining a plurality of second motion data stored in the storage unit is executed by the control unit for each frame . Then, the motion data synthesized by this processing is recognized by the control unit as second synthesized motion data and stored in the storage unit . Further, in the third synthesized motion data recognition function, based on the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data. The process of combining the first synthesized motion data stored in the storage unit and the second synthesized motion data stored in the storage unit using the third relative data calculated in the above is performed by the control unit for each frame. Executed. Then, the motion data synthesized by this process is recognized by the control unit as third synthesized motion data and stored in the storage unit .

この場合、打者キャラクタの基本スイング動作の対象となる対象点に対するミートカーソルの相対的な位置を規定するための相対データが、1フレームごとに制御部により算出されるようになっている。これにより、たとえば、打者キャラクタの基本スイング動作の対象となる対象点に対するミートカーソルの相対的な位置を規定するための相対データたとえば比率データに応じて、異なる第3合成モーションデータを1フレームごとに生成することができる。すなわち、基本スイング動作の対象となる対象点に対するミートカーソルの位置に応じて、異なる第3合成モーションデータを生成することができる。一般的な表現を用いると、請求項5に係る発明では、現実空間において人が行う動作をゲーム空間においても違和感なく表示することができる。 In this case, relative data for defining the relative position of the meat cursor with respect to the target point that is the target of the basic swing motion of the batter character is calculated by the control unit for each frame . Accordingly, for example, different third synthesized motion data is set for each frame in accordance with relative data, for example, ratio data, for specifying the relative position of the meat cursor with respect to the target point that is the target of the basic swing motion of the batter character. Can be generated. That is, different third synthesized motion data can be generated according to the position of the meet cursor with respect to the target point that is the target of the basic swing motion. If a general expression is used, in the invention according to the fifth aspect, an action performed by a person in the real space can be displayed in the game space without a sense of incongruity.

請求項6に係るゲームプログラムでは、請求項5に記載のゲームプログラムにおいて、複数の基本モーションデータのうちの2つのモーションデータそれぞれが、第1モーションデータとして制御部に認識され記憶部に格納される(第1モーションデータ認識機能)。そして、2つの第1モーションデータを除いた複数の基本モーションデータのうちの2つのモーションデータそれぞれが、第2モーションデータとして制御部に認識され格納される(第2モーションデータ認識機能)。そして、2つの第1モーションデータ用の2つの対象点に対する、キャラクタの動作の対象となる対象点の相対的な位置を規定するための、第1相対データを1フレームごとに算出する処理が、制御部により実行される。また、2つの第2モーションデータ用の2つの対象点に対する、キャラクタの動作の対象となる対象点の相対的な位置を規定するための、第2相対データを算出する処理が、1フレームごとに制御部により実行される。さらに、2つの第1モーションデータ用の2つの対象点のうちのいずれか一方の対象点および2つの第2モーションデータ用の2つの対象点のうちのいずれか一方の対象点に対する、キャラクタの動作の対象となる対象点の相対的な位置を規定するための、第3相対データを算出する処理が、1フレームごとに制御部により実行される(相対データ算出機能)。 In the game program according to claim 6, in the game program according to claim 5, each of two pieces of motion data among the plurality of basic motion data is recognized as first motion data by the control unit and stored in the storage unit. (First motion data recognition function). Then, each of the two pieces of motion data excluding the two pieces of first motion data is recognized and stored as second motion data by the control unit (second motion data recognition function). And the process which calculates 1st relative data for every frame for prescribing | regulating the relative position of the object point used as the object of a character's motion with respect to the 2 object points for two 1st motion data is as follows. It is executed by the control unit. In addition, the process of calculating the second relative data for defining the relative position of the target point that is the target of the character motion with respect to the two target points for the second second motion data is It is executed by the control unit. Furthermore, the character's motion on one of the two target points for the first motion data and one of the two target points for the second motion data The process of calculating the third relative data for defining the relative position of the target point to be the target of is executed by the control unit for each frame (relative data calculation function).

この場合、たとえば、複数の基本モーションデータのうちの2つの第1モーションデータおよび2つの第2モーションデータが、制御部に認識され記憶部に格納される。そして、2つの第1モーションデータ用の2つの対象点に対するミートカーソルの相対的な位置を規定するための第1相対データが、1フレームごとに制御部により算出される。また、2つの第2モーションデータ用の2つの対象点に対するミートカーソルの相対的な位置を規定するための第2相対データが、1フレームごとに制御部により算出される。さらに、2つの第1モーションデータ用の2つの対象点のうちのいずれか一方の対象点および2つの第2モーションデータ用の2つの対象点のうちのいずれか一方の対象点に対する、ミートカーソルの相対的な位置を規定するための、第3相対データが1フレームごとに制御部により算出される。 In this case, for example, two first motion data and two second motion data among a plurality of basic motion data are recognized by the control unit and stored in the storage unit . Then, the first relative data for defining the relative position of the meat cursor with respect to the two target points for the two first motion data is calculated for each frame by the control unit. Also, second relative data for defining the relative position of the meet cursor with respect to the two target points for the second second motion data is calculated by the control unit for each frame . Further, the meet cursor is applied to any one of the two target points for the two first motion data and one of the two target points for the second motion data. Third relative data for defining the relative position is calculated by the control unit for each frame .

このように、請求項6に係る発明では、4つのモーションデータ用の対象点に対するミートカーソルの相対的な位置を規定するための相対データたとえば比率データに応じて、4つのモーションデータ(2つの第1モーションデータおよび2つの第2モーションデータ)から、第1合成モーションデータおよび第2合成モーションデータを介して第3合成モーションデータを、1フレームごとに生成することができる。すなわち、4つの基本スイング動作の対象となる対象点に対するミートカーソルの位置に応じて、4つのモーションデータから第1合成モーションデータおよび第2合成モーションデータを介して第3合成モーションデータを、1フレームごとに生成することができる。これにより、請求項6に係る発明では、現実空間において人が行う動作をゲーム空間においても違和感なく表示することができる。 As described above, in the invention according to claim 6, the four motion data (two first data) are determined according to relative data, for example, ratio data, for defining the relative position of the meat cursor with respect to the four motion data target points. Third synthesized motion data can be generated for each frame from the first synthesized motion data and the second synthesized motion data. That is, according to the position of the meet cursor to the target point as a four target basic swing motion, the third combined motion data via the first synthetic motion data and the second synthesized motion data from the four motion data, one frame Can be generated for each . Thereby, in the invention which concerns on Claim 6, the operation | movement which a person performs in a real space can be displayed in a game space without discomfort.

請求項7に係るゲーム装置は、ゲーム空間において動作するキャラクタを画像表示部に表示するゲームを実行可能なゲーム装置である。このゲーム装置は、キャラクタの基本動作に対応する複数の基本モーションデータを、記憶部から読み出し、複数の基本モーションデータそれぞれを、制御部に認識させる基本モーションデータ認識手段と、複数の基本モーションデータのうちの少なくとも2つのモーションデータそれぞれを、第1モーションデータとして、制御部に認識させ記憶部に格納する第1モーションデータ認識手段と、複数の第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれを、第2モーションデータとして、制御部に認識させ記憶部に格納する第2モーションデータ認識手段と、キャラクタの基本動作の対象となる対象点の基本位置を示す基本位置データを、記憶部から読み出し、基本位置データを制御部に認識させ記憶部に格納する基本対象点認識手段と、キャラクタの基本動作を含むキャラクタの動作の対象となる対象点の設定位置を示す設定位置データを、1フレームごとに制御部に認識させ記憶部に格納する設定対象点認識手段と、記憶部に格納された各フレームの設定位置データ、および第1モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の第1モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第1合成モーションデータとして、制御部に認識させ記憶部に格納する第1合成モーションデータ認識手段と、記憶部に格納された各フレームの設定位置データ、および第2モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の第2モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第2合成モーションデータとして、制御部に認識させ記憶部に格納する第2合成モーションデータ認識手段と、記憶部に格納された各フレームの設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて、記憶部に格納された第1合成モーションデータと、記憶部に格納された第2合成モーションデータとを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第3合成モーションデータとして、制御部に認識させ記憶部に格納する第3合成モーションデータ認識手段と、記憶部に格納された第3合成モーションデータを用いて、対象点を対象にして動作するキャラクタを画像表示部に表示するキャラクタ表示手段とを、備えている。 A game device according to a seventh aspect is a game device capable of executing a game in which a character that moves in a game space is displayed on an image display unit. The game apparatus reads a plurality of basic motion data corresponding to the basic motion of the character from the storage unit, and recognizes each of the plurality of basic motion data by the control unit, and a plurality of basic motion data First motion data recognition means for recognizing at least two of the motion data as first motion data by the control unit and storing them in the storage unit, and at least one first motion data of the plurality of first motion data Second motion data recognizing means for recognizing at least two pieces of motion data out of a plurality of basic motion data excluding the character as second motion data and storing them in the storage unit, and a target of the basic motion of the character Basic position indicating the basic position of the target point The data read from the storage unit, the settings shown the basic target point recognizing means for storing in the storage unit to recognize the basic position data to the control unit, the setting position of the target point to be movement of the character containing the basic operation of the character The setting target point recognition means for recognizing the position data for each frame by the control unit and storing it in the storage unit, the set position data of each frame stored in the storage unit , and the basic position data corresponding to the first motion data Based on this, by causing the control unit to execute a process of synthesizing the plurality of first motion data stored in the storage unit for each frame , the motion data synthesized by the process is controlled as the first synthesized motion data. a first combined motion data recognizing means to recognize and stores in the storage unit in the section, setting the position data of each frame stored in the storage unit , And based on the basic position data corresponding to the second motion data, the processing for combining a plurality of second motion data stored in the storage unit and is executed by the control unit for each frame, it is synthesized by the process Second motion data is recognized as second synthesized motion data by the control unit and stored in the storage unit, the setting position data of each frame stored in the storage unit, and the first motion data Processing for combining the first synthesized motion data stored in the storage unit and the second synthesized motion data stored in the storage unit based on the corresponding basic position data and the basic position data corresponding to the second motion data and is executed by the control unit for each frame, the motion data synthesized by the process, the Synthetic motion data, and the third combined motion data recognizing means for storing in the storage unit is recognized by the control unit, the third synthesized motion data by using the image of the character operated by the target point in the target stored in the storage unit Character display means for displaying on the display unit.

請求項8に係るゲーム制御方法は、ゲーム空間において動作するキャラクタを画像表示部に表示するゲームをコンピュータにより制御するゲーム制御方法である。このゲーム制御方法は、キャラクタの基本動作に対応する複数の基本モーションデータを、記憶部から読み出し、複数の基本モーションデータそれぞれを、制御部に認識させる基本モーションデータ認識ステップと、複数の基本モーションデータのうちの少なくとも2つのモーションデータそれぞれを、第1モーションデータとして、制御部に認識させ記憶部に格納する第1モーションデータ認識ステップと、複数の第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれを、第2モーションデータとして、制御部に認識させ記憶部に格納する第2モーションデータ認識ステップと、キャラクタの基本動作の対象となる対象点の基本位置を示す基本位置データを、記憶部から読み出し、基本位置データを制御部に認識させ記憶部に格納する基本対象点認識ステップと、キャラクタの基本動作を含むキャラクタの動作の対象となる対象点の設定位置を示す設定位置データを、1フレームごとに制御部に認識させ記憶部に格納する設定対象点認識ステップと、記憶部に格納された各フレームの設定位置データ、および第1モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の第1モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第1合成モーションデータとして、制御部に認識させ記憶部に格納する第1合成モーションデータ認識ステップと、記憶部に格納された各フレームの設定位置データ、および第2モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の第2モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第2合成モーションデータとして、制御部に認識させ記憶部に格納する第2合成モーションデータ認識ステップと、記憶部に格納された各フレームの設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて、記憶部に格納された第1合成モーションデータと、記憶部に格納された第2合成モーションデータとを合成する処理を、1フレームごとに制御部に実行させることにより、処理により合成されたモーションデータを、第3合成モーションデータとして、制御部に認識させ記憶部に格納する第3合成モーションデータ認識ステップと、記憶部に格納された第3合成モーションデータを用いて、対象点を対象にして動作するキャラクタを画像表示部に表示するキャラクタ表示ステップとを、備えている。 A game control method according to an eighth aspect of the present invention is a game control method in which a computer controls a game in which a character operating in a game space is displayed on an image display unit. In this game control method, a plurality of basic motion data corresponding to the basic motion of the character is read from the storage unit, and a plurality of basic motion data are recognized by the control unit, and a plurality of basic motion data are recognized. A first motion data recognition step of causing each of the at least two pieces of motion data to be recognized as first motion data by the control unit and stored in the storage unit; and at least one first motion among the plurality of first motion data A second motion data recognition step of recognizing at least two pieces of motion data out of a plurality of basic motion data excluding data as second motion data by the control unit and storing them in the storage unit, and a basic motion of the character Basics of target points The basic position data indicating the location, read from the storage unit, and the basic target point recognition step of storing in the storage unit to recognize the basic position data to the control unit, the target point to be movement of the character containing the basic operation of the character Corresponds to the setting target point recognition step in which the control unit recognizes the setting position data indicating the setting position for each frame and stores it in the storage unit, the setting position data of each frame stored in the storage unit , and the first motion data based on the basic position data, the processing for combining a plurality of first motion data stored in the storage unit and is executed by the control unit for each frame, the motion data synthesized by the process, the first synthetic As the motion data, a first synthesized motion data recognition step that is recognized by the control unit and stored in the storage unit, and stored in the storage unit Based on the set position data of each frame and the basic position data corresponding to the second motion data , the control unit is caused to execute a process for synthesizing a plurality of second motion data stored in the storage unit for each frame . by the motion data synthesized by the process, as the second combined motion data, a second synthesized motion data recognition step to be stored in the storage unit is recognized by the control unit, set position data of each frame stored in the storage unit And first synthesized motion data stored in the storage unit based on the basic position data corresponding to the first motion data and the basic position data corresponding to the second motion data, and the second synthesized data stored in the storage unit the process for combining the motion data, is executed by the control unit for each frame, the processing The motion data has been made, as the third combined motion data, by using a third combined motion data recognition step to be stored in the storage unit is recognized by the control unit, the third combined motion data stored in the storage unit, the target point A character display step of displaying on the image display unit a character that operates on the image display unit.

本発明では、基本位置データが示す基本動作の対象位置および設定位置データが示す設定位置に基づいて、基本となる基本モーションデータが合成される。そして、合成されたモーションデータを再合成することにより、最終的な合成モーションデータが生成される。すなわち、基本位置データが示す基本動作の対象位置および設定位置データが示す設定位置に基づいて、基本となる基本モーションデータから、第1合成モーションデータおよび第2合成モーションデータを介して、第3合成モーションデータが生成されるようになっている。このため、設定位置がどの位置に位置していても、第3合成モーションデータを用いることにより、キャラクタの現実的なスイング動作を、モニタに表示することができる。これにより、現実空間において人が行う動作をゲーム空間においても違和感なく表示することができる。   In the present invention, basic basic motion data is synthesized based on the target position of the basic motion indicated by the basic position data and the set position indicated by the set position data. Then, final synthesized motion data is generated by re-synthesizing the synthesized motion data. That is, based on the target position of the basic motion indicated by the basic position data and the set position indicated by the set position data, the third synthesized motion data and the second synthesized motion data are used for the third synthesized motion data. Motion data is generated. For this reason, even if the set position is located, the realistic swing motion of the character can be displayed on the monitor by using the third synthesized motion data. Thereby, it is possible to display a motion performed by a person in the real space without any discomfort in the game space.

〔ゲーム装置の構成と動作〕
図1は、本発明の一実施形態によるゲーム装置の基本構成を示している。ここでは、ビデオゲーム装置の一例として、家庭用ビデオゲーム装置を対象として説明を行うこととする。家庭用ビデオゲーム装置は、家庭用ゲーム機本体および家庭用テレビジョンを備える。家庭用ゲーム機本体には、記録媒体10が装填可能となっており、記録媒体10からゲームデータが適宜読み出されてゲームが実行される。このようにして実行されるゲーム内容が家庭用テレビジョンに表示される。
[Configuration and operation of game device]
FIG. 1 shows a basic configuration of a game device according to an embodiment of the present invention. Here, as an example of the video game apparatus, a home video game apparatus will be described. The home video game apparatus includes a home game machine body and a home television. The home game machine body can be loaded with a recording medium 10, and game data is read from the recording medium 10 as appropriate to execute the game. The contents of the game executed in this way are displayed on the home television.

家庭用ビデオゲーム装置のゲームシステムは、制御部1と、記憶部2と、画像表示部3と、音声出力部4と、操作入力部5、通信部23とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音声出力部4および操作入力部5は、家庭用ビデオゲーム装置の家庭用ゲーム機本体に含まれており、画像表示部3は家庭用テレビジョンに含まれている。   The game system of the home video game apparatus includes a control unit 1, a storage unit 2, an image display unit 3, an audio output unit 4, an operation input unit 5, and a communication unit 23, each of which is a bus 6 Connected through. The bus 6 includes an address bus, a data bus, a control bus, and the like. Here, the control unit 1, the storage unit 2, the audio output unit 4, and the operation input unit 5 are included in the home game machine body of the home video game apparatus, and the image display unit 3 is included in the home television. It is.

制御部1は、主に、ゲームプログラムに基づいてゲーム全体の進行を制御するために設けられている。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、3次元空間上又は擬似3次元空間上で実行された計算結果に基づいた画像および音声データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12に書き込む処理を行っている。また、CPU7は、信号処理プロセッサ8に対して、各種データを処理するように命令する。信号処理プロセッサ8は、主に、3次元空間上における各種データに対応する計算と、3次元空間上から擬似3次元空間上への位置変換計算とを行っている。   The control unit 1 is provided mainly for controlling the progress of the entire game based on the game program. The control unit 1 includes, for example, a CPU (Central Processing Unit) 7, a signal processor 8, and an image processor 9. The CPU 7, the signal processor 8, and the image processor 9 are connected to each other via the bus 6. The CPU 7 interprets instructions from the game program and performs various data processing and control. For example, the CPU 7 instructs the signal processor 8 to supply image data to the image processor. The signal processor 8 mainly performs calculation in the three-dimensional space, position conversion calculation from the three-dimensional space to the pseudo three-dimensional space, light source calculation processing, and in the three-dimensional space or the pseudo three-dimensional space. Image and sound data generation / processing based on the result of the calculation performed is performed. The image processor 9 mainly performs a process of writing image data to be drawn into the RAM 12 based on the calculation result and the processing result of the signal processor 8. Further, the CPU 7 instructs the signal processor 8 to process various data. The signal processor 8 mainly performs calculations corresponding to various data in the three-dimensional space and position conversion calculation from the three-dimensional space to the pseudo three-dimensional space.

記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納しておくために設けられている。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、RAM(Random Access Memory)12とから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とRAM12とはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音声データ並びに各種プログラムデータからなるゲームデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやゲームデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれており、このカード型メモリは、主に、ゲームを中断するときに中断時点での各種ゲームパラメータを保存するために用いられる。RAM12は、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12には、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。   The storage unit 2 is provided mainly for storing program data and various data used in the program data. The storage unit 2 includes, for example, a recording medium 10, an interface circuit 11, and a RAM (Random Access Memory) 12. An interface circuit 11 is connected to the recording medium 10. The interface circuit 11 and the RAM 12 are connected via the bus 6. The recording medium 10 is for recording operation system program data, image data, audio data, game data including various program data, and the like. The recording medium 10 is, for example, a ROM (Read Only Memory) cassette, an optical disk, a flexible disk, or the like, and stores operating system program data, game data, and the like. The recording medium 10 also includes a card type memory, and this card type memory is mainly used for storing various game parameters at the time of interruption when the game is interrupted. The RAM 12 is used for temporarily storing various data read from the recording medium 10 and temporarily recording the processing results from the control unit 1. The RAM 12 stores various data and address data indicating the storage position of the various data, and can be read / written by designating an arbitrary address.

画像表示部3は、主に、画像処理プロセッサ9によってRAM12に書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、テレビジョンモニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。テレビジョンモニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がテレビジョンモニタ20に画像として出力される。   The image display unit 3 is provided mainly for outputting image data written in the RAM 12 by the image processor 9 or image data read from the recording medium 10 as an image. The image display unit 3 includes, for example, a television monitor 20, an interface circuit 21, and a D / A converter (Digital-To-Analog converter) 22. A D / A converter 22 is connected to the television monitor 20, and an interface circuit 21 is connected to the D / A converter 22. The bus 6 is connected to the interface circuit 21. Here, the image data is supplied to the D / A converter 22 via the interface circuit 21, where it is converted into an analog image signal. The analog image signal is output as an image to the television monitor 20.

ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータを書き込む。このようにして、各ポリゴンにテクスチャが貼り付けられた物体つまり各種キャラクタを表現することができる。   Here, the image data includes, for example, polygon data and texture data. Polygon data is the coordinate data of vertices constituting a polygon. The texture data is for setting a texture on the polygon, and is composed of texture instruction data and texture color data. The texture instruction data is data for associating polygons and textures, and the texture color data is data for designating the texture color. Here, the polygon data and the texture data are associated with the polygon address data indicating the storage position of each data and the texture address data. In such image data, the signal processor 8 coordinates the polygon data in the three-dimensional space indicated by the polygon address data (three-dimensional polygon data) based on the movement amount data and the rotation amount data of the screen itself (viewpoint). Conversion and perspective projection conversion are performed, and the data is replaced with polygon data (two-dimensional polygon data) in a two-dimensional space. Then, a polygon outline is constituted by a plurality of two-dimensional polygon data, and texture data indicated by the texture address data is written in an internal area of the polygon. In this way, an object in which a texture is pasted on each polygon, that is, various characters can be expressed.

音声出力部4は、主に、記録媒体10から読み出される音声データを音声として出力するために設けられている。音声出力部4は、たとえば、スピーカ13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカ13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音声データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音声信号に変換される。このアナログ音声信号が増幅回路14によって増幅され、スピーカ13から音声として出力される。音声データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音声をスピーカ13から出力することができる。PCMデータの場合、RAM12においてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音声をスピーカ13から出力することができる。   The audio output unit 4 is provided mainly for outputting audio data read from the recording medium 10 as audio. The audio output unit 4 includes, for example, a speaker 13, an amplifier circuit 14, a D / A converter 15, and an interface circuit 16. An amplifier circuit 14 is connected to the speaker 13, a D / A converter 15 is connected to the amplifier circuit 14, and an interface circuit 16 is connected to the D / A converter 15. The bus 6 is connected to the interface circuit 16. Here, the audio data is supplied to the D / A converter 15 via the interface circuit 16, where it is converted into an analog audio signal. This analog audio signal is amplified by the amplifier circuit 14 and output from the speaker 13 as audio. The audio data includes, for example, ADPCM (Adaptive Differential Pulse Code Modulation) data and PCM (Pulse Code Modulation) data. In the case of ADPCM data, sound can be output from the speaker 13 by the same processing method as described above. In the case of PCM data, by converting the PCM data into ADPCM data in the RAM 12, the sound can be output from the speaker 13 by the same processing method as described above.

操作入力部5は、主に、コントローラ17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。コントローラ17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。   The operation input unit 5 mainly includes a controller 17, an operation information interface circuit 18, and an interface circuit 19. An operation information interface circuit 18 is connected to the controller 17, and an interface circuit 19 is connected to the operation information interface circuit 18. The bus 6 is connected to the interface circuit 19.

コントローラ17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。コントローラ17には、第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、上方向キー17U、下方向キー17D、左方向キー17L、右方向キー17R、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1、R2ボタン17R2、スタートボタン17e、セレクトボタン17f、左スティック17SL及び右スティック17SRが設けられている。   The controller 17 is an operation device used by the player to input various operation commands, and sends an operation signal according to the operation of the player to the CPU 7. The controller 17 includes a first button 17a, a second button 17b, a third button 17c, a fourth button 17d, an up key 17U, a down key 17D, a left key 17L, a right key 17R, and an L1 button 17L1, L2. A button 17L2, an R1 button 17R1, an R2 button 17R2, a start button 17e, a select button 17f, a left stick 17SL and a right stick 17SR are provided.

上方向キー17U、下方向キー17D、左方向キー17L及び右方向キー17Rは、例えば、キャラクタやカーソルをテレビジョンモニタ20の画面上で上下左右に移動させるコマンドをCPU7に与えるために使用される。   The up direction key 17U, the down direction key 17D, the left direction key 17L, and the right direction key 17R are used, for example, to give the CPU 7 a command for moving a character or cursor up, down, left, or right on the screen of the television monitor 20. .

スタートボタン17eは、記録媒体10からゲームプログラムをロードするようにCPU7に指示するときなどに使用される。   The start button 17e is used when instructing the CPU 7 to load a game program from the recording medium 10.

セレクトボタン17fは、記録媒体10からロードされたゲームプログラムに対して、各種選択をCPU7に指示するときなどに使用される。   The select button 17f is used when instructing the CPU 7 to make various selections for the game program loaded from the recording medium 10.

左スティック17SL及び右スティック17SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは、直立したスティックを有している。このスティックは、支点を中心として直立位置から前後左右を含む360°方向に亘って、傾倒可能な構成になっている。左スティック17SL及び右スティック17SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とするx座標及びy座標の値を、操作信号として操作情報インターフェース回路18とインターフェース回路19とを介してCPU7に送出する。   The left stick 17SL and the right stick 17SR are stick type controllers having substantially the same configuration as a so-called joystick. This stick type controller has an upright stick. The stick is configured to be tiltable from an upright position around the fulcrum in a 360 ° direction including front, rear, left and right. The left stick 17SL and the right stick 17SR pass through the operation information interface circuit 18 and the interface circuit 19 with the values of the x-coordinate and the y-coordinate having the upright position as the origin as operation signals according to the tilt direction and tilt angle of the stick. To the CPU 7.

第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1及びR2ボタン17R2には、記録媒体10からロードされるゲームプログラムに応じて種々の機能が割り振られている。   The first button 17a, the second button 17b, the third button 17c, the fourth button 17d, the L1 button 17L1, the L2 button 17L2, the R1 button 17R1, and the R2 button 17R2 correspond to the game program loaded from the recording medium 10. Various functions are allocated.

なお、左スティック17SL及び右スティック17SRを除くコントローラ17の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると中立位置に復帰してオフになるオンオフスイッチになっている。   Each button and each key of the controller 17 except for the left stick 17SL and the right stick 17SR are turned on when pressed from the neutral position by an external pressing force, and return to the neutral position when the pressing force is released. It is an on / off switch that turns off.

通信部23は、通信制御回路24および通信インターフェース25を有している。通信制御回路24および通信インターフェース25は、ゲーム機をサーバや他のゲーム機等に接続するために用いられる。通信制御回路20および通信インターフェース21は、バス16を介してCPU11に接続されている。通信制御回路20および通信インターフェース21は、CPU11からの命令に応じて、ゲーム機をインターネットに接続するための接続信号を制御し発信する。また、通信制御回路20および通信インターフェース21は、インターネットを介してゲーム機をサーバや他のゲーム機に接続するための接続信号を制御し発信する。   The communication unit 23 includes a communication control circuit 24 and a communication interface 25. The communication control circuit 24 and the communication interface 25 are used to connect the game machine to a server, another game machine, or the like. The communication control circuit 20 and the communication interface 21 are connected to the CPU 11 via the bus 16. The communication control circuit 20 and the communication interface 21 control and transmit a connection signal for connecting the game machine to the Internet in accordance with a command from the CPU 11. The communication control circuit 20 and the communication interface 21 control and transmit a connection signal for connecting the game machine to a server or another game machine via the Internet.

以上のような構成からなる家庭用ビデオゲーム装置の概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされゲームシステム1に電源が投入されると、CPU7が、記録媒体10に記憶されているオペレーティングシステムに基づいて、記録媒体10から画像データ、音声データ、およびプログラムデータを読み出す。読み出された画像データ、音声データ、およびプログラムデータの一部若しくは全部は、RAM12に格納される。そして、CPU7が、RAM12に格納されたプログラムデータに基づいて、RAM12に格納された画像データや音声データを画像や音声としてテレビジョンモニタ20やスピーカ13に出力するためのコマンドを発行する。   The schematic operation of the home video game apparatus having the above configuration will be described below. When a power switch (not shown) is turned on and the game system 1 is turned on, the CPU 7 reads image data, audio data, and a program from the recording medium 10 based on the operating system stored in the recording medium 10. Read data. Some or all of the read image data, audio data, and program data are stored in the RAM 12. Then, the CPU 7 issues a command for outputting the image data and sound data stored in the RAM 12 as an image and sound to the television monitor 20 and the speaker 13 based on the program data stored in the RAM 12.

画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12への書き込み処理などを行う。そして、RAM12に書き込まれた画像データが、インターフェース回路21を介してD/Aコンバータ22に供給される。ここで、画像データがD/Aコンバータ22でアナログ映像信号に変換される。そして、画像データはテレビジョンモニタ20に供給され画像として表示される。   In the case of image data, based on a command from the CPU 7, first, the signal processor 8 performs character position calculation and light source calculation in a three-dimensional space. Next, the image processor 9 performs a process of writing image data to be drawn into the RAM 12 based on the calculation result of the signal processor 8. Then, the image data written in the RAM 12 is supplied to the D / A converter 22 via the interface circuit 21. Here, the image data is converted into an analog video signal by the D / A converter 22. The image data is supplied to the television monitor 20 and displayed as an image.

音声データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音声データの生成および加工処理を行う。ここでは、音声データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音声データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音声データがアナログ音声信号に変換される。そして、音声データは増幅回路14を介してスピーカ13から音声として出力される。

〔ゲーム装置における各種処理概要〕
本ゲーム機において実行されるゲームは、たとえば野球ゲームである。本ゲーム機では、ゲーム空間において動作する打者キャラクタが、テレビジョンモニタ20に表示される。また、本ゲーム機では、ゲーム空間において動作する野手キャラクタ(投手キャラクタを含む)、およびゲーム空間を移動するボールオブジェクト等が、テレビジョンモニタ20に表示される。図2は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。
In the case of audio data, first, the signal processor 8 generates and processes audio data based on a command from the CPU 7. Here, processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition is performed on the audio data, for example. Next, the audio data is output from the signal processor 8 and supplied to the D / A converter 15 via the interface circuit 16. Here, the audio data is converted into an analog audio signal. The audio data is output as audio from the speaker 13 via the amplifier circuit 14.

[Outline of various processes in game devices]
The game executed in this game machine is, for example, a baseball game. In this game machine, a batter character operating in the game space is displayed on the television monitor 20. In the game machine, a fielder character (including a pitcher character) that moves in the game space, a ball object that moves in the game space, and the like are displayed on the television monitor 20. FIG. 2 is a functional block diagram for explaining functions that play a major role in the present invention.

対象範囲認識手段50は、打者キャラクタのスイング動作の対象となる対象領域(ボール通過領域)の範囲を示す範囲データを、CPU7に認識させる機能を備えている。対象範囲認識手段50では、打者キャラクタのスイング動作の対象となるボール通過領域の範囲を示す範囲データが、CPU7に認識される。   The target range recognition means 50 has a function of causing the CPU 7 to recognize range data indicating the range of the target area (ball passing area) that is the target of the batter character's swing motion. In the target range recognizing means 50, the CPU 7 recognizes range data indicating the range of the ball passing area that is the target of the batter character's swing motion.

この手段では、打者キャラクタのスイング動作の対象となるボール通過領域の範囲を示す範囲データが、CPU7に認識される。ここでは、投手キャラクタからリリースされたボールが通過する領域、たとえばホームベース上方の矩形平面状の領域が、ボール通過領域として規定されている。このボール通過領域は、ストライクゾーンおよびボールゾーンから構成されている。ボール通過領域の範囲を示す範囲データ(X,Y)は、「x1≦X≦x2」および「y1≦Y≦y2」のような形式で規定されるデータである。このデータでは、ボール通過領域のx方向の両端を示す座標データをx1およびx2とし(x1<x2)、ボール通過領域のy方向の上下端を示す座標データをy1およびy2としている(y1<y2)。これらのボール通過領域の境界を示す座標データx1,x2,y1,y2は、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   With this means, the CPU 7 recognizes range data indicating the range of the ball passing area that is the target of the batter character's swing motion. Here, an area through which the ball released from the pitcher character passes, for example, a rectangular flat area above the home base is defined as the ball passage area. This ball passage area is composed of a strike zone and a ball zone. The range data (X, Y) indicating the range of the ball passing area is data defined in a format such as “x1 ≦ X ≦ x2” and “y1 ≦ Y ≦ y2”. In this data, coordinate data indicating both ends of the ball passing area in the x direction are x1 and x2 (x1 <x2), and coordinate data indicating the upper and lower ends of the ball passing area in the y direction are y1 and y2 (y1 <y2). ). The coordinate data x1, x2, y1, and y2 indicating the boundaries of these ball passage areas are loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded.

なお、本野球ゲームでは、ホームベースから上方に向かう軸がy軸、ホームベースから投手プレートに向かう軸がz軸、y方向軸とz方向軸に直交する軸がx軸と規定している。   In this baseball game, the axis extending upward from the home base is defined as the y axis, the axis extending from the home base toward the pitcher plate is defined as the z axis, and the axis orthogonal to the y direction axis and the z direction axis is defined as the x axis.

基本対象点認識手段51は、RAM12に格納された、打者キャラクタの基本スイング動作の対象となる対象点の基本位置を示す基本位置データを、CPU7に認識させる機能を備えている。詳細には、基本対象点認識手段51は、ボール通過領域の範囲内に位置する対象点の基本位置を示す基本対象位置データを、CPU7に認識させる機能を備えている。基本対象点認識手段51では、RAM12に格納された、打者キャラクタの基本スイング動作の対象となる対象点の基本位置を示す基本位置データが、CPU7に認識される。この基本位置データが示す基本位置は、ボール通過領域の範囲内に規定されている。   The basic target point recognizing means 51 has a function of causing the CPU 7 to recognize basic position data stored in the RAM 12 and indicating the basic position of the target point that is the target of the basic swing motion of the batter character. Specifically, the basic target point recognizing means 51 has a function of causing the CPU 7 to recognize basic target position data indicating the basic position of a target point located within the ball passage area. In the basic target point recognizing means 51, the CPU 7 recognizes the basic position data stored in the RAM 12 and indicating the basic position of the target point that is the target of the basic swing motion of the batter character. The basic position indicated by the basic position data is defined within the range of the ball passage area.

この手段では、打者キャラクタの基本スイング動作の対象となる対象点の基本位置を示す基本位置データが、CPU7に認識される。ここでは、打者キャラクタの基本スイング動作の対象となる対象点の基本位置を示す基本位置データが、ボール通過領域の範囲内の座標データとなっており、この座標データ(基本位置データ)がCPU7に認識される。言い換えると、基本位置データが示す基本位置は、ボール通過領域の範囲内に位置している。具体的には、基本位置データが示す基本位置、すなわち打者キャラクタの基本スイング動作の対象となる対象点は、ボール通過領域のストライクゾーンの4つの隅角部に設定されている。これらストライクゾーンの4つの隅角部それぞれの位置を示す座標データ(基本位置データ)は、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   With this means, the CPU 7 recognizes the basic position data indicating the basic position of the target point that is the target of the basic swing motion of the batter character. Here, the basic position data indicating the basic position of the target point that is the target of the basic swing motion of the batter character is the coordinate data within the range of the ball passing area, and this coordinate data (basic position data) is sent to the CPU 7. Be recognized. In other words, the basic position indicated by the basic position data is located within the range of the ball passage area. Specifically, the basic position indicated by the basic position data, that is, the target points that are the targets of the basic swing motion of the batter character are set at the four corners of the strike zone of the ball passing area. Coordinate data (basic position data) indicating the positions of the four corners of these strike zones is loaded from the recording medium 10 into the RAM 12 and stored in the RAM 12 when the game program is loaded.

基本モーションデータ認識手段52は、RAM12に格納された、打者キャラクタの基本スイング動作に対応する複数の基本モーションデータそれぞれを、CPU7に認識させる機能を備えている。基本モーションデータ認識手段52では、RAM12に格納された、打者キャラクタの基本スイング動作に対応する複数の基本モーションデータそれぞれが、CPU7に認識される。   The basic motion data recognizing means 52 has a function of causing the CPU 7 to recognize each of a plurality of basic motion data stored in the RAM 12 and corresponding to the basic swing motion of the batter character. In the basic motion data recognizing means 52, each of a plurality of basic motion data corresponding to the basic swing motion of the batter character stored in the RAM 12 is recognized by the CPU 7.

この手段では、打者キャラクタの基本スイング動作に対応する複数の基本モーションデータそれぞれが、CPU7に認識される。ここでは、ストライクゾーンの4つの隅角部(対象点)それぞれに向けてスイング動作をする打者キャラクタのモーションデータが、打者キャラクタの基本スイング動作に対応する基本モーションデータとして、CPU7に認識される。具体的には、ストライクゾーンの外角高めの隅角部、ストライクゾーンの内角高めの隅角部、ストライクゾーンの外角低めの隅角部、およびストライクゾーンの内角低めの隅角部それぞれに向けてスイング動作をする打者キャラクタのモーションデータが、打者キャラクタの基本スイング動作に対応する基本モーションデータとして、CPU7に認識される。すなわち、4つの隅角部それぞれを対象としてスイング動作をする打者キャラクタのモーションデータが、基本モーションデータとして、CPU7に認識される。   With this means, the CPU 7 recognizes each of a plurality of basic motion data corresponding to the basic swing motion of the batter character. Here, the motion data of the batter character swinging toward each of the four corners (target points) of the strike zone is recognized by the CPU 7 as basic motion data corresponding to the basic swing motion of the batter character. Specifically, swing toward the higher corner angle of the strike zone, the higher corner angle of the strike zone, the lower corner angle of the strike zone, and the lower corner angle of the strike zone. The motion data of the batter character performing the movement is recognized by the CPU 7 as basic motion data corresponding to the basic swing movement of the batter character. That is, the motion data of the batter character performing the swing motion for each of the four corner portions is recognized by the CPU 7 as basic motion data.

なお、複数の基本モーションデータすなわち4つの基本モーションデータは、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   A plurality of basic motion data, that is, four basic motion data are loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded.

第1モーションデータ認識手段53は、複数の基本モーションデータのうちの少なくとも2つのモーションデータそれぞれを、第1モーションデータとしてCPU7に認識させる機能を備えている。詳細には、第1モーションデータ認識手段53は、複数の基本モーションデータのうちの2つのモーションデータそれぞれを、第1モーションデータとしてCPU7に認識させる機能を備えている。第1モーションデータ認識手段53では、複数の基本モーションデータのうちの2つのモーションデータそれぞれが、第1モーションデータとしてCPU7に認識される。   The first motion data recognizing means 53 has a function of causing the CPU 7 to recognize at least two pieces of motion data among the plurality of basic motion data as the first motion data. Specifically, the first motion data recognizing means 53 has a function of causing the CPU 7 to recognize each of two pieces of motion data among a plurality of basic motion data as first motion data. In the first motion data recognizing means 53, each of two motion data of the plurality of basic motion data is recognized by the CPU 7 as the first motion data.

この手段では、複数の基本モーションデータのうちの2つのモーションデータそれぞれが、第1モーションデータとしてCPU7に認識される。ここでは、ストライクゾーンの隅角部(対象点)に向けてスイング動作をする打者キャラクタの4つのモーションデータのうちの2つのモーションデータそれぞれが、第1モーションデータとしてCPU7に認識される。具体的には、ストライクゾーンの外角高めの隅角部を対象としてスイング動作をする打者キャラクタのモーションデータ、およびストライクゾーンの内角高めの隅角部を対象としてスイング動作をする打者キャラクタのモーションデータが、第1モーションデータとしてCPU7に認識される。   In this means, each of two pieces of motion data among the plurality of basic motion data is recognized by the CPU 7 as the first motion data. Here, each of the two motion data of the four motion data of the batter character that swings toward the corner (target point) of the strike zone is recognized by the CPU 7 as the first motion data. Specifically, the motion data of a batter character that performs a swing motion with a higher corner angle of the strike zone and the motion data of a batter character that performs a swing motion with a higher corner angle of the strike zone The CPU 7 recognizes the first motion data.

第2モーションデータ認識手段54は、複数の第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれを、第2モーションデータとしてCPU7に認識させる機能を備えている。詳細には、第2モーションデータ認識手段54は、2つの第1モーションデータを除いた複数の基本モーションデータのうちの2つのモーションデータそれぞれを、第2モーションデータとしてCPU7に認識させる機能を備えている。第2モーションデータ認識手段54では、2つの第1モーションデータを除いた複数の基本モーションデータのうちの2つのモーションデータそれぞれが、第2モーションデータとしてCPU7に認識される。   The second motion data recognizing means 54 uses each of at least two pieces of motion data out of a plurality of basic motion data excluding at least one first motion data of the plurality of first motion data as second motion data. The CPU 7 has a function to be recognized. Specifically, the second motion data recognizing means 54 has a function of causing the CPU 7 to recognize each of two motion data of the plurality of basic motion data excluding the two first motion data as the second motion data. Yes. In the second motion data recognizing means 54, each of the two motion data out of the plurality of basic motion data excluding the two first motion data is recognized by the CPU 7 as the second motion data.

この手段では、2つの第1モーションデータを除いた複数の基本モーションデータのうちの2つのモーションデータそれぞれが、第2モーションデータとしてCPU7に認識される。ここでは、ストライクゾーンの外角高めの隅角部に向けてスイング動作をする打者キャラクタのモーションデータおよびストライクゾーンの内角高めの隅角部に向けてスイング動作をする打者キャラクタのモーションデータを除いた複数の基本モーションデータのうちの、2つのモーションデータそれぞれが、第2モーションデータとしてCPU7に認識される。具体的には、ストライクゾーンの外角低めの隅角部を対象としてスイング動作をする打者キャラクタのモーションデータ、およびストライクゾーンの内角低めの隅角部を対象としてスイング動作をする打者キャラクタのモーションデータが、第2モーションデータとしてCPU7に認識される。   In this means, the CPU 7 recognizes each of the two motion data out of the plurality of basic motion data excluding the two first motion data as the second motion data. Here, the motion data of the batter character that swings toward the corner of the strike zone with a higher outer angle and the motion data of the batter character that swings toward the corner of the strike zone with a higher inner angle are excluded. Of the basic motion data, each of the two motion data is recognized by the CPU 7 as second motion data. Specifically, the motion data of a batter character swinging with a lower outer corner of the strike zone as a target, and the motion data of a batter character swinging with a lower inner corner of the strike zone as target The CPU 7 recognizes the second motion data.

受付制限時間データ認識手段55は、打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データを受け付ける時間を制限するための受付制限時間データを、CPU7に認識させる機能を備えている。受付制限時間データ認識手段55では、打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データを受け付ける時間を制限するための受付制限時間データが、CPU7に認識される。   The reception limit time data recognizing means 55 has a function of causing the CPU 7 to recognize reception limit time data for limiting the time for receiving the setting position data indicating the setting position of the meat cursor that is the target of the batter character's swing motion. Yes. In the reception time limit data recognizing means 55, the CPU 7 recognizes reception time limit data for limiting the time for receiving the setting position data indicating the setting position of the meet cursor that is the target of the batter character's swing motion.

この手段では、ミートカーソルの設定位置を示す設定位置データを受け付ける時間を制限するための受付制限時間データが、CPU7に認識される。この受付制限時間データは、ゲームプログラムにおいて予め規定されており、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納される。   In this means, the CPU 7 recognizes reception time limit data for limiting the time for receiving the setting position data indicating the setting position of the meet cursor. The reception limit time data is defined in advance in the game program, and is loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded.

ミートカーソル移動判断手段56は、打者キャラクタのスイング動作の対象となるミートカーソルを移動させるためのミートカーソル移動命令が発行されたか否かをCPU7に判断させる機能を備えている。ミートカーソル移動判断手段56では、打者キャラクタのスイング動作の対象となるミートカーソルを移動させるためのミートカーソル移動命令が発行されたか否かが、CPU7により判断される。   The meet cursor movement determination means 56 has a function of causing the CPU 7 to determine whether or not a meet cursor movement command for moving the meet cursor that is the target of the batter character's swing motion has been issued. In the meet cursor movement determination means 56, the CPU 7 determines whether or not a meet cursor movement command for moving the meet cursor that is the target of the batter character's swing motion has been issued.

この手段では、打者キャラクタのスイング動作の対象となるミートカーソルを移動させるためのミートカーソル移動命令が発行されたか否かが、CPU7により判断される。ここでは、ミートカーソルを移動させるためのミートカーソル移動命令がCPU7から発行されたか否かが、判断される。具体的には、ミートカーソルを移動するためにコントローラ17が操作されると、コントローラ17からの入力信号がCPU7に認識される。すると、この入力信号に対応するミートカーソル移動命令が、CPU7から発行される。一方で、ミートカーソルを移動するための操作が行われていないときには、コントローラ17からの入力信号がCPU7に認識されることがないので、ミートカーソル移動命令が、CPU7から発行されることはない。   In this means, the CPU 7 determines whether or not a meet cursor movement command for moving the meet cursor that is the target of the batter character's swing motion has been issued. Here, it is determined whether or not a meet cursor movement command for moving the meet cursor is issued from the CPU 7. Specifically, when the controller 17 is operated to move the meet cursor, an input signal from the controller 17 is recognized by the CPU 7. Then, a meet cursor movement command corresponding to this input signal is issued from the CPU 7. On the other hand, when an operation for moving the meet cursor is not performed, an input signal from the controller 17 is not recognized by the CPU 7, so that a meet cursor movement command is not issued from the CPU 7.

なお、ここでは、コントローラ17が操作されたときに、ミートカーソル移動命令がCPU7から発行される場合の例を示しているが、打者キャラクタがAIプログラム(Artificial Intelligence プログラム)により制御されているときには、AIプログラムに基づいてミートカーソル移動命令がCPU7から発行される。   Although an example in which a meet cursor movement command is issued from the CPU 7 when the controller 17 is operated is shown here, when the batter character is controlled by an AI program (Artificial Intelligence program), A meet cursor movement command is issued from the CPU 7 based on the AI program.

動作開始命令判断手段57は、打者キャラクタにスイング動作を開始させるためのスイング動作開始命令が発行されたか否かをCPU7に判断させる機能を備えている。動作開始命令判断手段57では、打者キャラクタにスイング動作を開始させるためのスイング動作開始命令が発行されたか否かが、CPU7により判断される。   The motion start command determination means 57 has a function of causing the CPU 7 to determine whether or not a swing motion start command for causing the batter character to start a swing motion has been issued. In the motion start command determination means 57, the CPU 7 determines whether or not a swing motion start command for causing the batter character to start the swing motion has been issued.

この手段では、打者キャラクタにスイング動作を開始させるためのスイング動作開始命令がCPU7から発行されたか否かが、判断される。具体的には、打者キャラクタにスイング動作を開始させるためにコントローラ17が操作されると、コントローラ17からの入力信号がCPU7に認識される。すると、この入力信号に対応するスイング動作開始命令が、CPU7から発行される。一方で、打者キャラクタにスイング動作を開始させるための操作が行われていないときには、コントローラ17からの入力信号がCPU7に認識されることがないので、スイング動作開始命令が、CPU7から発行されることはない。   In this means, it is determined whether or not the CPU 7 has issued a swing motion start command for causing the batter character to start the swing motion. Specifically, when the controller 17 is operated to cause the batter character to start the swing motion, an input signal from the controller 17 is recognized by the CPU 7. Then, a swing operation start command corresponding to this input signal is issued from the CPU 7. On the other hand, when the operation for starting the swing motion to the batter character is not performed, the CPU 7 does not recognize the input signal from the controller 17, so that the swing motion start command is issued from the CPU 7. There is no.

制限時間判断手段58は、スイング動作開始命令が発行されたとCPU7により判断された場合に、スイング動作開始命令が発行された時点を基準として、受付制限時間データが示す時間が経過したか否かをCPU7に判断させる機能を備えている。制限時間判断手段58では、スイング動作開始命令が発行されたとCPU7により判断された場合に、スイング動作開始命令が発行された時点を基準として、受付制限時間データが示す時間が経過したか否かが、CPU7により判断される。   When the CPU 7 determines that the swing operation start command has been issued, the time limit determination means 58 determines whether or not the time indicated by the reception time limit data has elapsed with reference to the time when the swing operation start command has been issued. A function for causing the CPU 7 to make a determination is provided. In the time limit determination means 58, when the CPU 7 determines that the swing motion start command has been issued, it is determined whether or not the time indicated by the reception time limit data has elapsed with reference to the time point when the swing motion start command has been issued. CPU 7 determines.

この手段では、スイング動作開始命令が発行されたとCPU7により判断された場合に、スイング動作開始命令が発行された時点を基準として、受付制限時間データが示す時間が経過したか否かが、CPU7により判断される。具体的には、スイング動作開始命令が発行されたときに、スイング動作開始命令が発行された時点を基準として、時間を計測する処理がCPU7により実行される。すると、計測された時間が、計測時間データとしてCPU7に認識される。すると、この計測時間データが示す時間が、受付制限時間データが示す時間以上になったか否かが、CPU7により判断される。   In this means, when the CPU 7 determines that the swing motion start command has been issued, the CPU 7 determines whether or not the time indicated by the reception limit time data has elapsed with respect to the time point when the swing motion start command has been issued. To be judged. Specifically, when the swing operation start command is issued, the CPU 7 executes a process for measuring time with reference to the time point when the swing operation start command is issued. Then, the measured time is recognized by the CPU 7 as measurement time data. Then, the CPU 7 determines whether or not the time indicated by the measurement time data is equal to or longer than the time indicated by the reception limit time data.

ミートカーソル認識手段59は、打者キャラクタの基本スイング動作を含む打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データを、CPU7に認識させる機能を備えている。ミートカーソル認識手段59は、ボール通過領域の範囲内に位置するミートカーソルの設定位置を示す設定位置データを、CPU7に認識させる機能を備えている。   The meet cursor recognizing means 59 has a function of causing the CPU 7 to recognize set position data indicating the set position of the meet cursor that is the target of the batter character's swing motion including the basic swing motion of the batter character. The meet cursor recognizing means 59 has a function of causing the CPU 7 to recognize set position data indicating the set position of the meet cursor positioned within the ball passing area.

ミートカーソル認識手段59は、ミートカーソル移動命令が発行されていないとCPU7により判断された場合に、現在のミートカーソルの設定位置を示す設定位置データをCPU7に認識させ、ミートカーソル移動命令が発行されたとCPU7により判断された場合に、移動後のミートカーソルの設定位置を示す設定位置データをCPU7に認識させる機能を備えている。また、ミートカーソル認識手段59は、スイング動作開始命令が発行されたとCPU7により判断され、スイング動作開始命令が発行された時点を基準として受付制限時間データが示す時間が経過していないとCPU7により判断された場合に、打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データをCPU7に認識させる機能を備えている。   When the CPU 7 determines that the meet cursor movement command has not been issued, the meet cursor recognition means 59 causes the CPU 7 to recognize the set position data indicating the current set position of the meet cursor, and the meet cursor move command is issued. When the CPU 7 determines that the setting position data has been set, the CPU 7 recognizes the setting position data indicating the setting position of the meet cursor after the movement. Further, the meet cursor recognition means 59 is determined by the CPU 7 that the swing operation start command has been issued, and the CPU 7 determines that the time indicated by the reception limit time data has not elapsed with respect to the time point when the swing operation start command has been issued. In such a case, the CPU 7 has a function of causing the CPU 7 to recognize set position data indicating the set position of the meet cursor that is the target of the batter character's swing motion.

ミートカーソル認識手段59では、ボール通過領域の範囲内に位置するミートカーソルの設定位置を示す設定位置データが、CPU7に認識される。詳細には、ミートカーソル認識手段59では、ミートカーソル移動命令が発行されていないとCPU7により判断された場合には、現在のミートカーソルの設定位置を示す設定位置データが、CPU7に認識される。そして、ミートカーソル移動命令が発行されたとCPU7により判断された場合には、移動後のミートカーソルの設定位置を示す設定位置データが、CPU7に認識される。また、ミートカーソル認識手段59では、スイング動作開始命令が発行されたとCPU7により判断され、スイング動作開始命令が発行された時点を基準として受付制限時間データが示す時間が経過していないとCPU7により判断された場合には、打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データが、CPU7に認識される。   In the meet cursor recognizing means 59, the CPU 7 recognizes the set position data indicating the set position of the meet cursor located within the ball passing area. Specifically, in the meet cursor recognizing means 59, if the CPU 7 determines that the meet cursor movement command has not been issued, the CPU 7 recognizes the set position data indicating the current set position of the meet cursor. If the CPU 7 determines that a meet cursor movement command has been issued, the CPU 7 recognizes set position data indicating the set position of the meet cursor after the move. In the meet cursor recognizing means 59, the CPU 7 determines that the swing operation start command has been issued, and the CPU 7 determines that the time indicated by the reception limit time data has not elapsed with respect to the time when the swing operation start command has been issued. If it is, the CPU 7 recognizes the set position data indicating the set position of the meet cursor that is the target of the batter character's swing motion.

この手段では、ボール通過領域の範囲内に位置するミートカーソルの設定位置を示す設定位置データが、CPU7に認識される。具体的には、ミートカーソルが移動していない場合、現在のミートカーソルの設定位置を示す設定位置データが、CPU7に認識される。そして、ミートカーソルが移動した場合、移動後のミートカーソルの設定位置を示す設定位置データが、CPU7に認識される。また、打者キャラクタがスイング動作を開始しているときには、打者キャラクタがスイング動作を開始した時点を基準とした計測時間が受付制限時間未満である場合に、打者キャラクタのスイング動作の対象となるミートカーソルの設定位置を示す設定位置データが、CPU7に認識される。   In this means, the CPU 7 recognizes the setting position data indicating the setting position of the meet cursor positioned within the ball passage area. Specifically, when the meet cursor has not moved, the set position data indicating the set position of the current meet cursor is recognized by the CPU 7. When the meet cursor moves, the CPU 7 recognizes the set position data indicating the set position of the meet cursor after the move. In addition, when the batter character starts the swing motion, the meet cursor that is the target of the batter character's swing motion when the measurement time with respect to the time when the batter character starts the swing motion is less than the reception limit time The CPU 7 recognizes the set position data indicating the set position.

相対データ算出手段60は、打者キャラクタの基本スイング動作の対象となる対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための相対データを算出する処理を、CPU7に実行させる機能を備えている。   The relative data calculation means 60 calculates the relative data for defining the relative position of the meat cursor that is the target of the batter character's swing motion with respect to the target point that is the target of the basic motion of the batter character. A function to be executed by the CPU 7 is provided.

相対データ算出手段60は、2つの第1モーションデータ用の2つの対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための、第1相対データを算出する処理をCPU7に実行させる機能を備えている。また、相対データ算出手段60は、2つの第2モーションデータ用の2つの対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための、第2相対データを算出する処理をCPU7に実行させる機能を備えている。さらに、相対データ算出手段60は、2つの第1モーションデータ用の2つの対象点のうちのいずれか一方の対象点および2つの第2モーションデータ用の2つの対象点のうちのいずれか一方の対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための、第3相対データを算出する処理をCPU7に実行させる機能を備えている。   The relative data calculation means 60 calculates first relative data for defining the relative position of the meat cursor that is the target of the batter character's swing motion with respect to the two target points for the two first motion data. A function for causing the CPU 7 to execute processing is provided. Further, the relative data calculation means 60 uses the second relative data for defining the relative position of the meat cursor that is the target of the batter character's swing motion with respect to the two target points for the second motion data. A function for causing the CPU 7 to execute a calculation process is provided. Furthermore, the relative data calculation means 60 is configured so that one of the two target points for the first motion data and one of the two target points for the second motion data. A function of causing the CPU 7 to execute a process of calculating third relative data for defining the relative position of the meat cursor that is the target of the batter character's swing motion with respect to the target point is provided.

相対データ算出手段60では、打者キャラクタの基本スイング動作の対象となる対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための相対データを算出する処理が、CPU7により実行される。   In the relative data calculation means 60, a process of calculating relative data for defining a relative position of the meat cursor that is a target of the batter character's swing motion with respect to a target point that is a target of the basic swing motion of the batter character. It is executed by the CPU 7.

相対データ算出手段60では、2つの第1モーションデータ用の2つの対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための、第1相対データを算出する処理が、CPU7により実行される。また、2つの第2モーションデータ用の2つの対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための、第2相対データを算出する処理が、CPU7により実行される。さらに、2つの第1モーションデータ用の2つの対象点のうちのいずれか一方の対象点および2つの第2モーションデータ用の2つの対象点のうちのいずれか一方の対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための、第3相対データを算出する処理が、CPU7により実行される。   The relative data calculation means 60 calculates first relative data for defining the relative position of the meat cursor that is the target of the batter character's swing motion with respect to the two target points for the first motion data. Processing is executed by the CPU 7. In addition, the CPU 7 performs a process of calculating the second relative data for defining the relative position of the meat cursor that is the target of the batter character's swing motion with respect to the two target points for the second second motion data. Executed. Furthermore, the batter character's to one of the two target points for the two first motion data and one of the two target points for the two second motion data The CPU 7 executes a process of calculating the third relative data for defining the relative position of the meat cursor that is the target of the swing operation.

この手段では、打者キャラクタの基本スイング動作の対象となる対象点に対する、打者キャラクタのスイング動作の対象となるミートカーソルの相対的な位置を規定するための相対データを算出する処理が、CPU7により実行される。ここでは、打者キャラクタの基本スイング動作の対象となる対象点(基本位置データが示す基本位置)が、ボール通過領域のストライクゾーンの4つの隅角部に設定されているので、ストライクゾーンの隅角部に対するミートカーソルの相対的な位置を規定するための相対データを算出する処理が、CPU7により実行される。   In this means, the CPU 7 executes processing for calculating relative data for defining the relative position of the meet cursor that is the target of the batter character's swing motion with respect to the target point that is the target of the basic swing motion of the batter character. Is done. Here, the target points (basic positions indicated by the basic position data) that are the targets of the basic swing motion of the batter character are set at the four corners of the strike zone of the ball passing area. The CPU 7 executes processing for calculating relative data for defining the relative position of the meat cursor with respect to the section.

具体的には、ストライクゾーンの外角高めの隅角部およびストライクゾーンの内角高めの隅角部に対するミートカーソルの相対的な位置を規定するための、第1相対データを算出する処理が、CPU7により実行される。また、ストライクゾーンの外角低めの隅角部およびストライクゾーンの内角低めの隅角部に対するミートカーソルの相対的な位置を規定するための、第2相対データを算出する処理が、CPU7により実行される。さらに、ストライクゾーンの外角高めの隅角部およびストライクゾーンの外角低めの隅角部に対するミートカーソルの相対的な位置を規定するための、第3相対データを算出する処理が、CPU7により実行される。   Specifically, the CPU 7 performs a process of calculating first relative data for defining the relative position of the meat cursor with respect to the corner portion having a higher outer angle of the strike zone and the corner portion having a higher inner angle of the strike zone. Executed. Further, the CPU 7 executes a process of calculating the second relative data for defining the relative position of the meat cursor with respect to the lower corner portion of the strike zone and the lower corner portion of the strike zone. . Further, the CPU 7 executes a process of calculating the third relative data for defining the relative position of the meat cursor with respect to the corner portion having a higher outer angle of the strike zone and the corner portion having a lower outer angle of the strike zone. .

なお、ここでは、ストライクゾーンの外角高めの隅角部およびストライクゾーンの外角低めの隅角部を基準にして、これら隅角部に対するミートカーソルの相対的な位置が規定されている。しかしながら、この手段においてミートカーソルの相対的な位置を規定する形態は、どのようにしても良い。たとえば、ストライクゾーンの内角高めの隅角部およびストライクゾーンの内角低めの隅角部を基準にして、ミートカーソルの相対的な位置を規定しても良い。また、ストライクゾーンの外角高めの隅角部およびストライクゾーンの内角低めの隅角部を基準にして、ミートカーソルの相対的な位置を規定しても良い。さらに、ストライクゾーンの内角高めの隅角部およびストライクゾーンの外角低めの隅角部を基準にして、ミートカーソルの相対的な位置を規定しても良い。   Here, the relative position of the meat cursor with respect to these corners is defined with reference to the corners with a higher outer angle of the strike zone and the corners with a lower outer angle of the strike zone. However, any form may be used for defining the relative position of the meet cursor in this means. For example, the relative position of the meat cursor may be defined with reference to a corner portion having a higher inner angle of the strike zone and a corner portion having a lower inner angle of the strike zone. Further, the relative position of the meat cursor may be defined with reference to the corner portion having a higher outer angle of the strike zone and the corner portion having a lower inner angle of the strike zone. Furthermore, the relative position of the meat cursor may be defined with reference to the corner portion having a higher inner angle of the strike zone and the corner portion having a lower outer angle of the strike zone.

第1合成モーションデータ認識手段61は、設定位置データおよび第1モーションデータに対応する基本位置データに基づいて、複数の第1モーションデータを合成する処理をCPU7に実行させることにより、この処理により合成されたモーションデータを第1合成モーションデータとしてCPU7に認識させる機能を備えている。   The first synthesized motion data recognizing means 61 performs a process of synthesizing a plurality of first motion data based on the set position data and the basic position data corresponding to the first motion data, thereby synthesizing by this process. The CPU 7 has a function of causing the motion data to be recognized as the first synthesized motion data.

詳細には、第1合成モーションデータ認識手段61は、設定位置データおよび第1モーションデータに対応する基本位置データに基づいて算出された第1相対データを用いて、複数の第1モーションデータを合成する処理をCPU7に実行させることにより、この処理により合成されたモーションデータを、第1合成モーションデータとしてCPU7に認識させる機能を備えている。   Specifically, the first synthesized motion data recognizing means 61 synthesizes a plurality of first motion data using the first relative data calculated based on the set position data and the basic position data corresponding to the first motion data. By causing the CPU 7 to execute the process to be performed, the CPU 7 has a function of causing the CPU 7 to recognize the motion data synthesized by this process as the first synthesized motion data.

第1合成モーションデータ認識手段61では、設定位置データおよび第1モーションデータに対応する基本位置データに基づいて、複数の第1モーションデータを合成する処理が、CPU7により実行される。すると、この処理により合成されたモーションデータが、第1合成モーションデータとしてCPU7に認識される。   In the first synthesized motion data recognizing means 61, the CPU 7 executes a process of synthesizing a plurality of first motion data based on the set position data and the basic position data corresponding to the first motion data. Then, the motion data synthesized by this processing is recognized by the CPU 7 as first synthesized motion data.

詳細には、第1合成モーションデータ認識手段61では、設定位置データおよび第1モーションデータに対応する基本位置データに基づいて算出された第1相対データを用いて、複数の第1モーションデータを合成する処理が、CPU7により実行される。すると、この処理により合成されたモーションデータが、第1合成モーションデータとしてCPU7に認識される。   Specifically, the first synthesized motion data recognizing means 61 synthesizes a plurality of first motion data using the first relative data calculated based on the set position data and the basic position data corresponding to the first motion data. Processing to be executed is executed by the CPU 7. Then, the motion data synthesized by this processing is recognized by the CPU 7 as first synthesized motion data.

この手段では、ミートカーソルの位置を示す設定位置データおよび第1モーションデータに対応する基本位置データに基づいて算出された第1相対データを用いて、複数の第1モーションデータを合成する処理が、CPU7により実行される。すると、この処理により合成されたモーションデータが、第1合成モーションデータとしてCPU7に認識される。たとえば、ストライクゾーンの外角高めの隅角部およびストライクゾーンの内角高めの隅角部に対するミートカーソルの相対的な位置に応じて、複数の第1モーションデータを合成する処理が、CPU7により実行される。   In this means, the process of combining a plurality of first motion data using the set position data indicating the position of the meet cursor and the first relative data calculated based on the basic position data corresponding to the first motion data, It is executed by the CPU 7. Then, the motion data synthesized by this processing is recognized by the CPU 7 as first synthesized motion data. For example, the CPU 7 executes a process of synthesizing a plurality of first motion data in accordance with the relative position of the meat cursor with respect to the corner portion having a higher outer angle of the strike zone and the corner portion having a higher inner angle of the strike zone. .

具体的には、第1相対データたとえば第1比率データに応じて、複数の第1モーションデータを合成する処理が、CPU7により実行される。そして、この処理により合成されたモーションデータが、第1合成モーションデータとしてCPU7に認識される。第1比率データは、ストライクゾーンの外角高めの隅角部からミートカーソルまでのx方向の第1距離と、ストライクゾーンの内角高めの隅角部からミートカーソルまでのx方向の第2距離との比を示すデータである。なお、第1距離および第2距離は、ミートカーソルのx座標データ、ストライクゾーンの外角高めの隅角部のx座標データ、およびストライクゾーンの内角高めの隅角部のx座標データを用いることにより算出される。   Specifically, the CPU 7 executes a process of combining a plurality of first motion data according to the first relative data, for example, the first ratio data. The motion data synthesized by this processing is recognized by the CPU 7 as first synthesized motion data. The first ratio data includes a first distance in the x direction from the corner portion with a higher outer angle of the strike zone to the meat cursor and a second distance in the x direction from the corner portion with a higher inner angle of the strike zone to the meat cursor. It is data which shows ratio. Note that the first distance and the second distance are obtained by using the x-coordinate data of the meet cursor, the x-coordinate data of the corner portion having a higher outer angle of the strike zone, and the x-coordinate data of the corner portion having a higher inner angle of the strike zone. Calculated.

第2合成モーションデータ認識手段62は、設定位置データおよび第2モーションデータに対応する基本位置データに基づいて、複数の第2モーションデータを合成する処理をCPU7に実行させることにより、この処理により合成されたモーションデータを第2合成モーションデータとしてCPU7に認識させる機能を備えている。   The second synthesized motion data recognizing means 62 synthesizes a plurality of second motion data by the CPU 7 based on the set position data and the basic position data corresponding to the second motion data. The CPU 7 has a function of causing the CPU 7 to recognize the motion data as second synthesized motion data.

詳細には、第2合成モーションデータ認識手段62は、設定位置データおよび第2モーションデータに対応する基本位置データに基づいて算出された第2相対データを用いて、複数の第2モーションデータを合成する処理をCPU7に実行させることにより、この処理により合成されたモーションデータを、第2合成モーションデータとしてCPU7に認識させる機能を備えている。   Specifically, the second synthesized motion data recognizing means 62 synthesizes a plurality of second motion data using the second relative data calculated based on the set position data and the basic position data corresponding to the second motion data. By causing the CPU 7 to execute the process to be performed, the CPU 7 has a function of causing the CPU 7 to recognize the motion data synthesized by this process as second synthesized motion data.

第2合成モーションデータ認識手段62では、設定位置データおよび第2モーションデータに対応する基本位置データに基づいて、複数の第2モーションデータを合成する処理が、CPU7により実行される。すると、この処理により合成されたモーションデータが、第2合成モーションデータとしてCPU7に認識される。   In the second synthesized motion data recognizing means 62, the CPU 7 executes a process of synthesizing a plurality of second motion data based on the set position data and the basic position data corresponding to the second motion data. Then, the motion data synthesized by this processing is recognized by the CPU 7 as second synthesized motion data.

詳細には、第2合成モーションデータ認識手段62では、設定位置データおよび第2モーションデータに対応する基本位置データに基づいて算出された第2相対データを用いて、複数の第2モーションデータを合成する処理が、CPU7により実行される。すると、この処理により合成されたモーションデータが、第2合成モーションデータとしてCPU7に認識される。   Specifically, the second synthesized motion data recognition unit 62 synthesizes a plurality of second motion data using the second relative data calculated based on the set position data and the basic position data corresponding to the second motion data. Processing to be executed is executed by the CPU 7. Then, the motion data synthesized by this processing is recognized by the CPU 7 as second synthesized motion data.

この手段では、ミートカーソルの位置を示す設定位置データおよび第2モーションデータに対応する基本位置データに基づいて算出された第2相対データを用いて、複数の第2モーションデータを合成する処理が、CPU7により実行される。すると、この処理により合成されたモーションデータが、第2合成モーションデータとしてCPU7に認識される。たとえば、ストライクゾーンの外角低めの隅角部およびストライクゾーンの内角低めの隅角部に対するミートカーソルの相対的な位置に応じて、複数の第2モーションデータを合成する処理が、CPU7により実行される。   In this means, a process of combining a plurality of second motion data using the setting position data indicating the position of the meet cursor and the second relative data calculated based on the basic position data corresponding to the second motion data, It is executed by the CPU 7. Then, the motion data synthesized by this processing is recognized by the CPU 7 as second synthesized motion data. For example, the CPU 7 executes a process of synthesizing a plurality of second motion data in accordance with the relative position of the meat cursor with respect to the corner portion with the lower outer angle of the strike zone and the corner portion with the lower inner angle of the strike zone. .

具体的には、第2相対データたとえば第2比率データに応じて、複数の第2モーションデータを合成する処理が、CPU7により実行される。そして、この処理により合成されたモーションデータが、第2合成モーションデータとしてCPU7に認識される。第2比率データは、ストライクゾーンの外角低めの隅角部からミートカーソルまでのx方向の第3距離と、ストライクゾーンの内角低めの隅角部からミートカーソルまでのx方向の第4距離との比を示すデータである。なお、第3距離および第4距離は、ミートカーソルのx座標データ、ストライクゾーンの外角低めの隅角部のx座標データ、およびストライクゾーンの内角低めの隅角部のx座標データを用いることにより算出される。   Specifically, the CPU 7 executes a process of combining a plurality of second motion data according to the second relative data, for example, the second ratio data. Then, the motion data synthesized by this processing is recognized by the CPU 7 as second synthesized motion data. The second ratio data includes a third distance in the x direction from the lower corner of the strike zone to the meat cursor and a fourth distance in the x direction from the lower corner of the strike zone to the meat cursor. It is data which shows ratio. The third distance and the fourth distance are obtained by using the x coordinate data of the meet cursor, the x coordinate data of the lower corner of the strike zone, and the x coordinate data of the lower corner of the strike zone. Calculated.

第3合成モーションデータ認識手段63は、設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて、第1合成モーションデータと第2合成モーションデータとを合成する処理をCPU7に実行させることにより、この処理により合成されたモーションデータを第3合成モーションデータとしてCPU7に認識させる機能を備えている。   The third synthesized motion data recognizing means 63 generates the first synthesized motion data and the second synthesized data based on the set position data and the basic position data corresponding to the first motion data and the basic position data corresponding to the second motion data. The CPU 7 is provided with a function of causing the CPU 7 to recognize the motion data synthesized by this process as third synthesized motion data by causing the CPU 7 to execute a process of synthesizing the motion data.

第3合成モーションデータ認識手段63は、設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて算出される第3相対データを用いて、第1合成モーションデータと第2合成モーションデータとを合成する処理をCPU7に実行させることにより、この処理により合成されたモーションデータを、第3合成モーションデータとしてCPU7に認識させる機能を備えている。   The third synthesized motion data recognizing means 63 uses the third relative data calculated based on the set position data and the basic position data corresponding to the first motion data and the basic position data corresponding to the second motion data. By causing the CPU 7 to execute a process of combining the first synthesized motion data and the second synthesized motion data, the CPU 7 recognizes the motion data synthesized by this process as the third synthesized motion data. .

第3合成モーションデータ認識手段63では、設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて、第1合成モーションデータと第2合成モーションデータとを合成する処理が、CPU7に実行される。すると、この処理により合成されたモーションデータが、第3合成モーションデータとしてCPU7に認識される。   In the third synthesized motion data recognition means 63, the first synthesized motion data and the second synthesized data are based on the set position data and the basic position data corresponding to the first motion data and the basic position data corresponding to the second motion data. The CPU 7 executes a process for combining the motion data. Then, the motion data synthesized by this processing is recognized by the CPU 7 as third synthesized motion data.

詳細には、第3合成モーションデータ認識手段63では、設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて算出される第3相対データを用いて、第1合成モーションデータと第2合成モーションデータとを合成する処理が、CPU7により実行される。すると、この処理により合成されたモーションデータが、第3合成モーションデータとしてCPU7に認識される。   Specifically, the third synthesized motion data recognition unit 63 calculates the third relative position calculated based on the set position data and the basic position data corresponding to the first motion data and the basic position data corresponding to the second motion data. The CPU 7 executes a process of combining the first combined motion data and the second combined motion data using the data. Then, the motion data synthesized by this processing is recognized by the CPU 7 as third synthesized motion data.

この手段では、ミートカーソルの位置を示す設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて算出される第3相対データを用いて、第1合成モーションデータと第2合成モーションデータとを合成する処理が、CPU7により実行される。すると、この処理により合成されたモーションデータが、第3合成モーションデータとしてCPU7に認識される。たとえば、ストライクゾーンの外角高めの隅角部およびストライクゾーンの外角低めの隅角部に対するミートカーソルの相対的な位置に応じて、第1合成モーションデータと第2合成モーションデータとを合成する処理が、CPU7により実行される。   In this means, the third relative data calculated based on the set position data indicating the position of the meet cursor and the basic position data corresponding to the first motion data and the basic position data corresponding to the second motion data are used. The CPU 7 executes a process for synthesizing the first synthesized motion data and the second synthesized motion data. Then, the motion data synthesized by this processing is recognized by the CPU 7 as third synthesized motion data. For example, the process of combining the first synthesized motion data and the second synthesized motion data in accordance with the relative position of the meat cursor with respect to the corner portion having a higher outer angle of the strike zone and the corner portion having a lower outer angle of the strike zone. , Executed by the CPU 7.

具体的には、第3相対データたとえば第3比率データに応じて、第1合成モーションデータと第2合成モーションデータとを合成する処理が、CPU7により実行される。そして、この処理により合成されたモーションデータが、第3合成モーションデータとしてCPU7に認識される。第3比率データは、ストライクゾーンの外角高めの隅角部からミートカーソルまでのy方向の第5距離と、ストライクゾーンの外角低めの隅角部からミートカーソルまでのy方向の第6距離との比を示すデータである。なお、第5距離および第6距離は、ミートカーソルのy座標データ、ストライクゾーンの外角高めの隅角部のy座標データ、およびストライクゾーンの外角低めの隅角部のy座標データを用いることにより算出される。   Specifically, the CPU 7 executes a process of combining the first combined motion data and the second combined motion data according to the third relative data, for example, the third ratio data. Then, the motion data synthesized by this processing is recognized by the CPU 7 as third synthesized motion data. The third ratio data includes a fifth distance in the y direction from the corner portion with a higher outer angle of the strike zone to the meat cursor, and a sixth distance in the y direction from the lower corner portion of the strike zone to the meat cursor. It is data which shows ratio. The fifth distance and the sixth distance are obtained by using the y-coordinate data of the meet cursor, the y-coordinate data of the corner portion having a higher outer angle of the strike zone, and the y-coordinate data of the corner portion having a lower outer angle of the strike zone. Calculated.

打者キャラクタ表示手段64は、第3合成モーションデータを用いて、ミートカーソルを対象にしてスイング動作する打者キャラクタをテレビジョンモニタ20に表示する機能を備えている。打者キャラクタ表示手段64では、第3合成モーションデータを用いて、ミートカーソルを対象にしてスイング動作する打者キャラクタが、テレビジョンモニタ20に表示される。   The batter character display means 64 has a function of displaying on the television monitor 20 a batter character that performs a swing motion on the meat cursor using the third synthesized motion data. In the batter character display means 64, a batter character that swings around the meat cursor is displayed on the television monitor 20 using the third synthesized motion data.

この手段では、第3合成モーションデータを用いて、ミートカーソルを対象にしてスイング動作する打者キャラクタが、テレビジョンモニタ20に表示される。たとえば、CPU7から発行される動画表示命令に基づいて、CPU7に認識された第3合成モーションデータが、インターフェース回路21を介してD/Aコンバータ22に供給される。そして、第3合成モーションデータがD/Aコンバータ22でアナログ映像信号に変換される。そして、第3合成モーションデータが、動画としてテレビジョンモニタ20に供給され表示される。   In this means, a batter character that swings around the meat cursor is displayed on the television monitor 20 using the third synthesized motion data. For example, the third synthesized motion data recognized by the CPU 7 based on a moving image display command issued from the CPU 7 is supplied to the D / A converter 22 via the interface circuit 21. Then, the third synthesized motion data is converted into an analog video signal by the D / A converter 22. Then, the third synthesized motion data is supplied to the television monitor 20 and displayed as a moving image.

〔野球ゲームにおける動作生成システムの処理フローと説明〕
次に、野球ゲームにおける動作生成システムについて説明する。また、図11に示す動作生成システムに関するフローについても同時に説明する。なお、図10は、野球ゲームの概要を示すフローである。
[Processing flow and explanation of motion generation system in baseball game]
Next, a motion generation system in a baseball game will be described. A flow related to the motion generation system shown in FIG. 11 will also be described at the same time. FIG. 10 is a flow showing an outline of the baseball game.

まず、ゲーム機の電源が投入されゲーム機が起動されると、野球ゲームプログラムが、記録媒体10からRAM12にロードされ格納される。このときには、野球ゲームを実行する上で必要となる各種の基本ゲームデータも、同時に、記録媒体10からRAM12にロードされ格納される(S1)。   First, when the game machine is turned on and the game machine is activated, the baseball game program is loaded from the recording medium 10 into the RAM 12 and stored. At this time, various basic game data necessary for executing the baseball game are simultaneously loaded from the recording medium 10 into the RAM 12 and stored (S1).

たとえば、基本ゲームデータには3次元ゲーム空間用の画像に関するデータが含まれており、RAM12に格納された、3次元ゲーム空間用の画像に関するデータ、たとえば、スタジアム用の画像データ、ボール用の画像データ、選手キャラクタ用の画像データ、および複数の選手キャラクタ用の画像データから構成されるモーションデータ等が、CPU7に認識される。また、基本ゲームデータには、3次元ゲーム空間用の画像に関するデータを3次元ゲーム空間に配置するための位置座標データが含まれており、この位置座標データがCPU7に認識される。   For example, the basic game data includes data relating to an image for a three-dimensional game space, and data relating to an image for a three-dimensional game space stored in the RAM 12, such as image data for a stadium and an image for a ball. The CPU 7 recognizes motion data composed of data, image data for player characters, and image data for a plurality of player characters. The basic game data includes position coordinate data for arranging data related to the image for the three-dimensional game space in the three-dimensional game space, and the position coordinate data is recognized by the CPU 7.

また、基本ゲームデータには、打者キャラクタ70のスイング動作の対象となるボール通過領域80の範囲を示す範囲データが含まれており、この範囲データがCPU7に認識される。具体的には、図3および図4に示すように、ゲームプログラムにおいてホームベース上方に規定されたボール通過領域80(ストライクゾーン80aおよびボールゾーン80bからなる領域)の範囲を示す範囲データが、CPU7に認識される。ここでは、ボール通過領域80の範囲を示す範囲データ(X,Y)が、「x1≦X≦x2」および「y1≦Y≦y2」のような形式で規定されている。   In addition, the basic game data includes range data indicating the range of the ball passing area 80 that is the target of the swing motion of the batter character 70, and this range data is recognized by the CPU 7. Specifically, as shown in FIGS. 3 and 4, the range data indicating the range of the ball passage area 80 (area consisting of the strike zone 80a and the ball zone 80b) defined above the home base in the game program is CPU 7. Recognized. Here, range data (X, Y) indicating the range of the ball passage region 80 is defined in a format such as “x1 ≦ X ≦ x2” and “y1 ≦ Y ≦ y2”.

また、基本ゲームデータには、打者キャラクタ70の基本スイング動作の対象となる対象点の基本位置72を示す基本位置データが含まれており、この基本位置データがCPU7に認識される。具体的には、打者キャラクタ70の基本スイング動作の対象となる対象点、すなわち基本位置データが示す基本位置72は、ボール通過領域80のストライクゾーン80aの4つの隅角部72a,72b,72c,72dに設定されている。これらストライクゾーン80aの4つの隅角部72a,72b,72c,72dそれぞれの位置を示す座標データ(基本位置データ)が、CPU7に認識される。このデータは、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   Further, the basic game data includes basic position data indicating the basic position 72 of the target point that is the target of the basic swing motion of the batter character 70, and this basic position data is recognized by the CPU 7. Specifically, the target point that is the target of the basic swing motion of the batter character 70, that is, the basic position 72 indicated by the basic position data, is the four corners 72 a, 72 b, 72 c, of the strike zone 80 a of the ball passing area 80. 72d is set. The coordinate data (basic position data) indicating the positions of the four corner portions 72a, 72b, 72c, 72d of the strike zone 80a is recognized by the CPU 7. This data is loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded.

また、基本ゲームデータには、打者キャラクタ70の4つの基本スイング動作それぞれに対応する基本モーションデータが含まれており、これら4つの基本モーションデータがCPU7に認識される。図5に示すように、4つの基本モーションデータそれぞれは、ストライクゾーン80aの4つの隅角部(対象点)72a,72b,72c,72dのうちのいずれか1つの隅角部に向けてスイング動作をする打者キャラクタ70のモーションデータに対応している。具体的には、ストライクゾーン80aの外角高めの隅角部72a、ストライクゾーン80aの内角高めの隅角部72b、ストライクゾーン80aの外角低めの隅角部72c、およびストライクゾーン80aの内角低めの隅角部72dそれぞれに向けてスイング動作をする打者キャラクタ70のモーションデータが、4つの基本モーションデータとして、CPU7に認識される。一般的には、基本スイング動作は、打者キャラクタ70がストライクゾーン80aの隅角部に向けてスイング動作をする動作に対応している。   The basic game data includes basic motion data corresponding to each of the four basic swing movements of the batter character 70, and the CPU 7 recognizes these four basic motion data. As shown in FIG. 5, each of the four basic motion data swings toward any one of the four corners (target points) 72a, 72b, 72c, 72d of the strike zone 80a. This corresponds to the motion data of the batter character 70 who performs. Specifically, a corner portion 72a having a higher outer angle of the strike zone 80a, a corner portion 72b having a higher inner angle of the strike zone 80a, a corner portion 72c having a lower outer angle of the strike zone 80a, and a corner having a lower inner angle of the strike zone 80a. The motion data of the batter character 70 that swings toward each corner 72d is recognized by the CPU 7 as four basic motion data. Generally, the basic swing motion corresponds to a motion in which the batter character 70 swings toward the corner portion of the strike zone 80a.

なお、図5には、打者キャラクタ70の素振り動作が、基本モーションデータを用いて、テレビジョンモニタ20に表示されている。   In FIG. 5, the swing motion of the batter character 70 is displayed on the television monitor 20 using the basic motion data.

ここでは、4つの基本モーションデータのうちの2つのモーションデータそれぞれが、第1モーションデータとしてCPU7に認識される。具体的には、ストライクゾーン80aの外角高めの隅角部72aを対象としてスイング動作をする打者キャラクタ70のモーションデータ、およびストライクゾーン80aの内角高めの隅角部72bを対象としてスイング動作をする打者キャラクタ70のモーションデータが、第1モーションデータとしてCPU7に認識される。また、ここでは、2つの第1モーションデータを除いた2つの基本モーションデータそれぞれが、第2モーションデータとしてCPU7に認識される。具体的には、ストライクゾーン80aの外角低めの隅角部72cを対象としてスイング動作をする打者キャラクタ70のモーションデータ、およびストライクゾーン80aの内角低めの隅角部72dを対象としてスイング動作をする打者キャラクタ70のモーションデータが、第2モーションデータとしてCPU7に認識される。   Here, two of the four basic motion data are recognized by the CPU 7 as the first motion data. Specifically, the batter character 70 performs a swing motion on the corner portion 72a with a higher outer angle of the strike zone 80a, and the batter performs a swing motion on the corner portion 72b with a higher inner angle of the strike zone 80a. The motion data of the character 70 is recognized by the CPU 7 as the first motion data. Further, here, the two basic motion data excluding the two first motion data are recognized by the CPU 7 as the second motion data. Specifically, the batter character 70 performs the swing motion on the lower corner portion 72c of the strike zone 80a and the batter performs the swing motion on the lower inner corner portion 72d of the strike zone 80a. The motion data of the character 70 is recognized by the CPU 7 as the second motion data.

さらに、基本ゲームデータには、ミートカーソル71の設定位置を認識する時間を制限するための受付制限時間データが含まれており、この受付制限時間データがCPU7に認識される。ここでは、受付制限時間データが示す時間が、23/60(sec)に設定されている。   Further, the basic game data includes reception limit time data for limiting the time for recognizing the set position of the meet cursor 71, and this reception limit time data is recognized by the CPU 7. Here, the time indicated by the reception limit time data is set to 23/60 (sec).

なお、上記の各データは、ゲームプログラムにおいて予め規定されており、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納される。   Each of the above data is defined in advance in the game program, and is loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded.

続いて、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて、CPU7により実行される(S2)。すると、野球ゲームの起動画面がテレビジョンモニタ20に表示される。すると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。ここでは、たとえば、チームの選択および選手キャラクタの選択等を行うための選択画面が、テレビジョンモニタ20に表示される。この選択画面において、コントローラ17が操作されることにより、チームの選択および選手キャラクタの選択等が行われる。   Subsequently, the baseball game program stored in the RAM 12 is executed by the CPU 7 based on the basic game data (S2). Then, the start screen of the baseball game is displayed on the television monitor 20. Then, various setting screens for executing the baseball game are displayed on the television monitor 20. Here, for example, a selection screen for selecting a team and a player character is displayed on the television monitor 20. On this selection screen, the controller 17 is operated to select a team and a player character.

続いて、野球ゲームにおいて試合を開始するための命令(試合開始命令)がCPU7から発行される(S3)。すると、RAM12に格納された3次元ゲーム空間用の画像に関するデータが、CPU7に認識される。すると、この3次元ゲーム空間の画像に関するデータを、ゲーム空間における位置座標データが示す位置に配置する命令が、CPU7から発行され、各種の画像がテレビジョンモニタ20に表示される(S4)。   Subsequently, a command for starting a game in the baseball game (game start command) is issued from the CPU 7 (S3). Then, the data related to the image for the three-dimensional game space stored in the RAM 12 is recognized by the CPU 7. Then, a command for placing the data related to the image in the three-dimensional game space at the position indicated by the position coordinate data in the game space is issued from the CPU 7, and various images are displayed on the television monitor 20 (S4).

たとえば、スタジアム用の画像データ等が、CPU7に認識される。すると、スタジアム用の画像データを用いて、スタジアム画像がテレビジョンモニタ20に表示される。具体的には、ゲーム空間において、スタジアム用の位置座標データが示す位置に、スタジアム用の画像データを配置する命令が、CPU7から発行される。これにより、スタジアム画像が、テレビジョンモニタ20に表示される。   For example, stadium image data or the like is recognized by the CPU 7. Then, the stadium image is displayed on the television monitor 20 using the stadium image data. Specifically, in the game space, a command is issued from the CPU 7 to arrange the stadium image data at the position indicated by the stadium position coordinate data. Thereby, the stadium image is displayed on the television monitor 20.

また、プレイヤにより命令が指示されるチーム(自チーム)、および他のプレイヤ又はAIプログラム(Artificial Intelligence プログラム)により命令が指示されるチーム(敵チーム)のいずれか一方の選手キャラクタが守備位置に配置された状態が、選手キャラクタ用の画像データを用いて、テレビジョンモニタ20に表示される。また、自チームの選手キャラクタおよび敵チームの選手キャラクタのいずれか他方の選手キャラクタが打席位置に配置された状態が、選手キャラクタ用の画像データを用いて、テレビジョンモニタ20に表示される。たとえば、選手キャラクタ用の位置座標データが示す位置に選手キャラクタ用の画像データを配置する命令がCPU7から発行されたときに、選手キャラクタ用の画像がテレビジョンモニタ20に表示される。   In addition, one of the player characters of the team instructed by the player (own team) and the team instructed by another player or the AI program (Artificial Intelligence program) (enemy team) is placed at the defensive position. This state is displayed on the television monitor 20 using the image data for the player character. Further, the state in which the other player character of the player character of the own team or the player character of the enemy team is arranged at the batting position is displayed on the television monitor 20 using the image data for the player character. For example, when a command for placing image data for a player character is issued from the CPU 7 at a position indicated by position coordinate data for the player character, an image for the player character is displayed on the television monitor 20.

続いて、自チームおよび敵チームのいずれか一方のチームの攻撃イベントを実行するための命令(攻撃イベント実行命令)がCPU7から発行される(S5)。言い替えると、自チームおよび敵チームのいずれか他方のチームの守備イベントを実行するための命令(守備イベント実行命令)がCPU7から発行される。すると、自チームおよび敵チームのいずれか一方のチームの攻撃イベント、および自チームおよび敵チームのいずれか他方のチームの守備イベントが、実行される。このときに、プレイヤ又は他のプレイヤ(AIプログラムを含む)が選手キャラクタに対して指示した命令は、CPU7に認識される。すると、CPU7に認識された各命令に応じて、各チームの選手キャラクタが、投球動作、打撃動作、守備動作、および走塁動作等の少なくともいずれか1つの動作を行う状態が、テレビジョンモニタ20に表示される。   Subsequently, a command (attack event execution command) for executing an attack event of either the own team or the enemy team is issued from the CPU 7 (S5). In other words, the CPU 7 issues a command (defense event execution command) for executing a defensive event of either the own team or the enemy team. Then, an attack event of one of the own team and the enemy team and a defense event of the other team of the own team and the enemy team are executed. At this time, a command that the player or another player (including the AI program) instructs the player character is recognized by the CPU 7. Then, in accordance with each command recognized by the CPU 7, the state in which the player characters of each team perform at least one of a pitching action, a striking action, a defensive action, a running action and the like is the television monitor 20 Is displayed.

そして、チームごとに所定の回数たとえば9回分の攻撃イベント又は守備イベント(最大12回分の攻撃イベント又は守備イベント)が終了すると、試合を終了するための命令(試合終了命令)が、CPU7から発行される。すると、試合結果をRAM12に保存する処理が、CPU7により実行される。ここでは、試合終了命令が発行されたか否かがCPU7により判断され(S6)、試合終了命令が発行された場合(S6でYes)、試合を終了するための処理たとえば試合結果をRAM12に保存する処理が、CPU7により実行される(S7)。一方で、試合終了命令が発行されていない場合(S6でNo)、ステップ4(S4)の処理が再実行される。   Then, when an attack event or defensive event for a predetermined number of times, for example, 9 times (a maximum of 12 attack events or defensive events) is completed for each team, a command (game end command) for ending the game is issued from the CPU 7. The Then, the process which preserve | saves a game result in RAM12 is performed by CPU7. Here, it is determined by the CPU 7 whether or not a game end command has been issued (S6). When a game end command is issued (Yes in S6), a process for ending the game, for example, a game result is stored in the RAM 12. The process is executed by the CPU 7 (S7). On the other hand, when the game end command has not been issued (No in S6), the process of step 4 (S4) is re-executed.

以下には、野球ゲームの攻撃イベント(守備イベント)において打者キャラクタ70のスイング動作に動作生成システムが適用された場合の例が、示される。動作生成システムの主要な手段は、攻撃イベントにおいて実行される。また、動作生成システムで用いられるいくつかの手段は、攻撃イベントが開始される前に既に実行されている。このように攻撃イベント前に実行される手段については、上記の対応するステップにおいて、詳細が記述されている。   In the following, an example in which the motion generation system is applied to the swing motion of the batter character 70 in the attack event (defense event) of the baseball game is shown. The main means of the action generation system is executed at the attack event. Also, some means used in the action generation system are already executed before the attack event is started. Details of the means executed before the attack event are described in the corresponding steps described above.

たとえば、まず、自チームの攻撃イベント実行命令がCPU7から発行されると(S51)、図3に示すように、打席位置に配置された自チームの打者キャラクタ70、および各守備位置に配置された敵チームの野手キャラクタ(投手キャラクタおよび捕手キャラクタを含む)が、テレビジョンモニタ20に表示される(S52)。また、ボール通過領域80のストライクゾーン80a、およびボール通過領域80(ストライクゾーン80a)の中心部に配置されたミートカーソル71が、テレビジョンモニタ20に表示される(S53)。なお、図3に破線で示したボール通過領域80のボールゾーン80bは、テレビジョンモニタ20に表示されない。   For example, first, when an attack event execution command of the own team is issued from the CPU 7 (S51), as shown in FIG. 3, the batter character 70 of the own team arranged at the batting position and the defensive positions are arranged. The fielder characters of the enemy team (including the pitcher character and the catcher character) are displayed on the television monitor 20 (S52). In addition, the strike zone 80a of the ball passing area 80 and the meet cursor 71 arranged at the center of the ball passing area 80 (strike zone 80a) are displayed on the television monitor 20 (S53). Note that the ball zone 80b of the ball passage area 80 indicated by a broken line in FIG. 3 is not displayed on the television monitor 20.

すると、自チームの選手キャラクタに対する各種の命令および敵チームの選手キャラクタに対する各種の命令の受け付けが、CPU7により開始される。すると、自チームの選手キャラクタに対する各種の命令および敵チームの選手キャラクタに対する各種の命令が、CPU7に認識される。なお、ここでは、自チームの選手キャラクタに対する命令は、プレイヤによりコントローラ17から指示され、敵チームの各選手キャラクタに対する命令は、AIプログラムに基づいて指示されるものとする。   Then, the CPU 7 starts accepting various commands for the player characters of the own team and various commands for the player characters of the enemy team. Then, the CPU 7 recognizes various commands for the player character of the own team and various commands for the player character of the enemy team. Here, it is assumed that a command for the player character of the own team is instructed from the controller 17 by the player, and a command for each player character of the enemy team is instructed based on the AI program.

打者キャラクタ70、ミートカーソル71、および野手キャラクタが、テレビジョンモニタ20に表示されると、打者キャラクタ70のスイング動作の対象となるミートカーソル71の位置を監視する処理が、CPU7により実行される(S54)。   When the batter character 70, the meet cursor 71, and the fielder character are displayed on the television monitor 20, the CPU 7 executes a process of monitoring the position of the meet cursor 71 that is the target of the swing action of the batter character 70 ( S54).

たとえば、打者キャラクタ70、ミートカーソル71、および野手キャラクタが、テレビジョンモニタ20に表示されたときには、図3および図4に示すように、ミートカーソル71が、初期設定位置(ボール通過領域80の中心部)においてテレビジョンモニタ20に表示されている。この場合は、ミートカーソル71の初期設定位置を示す設定位置データが、CPU7に認識される。ミートカーソル71の設定位置データがCPU7に認識されている状態においては、ミートカーソル71が移動したか否かが、CPU7により常に監視されている。   For example, when the batter character 70, the meet cursor 71, and the fielder character are displayed on the television monitor 20, as shown in FIGS. 3 and 4, the meet cursor 71 is positioned at the initial position (the center of the ball passing area 80). Part) is displayed on the television monitor 20. In this case, the CPU 7 recognizes set position data indicating the initial set position of the meet cursor 71. In a state where the set position data of the meet cursor 71 is recognized by the CPU 7, whether or not the meet cursor 71 has moved is constantly monitored by the CPU 7.

たとえば、ミートカーソル71を移動させるためのミートカーソル71移動命令がCPU7から発行されたか否かが、CPU7により判断される(S55)。具体的には、コントローラ17の上方向キー17U、下方向キー17D、左方向キー17Lおよび右方向キー17Rの少なくともいずれか1つのキーが操作されたか否かが、CPU7により判断される。   For example, the CPU 7 determines whether or not a move command for moving the meet cursor 71 for moving the meet cursor 71 is issued from the CPU 7 (S55). Specifically, the CPU 7 determines whether or not at least one of the up direction key 17U, the down direction key 17D, the left direction key 17L, and the right direction key 17R of the controller 17 has been operated.

そして、ミートカーソル71を移動させるためのミートカーソル71移動命令がCPU7から発行されたと判断された場合(S55でYes)、コントローラ17の操作方向に移動した後のミートカーソル71の設定位置を示す設定位置データが、CPU7に認識される(S56)。そして、移動後のミートカーソル71が、移動後の設定位置において、テレビジョンモニタ20に表示される。なお、コントローラ17が操作されたときのミートカーソル71の移動量は、ゲームプログラムにおいて予め規定されている。このミートカーソル71の移動量に対応するデータは、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   If it is determined that the CPU 7 has issued a move command for moving the meet cursor 71 (Yes in S55), the setting indicating the set position of the meet cursor 71 after moving in the operation direction of the controller 17 The position data is recognized by the CPU 7 (S56). Then, the moved meet cursor 71 is displayed on the television monitor 20 at the set position after the movement. Note that the amount of movement of the meet cursor 71 when the controller 17 is operated is defined in advance in the game program. Data corresponding to the amount of movement of the meet cursor 71 is loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded.

一方で、ミートカーソル71移動命令が未発行である場合(S55でNo)、現時点のミートカーソル71の設定位置を示す設定位置データが、CPU7に認識される(S57)。たとえば、初期状態では、ミートカーソル71の初期設定位置を示す設定位置データが、CPU7に認識される。   On the other hand, if the meet cursor 71 movement command has not been issued (No in S55), the CPU 7 recognizes the set position data indicating the current set position of the meet cursor 71 (S57). For example, in the initial state, the CPU 7 recognizes set position data indicating the initial set position of the meet cursor 71.

上記のようなミートカーソル71の位置を監視する処理は、ミートカーソル71の位置の監視を中断する命令がCPU7から発行された場合を除いて、攻撃イベントが実行されたときから攻撃イベントが終了するまでの間において、繰り返し実行される。ここでは、ミートカーソル71の位置を監視する処理、たとえばステップ55からステップ57までの処理は、攻撃イベント中に繰り返し実行される。しかしながら、図10に示すフローは、図を簡潔に表現するために、ステップ55からステップ57までの処理を繰り返し実行するような形式で表現していない。すなわち、図10に示すフローでは、ステップ55からステップ57までの処理に続いて、後述するステップ58の処理が実行されるように表現されている。   In the process of monitoring the position of the meet cursor 71 as described above, the attack event ends when the attack event is executed, except when a command for interrupting the monitoring of the position of the meet cursor 71 is issued from the CPU 7. It is repeatedly executed until Here, the process of monitoring the position of the meet cursor 71, for example, the process from step 55 to step 57, is repeatedly executed during the attack event. However, the flow shown in FIG. 10 is not expressed in a format in which the processing from step 55 to step 57 is repeatedly executed in order to express the diagram simply. That is, in the flow shown in FIG. 10, the processing of step 58 described later is executed after the processing from step 55 to step 57.

続いて、打者キャラクタ70にスイング動作を開始させるためのスイング動作開始命令がCPU7から発行されたか否かが判断される(S58)。具体的には、打者キャラクタ70にスイング動作を開始させるためのコントローラ17の操作が実行されたか否かが、CPU7により判断される。言い換えると、打者キャラクタ70にスイング動作を開始させるための信号がコントローラ17から発行され、この信号がCPU7に認識されたか否かがCPU7により判断される。   Subsequently, it is determined whether or not a swing motion start command for causing the batter character 70 to start a swing motion is issued from the CPU 7 (S58). Specifically, the CPU 7 determines whether or not the operation of the controller 17 for causing the batter character 70 to start the swing motion has been executed. In other words, a signal for causing the batter character 70 to start a swing motion is issued from the controller 17, and the CPU 7 determines whether or not this signal is recognized by the CPU 7.

そして、スイング動作開始命令がCPU7から発行された場合(S58でYes)、打者キャラクタ70がスイング動作を開始する状態が、打者キャラクタ用のモーションデータを用いて、テレビジョンモニタ20に表示される(S59)。また、スイング動作開始命令がCPU7から発行された場合には、スイング動作開始命令が発行された時点を基準として、受付制限時間データが示す時間が経過したか否かが、CPU7により判断される(S61)。   When a swing motion start command is issued from the CPU 7 (Yes in S58), a state in which the batter character 70 starts the swing motion is displayed on the television monitor 20 using the motion data for the batter character ( S59). When the swing operation start command is issued from the CPU 7, the CPU 7 determines whether or not the time indicated by the reception limit time data has elapsed with reference to the time when the swing operation start command is issued ( S61).

具体的には、スイング動作開始命令が発行された場合、スイング動作開始命令が発行された時点を基準として、時間を計測する処理がCPU7により実行される。すると、計測された時間が、計測時間データとしてCPU7に認識される。すると、この計測時間データが示す時間が、受付制限時間データが示す時間以上になったか否かが、CPU7により判断される(S61)。そして、スイング動作開始命令が発行された時点を基準として受付制限時間データが示す時間が経過していない場合(S61でNo)、ミートカーソル71の設定位置を監視する処理が、CPU7により連続的に実行される(S62)。具体的には、スイング動作開始命令が発行された時点から経過した時間が、受付制限時間データが示す時間未満である場合、ミートカーソル71の設定位置を監視する処理が、CPU7により連続的に実行される。すなわち、この場合、ミートカーソル71の設定位置を示す設定位置データが、CPU7に連続的に認識される。   Specifically, when a swing motion start command is issued, the CPU 7 executes a process for measuring time on the basis of the time when the swing motion start command is issued. Then, the measured time is recognized by the CPU 7 as measurement time data. Then, the CPU 7 determines whether or not the time indicated by the measurement time data is equal to or longer than the time indicated by the reception limit time data (S61). When the time indicated by the reception limit time data has not elapsed with reference to the time when the swing operation start command is issued (No in S61), the CPU 7 continuously monitors the setting position of the meet cursor 71. It is executed (S62). Specifically, when the time elapsed from the time when the swing operation start command is issued is less than the time indicated by the reception limit time data, the process of monitoring the set position of the meet cursor 71 is continuously executed by the CPU 7. Is done. That is, in this case, the setting position data indicating the setting position of the meet cursor 71 is continuously recognized by the CPU 7.

なお、ここでは、受付制限時間データが示す時間が、23/60(sec)に設定されている。この時間(23/60(sec))は、フレーム数に換算すると、23(フレーム)に対応している。   Here, the time indicated by the reception limit time data is set to 23/60 (sec). This time (23/60 (sec)) corresponds to 23 (frame) in terms of the number of frames.

一方で、スイング動作開始命令が発行された時点を基準として受付制限時間データが示す時間が経過した場合(S61でYes)、ミートカーソル71の設定位置を監視する処理が、CPU7により中断される(S63)。具体的には、スイング動作開始命令が発行された時点から経過した時間が、受付制限時間データが示す時間以上である場合、ミートカーソル71の設定位置を監視する処理が、CPU7により中断される。すなわち、受付制限時間データが示す時間が経過した後は、ミートカーソル71の設定位置を示す設定位置データが、CPU7に認識されなくなる。すなわち、この場合、ミートカーソル71の設定位置データを認識する処理を中断する命令が、CPU7から発行される。また、この場合は、ミートカーソル71の設定位置の監視が中断されたときの設定位置データが、RAM12に格納される。   On the other hand, when the time indicated by the reception limit time data has elapsed with reference to the time when the swing operation start command is issued (Yes in S61), the process of monitoring the set position of the meet cursor 71 is interrupted by the CPU 7 ( S63). Specifically, when the time elapsed from when the swing operation start command is issued is equal to or longer than the time indicated by the reception limit time data, the process of monitoring the set position of the meet cursor 71 is interrupted by the CPU 7. That is, after the time indicated by the reception limit time data has elapsed, the setting position data indicating the setting position of the meet cursor 71 is not recognized by the CPU 7. That is, in this case, a command for interrupting the process of recognizing the set position data of the meet cursor 71 is issued from the CPU 7. In this case, the set position data when monitoring of the set position of the meet cursor 71 is interrupted is stored in the RAM 12.

そして、ミートカーソル71の設定位置を監視する処理がCPU7により中断された場合、スイング動作開始命令が発行された時点を基準として、ミートカーソル71の設定位置の認識を再開する時間が経過したか否かが、CPU7により判断される(S64)。ここでは、ミートカーソル71の設定位置の認識を再開する時間が、たとえば59/60(sec)に設定されている。この時間(59/60(sec))は、フレーム数に換算すると、59(フレーム)に対応している。このミートカーソル71の設定位置の認識を再開する時間を示す再開時間データは、ゲームプログラムにおいて予め規定されており、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   If the process for monitoring the set position of the meet cursor 71 is interrupted by the CPU 7, whether or not the time for resuming the recognition of the set position of the meet cursor 71 has elapsed with reference to the time when the swing operation start command is issued. Is determined by the CPU 7 (S64). Here, the time for resuming the recognition of the set position of the meet cursor 71 is set to 59/60 (sec), for example. This time (59/60 (sec)) corresponds to 59 (frame) in terms of the number of frames. The restart time data indicating the time for resuming the recognition of the set position of the meet cursor 71 is defined in advance in the game program, and is loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded. .

具体的には、計測時間データが示す時間が、再開時間データが示す時間以上になったか否かが、CPU7により判断される(S64)。そして、計測時間データが示す時間が、再開時間データが示す時間以上になった場合(S64でYes)、ミートカーソル71の設定位置を監視する処理が、CPU7により再実行される(S65)。一方で、計測時間データが示す時間が、再開時間データが示す時間未満である場合(S64でNo)、計測時間データが示す時間が再開時間データが示す時間以上になるまで、計測時間データが示す時間が、再開時間データが示す時間以上になったか否かの判断が、CPU7により繰り返し実行される。   Specifically, the CPU 7 determines whether or not the time indicated by the measurement time data is equal to or longer than the time indicated by the restart time data (S64). When the time indicated by the measurement time data is equal to or longer than the time indicated by the resume time data (Yes in S64), the process of monitoring the set position of the meet cursor 71 is re-executed by the CPU 7 (S65). On the other hand, when the time indicated by the measurement time data is less than the time indicated by the resume time data (No in S64), the measurement time data indicates until the time indicated by the measurement time data is equal to or greater than the time indicated by the resume time data. The CPU 7 repeatedly determines whether or not the time has reached the time indicated by the resume time data.

上記のように、ミートカーソル71の設定位置を監視する処理が実行されているときには、監視中のミートカーソル71の設定位置データが、CPU7に連続的に認識され、RAM12に格納される。このミートカーソル71の設定位置データを用いることにより、打者キャラクタ70の基本スイング動作の対象となる対象点に対するミートカーソル71の相対的な位置を規定するための相対データを算出する処理が、CPU7により実行される。   As described above, when the process for monitoring the set position of the meet cursor 71 is being executed, the set position data of the meet cursor 71 being monitored is continuously recognized by the CPU 7 and stored in the RAM 12. By using the set position data of the meet cursor 71, the CPU 7 performs processing for calculating relative data for defining the relative position of the meet cursor 71 with respect to the target point that is the target of the basic swing motion of the batter character 70. Executed.

たとえば、2つの第1モーションデータ用の2つの対象点に対するミートカーソル71の相対的な位置を規定するための第1相対データを算出する処理が、CPU7により実行される(S66)。また、2つの第2モーションデータ用の2つの対象点に対するミートカーソル71の相対的な位置を規定するための第2相対データを算出する処理が、CPU7により実行される(S67)。さらに、2つの第1モーションデータ用の2つの対象点のうちのいずれか一方の対象点および2つの第2モーションデータ用の2つの対象点のうちのいずれか一方の対象点に対する、打者キャラクタ70のスイング動作の対象となるミートカーソル71の相対的な位置を規定するための、第3相対データを算出する処理が、CPU7により実行される(S68)。   For example, a process of calculating first relative data for defining the relative position of the meet cursor 71 with respect to two target points for two first motion data is executed by the CPU 7 (S66). Further, the CPU 7 executes a process of calculating the second relative data for defining the relative position of the meet cursor 71 with respect to the two target points for the second second motion data (S67). Further, the batter character 70 for one of the two target points for the first motion data and one of the two target points for the second motion data. The CPU 7 executes a process of calculating the third relative data for defining the relative position of the meet cursor 71 that is the target of the swing motion (S68).

具体的には、ストライクゾーン80aの外角高めの隅角部72aおよびストライクゾーン80aの内角高めの隅角部72bに対するミートカーソル71の相対的な位置を規定するための、第1比率データを算出する処理が、CPU7により実行される。また、ストライクゾーン80aの外角低めの隅角部72cおよびストライクゾーン80aの内角低めの隅角部72dに対するミートカーソル71の相対的な位置を規定するための、第2比率データを算出する処理が、CPU7により実行される。さらに、ストライクゾーン80aの外角高めの隅角部72aおよびストライクゾーン80aの外角低めの隅角部72cに対するミートカーソル71の相対的な位置を規定するための、第3比率データを算出する処理が、CPU7により実行される。   Specifically, the first ratio data for defining the relative position of the meat cursor 71 with respect to the corner portion 72a with a higher outer angle of the strike zone 80a and the corner portion 72b with a higher inner angle of the strike zone 80a is calculated. Processing is executed by the CPU 7. In addition, the process of calculating the second ratio data for defining the relative position of the meat cursor 71 with respect to the corner portion 72c with a lower outer angle of the strike zone 80a and the corner portion 72d with a lower inner angle of the strike zone 80a, It is executed by the CPU 7. Furthermore, the process of calculating the third ratio data for defining the relative position of the meat cursor 71 with respect to the corner portion 72a with a higher outer angle of the strike zone 80a and the corner portion 72c with a lower outer angle of the strike zone 80a, It is executed by the CPU 7.

なお、上記の比率データは、(h1,h2)のようなデータ形式で、CPU7に認識されるようになっている。このような形式の比率データは、2つの基本位置データが示す2点(2つの対象点)を結んだ線分を内分したときの比率を示している。ここでは、ミートカーソル71の設定位置データが示す点から上記の線分に下ろした垂線の足が、比率を規定するときに用いられる内分点になっている。   The ratio data is recognized by the CPU 7 in a data format such as (h1, h2). The ratio data in such a format indicates a ratio when a line segment connecting two points (two target points) indicated by two basic position data is internally divided. Here, the foot of the perpendicular line drawn from the point indicated by the setting position data of the meet cursor 71 to the above-mentioned line segment is the internal dividing point used when defining the ratio.

たとえば、図6に示すように、ストライクゾーン80aの外角高めの隅角部72aとストライクゾーン80aの内角高めの隅角部72bとを結ぶ線分(第1線分)は、ミートカーソル71の設定位置から第1線分に下ろした垂線の足73a(内分点)により内分される。この内分点73aの両側の2つの線分の長さの比を示すデータが、第1比率データである。この第1比率データを(hxu1,hxu2)と記述した場合、第1比率データが示す比率は「hxu1:hxu2」となる。   For example, as shown in FIG. 6, a line segment (first line segment) connecting a corner portion 72a having a higher outer angle of the strike zone 80a and a corner portion 72b having a higher inner angle of the strike zone 80a is set by the meet cursor 71. It is internally divided by a foot 73a (inner dividing point) of a perpendicular line that is lowered from the position to the first line segment. Data indicating the ratio of the lengths of the two line segments on both sides of the internal dividing point 73a is the first ratio data. When the first ratio data is described as (hxu1, hxu2), the ratio indicated by the first ratio data is “hxu1: hxu2”.

また、たとえば、ストライクゾーン80aの外角低めの隅角部72cとストライクゾーン80aの内角低めの隅角部72dとを結ぶ線分(第2線分)は、ミートカーソル71の設定位置から第2線分に下ろした垂線の足73b(内分点)により内分される。この内分点73bの両側の2つの線分の長さの比を示すデータが、第2比率データである。この第2比率データを(hxd1,hxd2)と記述した場合、第2比率データが示す比率は「hxd1:hxd2」となる。   Further, for example, a line segment (second line segment) connecting the lower corner portion 72c of the strike zone 80a and the lower corner portion 72d of the strike zone 80a is the second line from the set position of the meat cursor 71. It is divided internally by a foot 73b (inner dividing point) with a perpendicular line down to the minute. Data indicating the ratio of the lengths of the two line segments on both sides of the internal dividing point 73b is the second ratio data. When the second ratio data is described as (hxd1, hxd2), the ratio indicated by the second ratio data is “hxd1: hxd2”.

さらに、たとえば、ストライクゾーン80aの外角高めの隅角部72aとストライクゾーン80aの外角低めの隅角部72cとを結ぶ線分(第3線分)は、ミートカーソル71の設定位置から第3線分に下ろした垂線の足73c(内分点)により内分される。この内分点の両側の2つの線分の長さの比を示すデータが、第3比率データである。この第3比率データを(hy1,hy2)と記述した場合、第3比率データが示す比率は「hy1:hy2」となる。   Further, for example, a line segment (third line segment) connecting the corner portion 72a with a higher outer angle of the strike zone 80a and the corner portion 72c with a lower outer angle of the strike zone 80a is a third line from the set position of the meat cursor 71. It is divided internally by a foot 73c (inner dividing point) with a perpendicular line down to the minute. Data indicating the ratio of the lengths of the two line segments on both sides of the inner dividing point is the third ratio data. When this third ratio data is described as (hy1, hy2), the ratio indicated by the third ratio data is “hy1: hy2”.

なお、図6、図7、および図8には、第1比率データ、第2比率データ、および第3比率データが「(3,7)、(3,7)、(4,7)」である場合の例が、示されている。すなわち、図6、図7、および図8には、第1線分の内分比が「3:7」であり、第2線分の内分比が「3:7」であり、第3線分の内分比が「4:7」である場合の例が、示されている。   6, 7, and 8, the first ratio data, the second ratio data, and the third ratio data are “(3, 7), (3, 7), (4, 7)”. An example is given in some cases. That is, in FIG. 6, FIG. 7, and FIG. 8, the internal division ratio of the first line segment is “3: 7”, the internal division ratio of the second line segment is “3: 7”, An example in which the internal ratio of the line segment is “4: 7” is shown.

続いて、ミートカーソル71の位置を示す設定位置データおよび第1モーションデータに対応する基本位置データに基づいて算出された第1比率データを用いて、2つの第1モーションデータを合成する処理が、CPU7により実行される(S69)。すると、この処理により合成されたモーションデータが、第1合成モーションデータとしてCPU7に認識される。具体的には、図7(a)に示すように、ストライクゾーン80aの外角高めの隅角部72aおよびストライクゾーン80aの内角高めの隅角部72bに対するミートカーソル71の設定位置に応じて、第1比率データがCPU7により算出される。そして、この第1比率データを用いて、ミートカーソル71の設定位置から第1線分に下ろした垂線の足(内分点)の位置におけるモーションデータが生成される。そして、このモーションデータが、第1合成モーションデータとしてCPU7に認識される。   Subsequently, a process of combining the two first motion data using the first position data calculated based on the set position data indicating the position of the meet cursor 71 and the basic position data corresponding to the first motion data, It is executed by the CPU 7 (S69). Then, the motion data synthesized by this processing is recognized by the CPU 7 as first synthesized motion data. Specifically, as shown in FIG. 7A, in accordance with the set position of the meat cursor 71 with respect to the corner portion 72a having a higher outer angle of the strike zone 80a and the corner portion 72b having a higher inner angle of the strike zone 80a, 1 ratio data is calculated by the CPU 7. Then, using the first ratio data, motion data is generated at the position of the foot (inner dividing point) of the perpendicular line that is lowered from the set position of the meet cursor 71 to the first line segment. Then, the motion data is recognized by the CPU 7 as first synthesized motion data.

すると、ミートカーソル71の位置を示す設定位置データおよび第2モーションデータに対応する基本位置データに基づいて算出された第2比率データを用いて、2つの第2モーションデータを合成する処理が、CPU7により実行される(S70)。すると、この処理により合成されたモーションデータが、第2合成モーションデータとしてCPU7に認識される。具体的には、図7(b)に示すように、ストライクゾーン80aの外角低めの隅角部72cおよびストライクゾーン80aの内角低めの隅角部72dに対するミートカーソル71の位置に応じて、第2比率データがCPU7により算出される。そして、この第2比率データを用いて、ミートカーソル71の設定位置から第2線分に下ろした垂線の足(内分点)の位置におけるモーションデータが生成される。そして、このモーションデータが、第2合成モーションデータとしてCPU7に認識される。   Then, the process of combining the two second motion data using the set position data indicating the position of the meet cursor 71 and the second ratio data calculated based on the basic position data corresponding to the second motion data is performed by the CPU 7. (S70). Then, the motion data synthesized by this processing is recognized by the CPU 7 as second synthesized motion data. Specifically, as shown in FIG. 7B, the second position is determined according to the position of the meet cursor 71 with respect to the corner portion 72c having a lower outer angle of the strike zone 80a and the corner portion 72d having a lower inner angle of the strike zone 80a. The ratio data is calculated by the CPU 7. Then, using the second ratio data, motion data is generated at the position of the foot (inner dividing point) of the perpendicular line that is lowered from the set position of the meet cursor 71 to the second line segment. Then, the motion data is recognized by the CPU 7 as second synthesized motion data.

すると、ミートカーソル71の位置を示す設定位置データと、第1モーションデータに対応する基本位置データおよび第2モーションデータに対応する基本位置データとに基づいて算出される第3比率データを用いて、第1合成モーションデータと第2合成モーションデータとを合成する処理が、CPU7により実行される(S71)。すると、この処理により合成されたモーションデータが、第3合成モーションデータとしてCPU7に認識される。具体的には、図8に示すように、ストライクゾーン80aの外角高めの隅角部72aおよびストライクゾーン80aの外角低めの隅角部72cに対するミートカーソル71の位置に応じて、第3比率データがCPU7により算出される。そして、この第3比率データを用いて、ミートカーソル71の設定位置におけるモーションデータが生成される。そして、このモーションデータが、第3合成モーションデータとしてCPU7に認識される。   Then, using the third position data calculated based on the set position data indicating the position of the meet cursor 71, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data, Processing for synthesizing the first synthesized motion data and the second synthesized motion data is executed by the CPU 7 (S71). Then, the motion data synthesized by this processing is recognized by the CPU 7 as third synthesized motion data. Specifically, as shown in FIG. 8, the third ratio data is determined according to the position of the meet cursor 71 with respect to the corner portion 72a with a higher outer angle of the strike zone 80a and the corner portion 72c with a lower outer angle of the strike zone 80a. Calculated by the CPU 7. Then, using the third ratio data, motion data at the set position of the meet cursor 71 is generated. Then, the motion data is recognized by the CPU 7 as third synthesized motion data.

すると、ミートカーソル71を対象にしてスイング動作する打者キャラクタ70が、第3合成モーションデータを用いて、テレビジョンモニタ20に表示される。具体的には、ミートカーソル71の位置に向けてスイング動作をする打者キャラクタ70が、第3合成モーションデータを用いて、テレビジョンモニタ20に表示される(S72)。   Then, the batter character 70 that swings around the meat cursor 71 is displayed on the television monitor 20 using the third synthesized motion data. Specifically, the batter character 70 that swings toward the position of the meet cursor 71 is displayed on the television monitor 20 using the third synthesized motion data (S72).

一方で、スイング動作開始命令がCPU7から発行されていない状態では(S58でNo)、打者キャラクタ70がテレビジョンモニタ20に表示されたときの姿勢をとっている状態、たとえば打者キャラクタ70が構えの姿勢をとっている状態が、打者キャラクタ用の画像データを用いてテレビジョンモニタ20に連続的に表示される(図3を参照)。言い換えると、この場合は、打者キャラクタ70の打撃姿勢が、打者キャラクタ用のモーションデータを構成する複数の画像データのうちの第1フレーム用の画像データを用いて、テレビジョンモニタ20に表示される(S60)。すると、上述のステップ66からステップ71までの処理と同じ処理が、CPU7により実行される(S62’、S66’〜S71’)。   On the other hand, in a state where the swing motion start command is not issued from the CPU 7 (No in S58), the batter character 70 is in the posture when displayed on the television monitor 20, for example, the batter character 70 is ready. The state in which the posture is taken is continuously displayed on the television monitor 20 using the image data for the batter character (see FIG. 3). In other words, in this case, the batting attitude of the batter character 70 is displayed on the television monitor 20 using the image data for the first frame among the plurality of image data constituting the batter character's motion data. (S60). Then, the same processing as the processing from step 66 to step 71 described above is executed by the CPU 7 (S62 ', S66' to S71 ').

次に、複数の打者キャラクタ用のモーションデータを合成するときの処理形態を説明しておく。   Next, a processing mode when combining motion data for a plurality of batter characters will be described.

打者キャラクタ用の基本モーションデータは、複数の打者キャラクタ用の画像データから構成されている。打者キャラクタ用の基本モーションデータを構成する打者キャラクタ用の画像データは、頭オブジェクト(頭部オブジェクト、首部オブジェクト)、胴体オブジェクト(胸部オブジェクト、腹部オブジェクト、腰部オブジェクト)、腕オブジェクト(上腕部オブジェクト、下腕部オブジェクト、手部オブジェクト)、脚オブジェクト(大腿部オブジェクト、下腿部オブジェクト、足部オブジェクト)、バットオブジェクト、およびオブジェクトの連結部に定義される関節等から構成されている。   The basic motion data for a batter character is composed of a plurality of batter character image data. Image data for the batter character that constitutes the basic motion data for the batter character includes the head object (head object, neck object), the torso object (chest object, abdomen object, waist object), arm object (upper arm object, lower Arm object, hand object), leg object (thigh object, crus object, foot object), bat object, and joints defined in the connecting part of the object.

各関節には、x軸、y軸、およびz軸が規定される。各関節に対して各軸まわりの回転角度(関節角度)を指定することにより、打者キャラクタ70の姿勢を決定することができる。なお、膝関節や肘関節は一方向にしか曲がらないので、膝関節や肘関節においては、ある回転軸(一軸)まわりの関節角度のみが指定される。また、膝関節や肘関節の関節角度は、角度の範囲に制限が設けられている。これにより、膝関節や肘関節の部分で、腕が逆に曲がってしまわないようにすることができる。   Each joint is defined with an x-axis, a y-axis, and a z-axis. By specifying the rotation angle (joint angle) about each axis for each joint, the posture of the batter character 70 can be determined. Since the knee joint and elbow joint bend only in one direction, only the joint angle around a certain rotation axis (one axis) is specified for the knee joint and elbow joint. In addition, the joint angle of the knee joint and elbow joint is limited in the range of angles. Thereby, it is possible to prevent the arm from bending backward at the knee joint and elbow joint.

上記の各オブジェクト用の画像データは、ゲームプログラムにおいて予め用意されており、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。また、各関節の関節角度は、打者キャラクタ用の画像データごとに、ゲームプログラムにおいて予め規定されており、ゲームプログラムのロード時に、記録媒体10からRAM12にロードされ、RAM12に格納されている。   The image data for each object is prepared in advance in the game program, and is loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded. The joint angle of each joint is defined in advance in the game program for each batter character image data, and is loaded from the recording medium 10 to the RAM 12 and stored in the RAM 12 when the game program is loaded.

以下では、たとえば、複数の打者キャラクタ用の画像データから構成される打者キャラクタ用のあるモーションデータ(Aモーションデータ)と、複数の打者キャラクタ用の画像データから構成される他のモーションデータ(Bモーションデータ)とを合成する場合を例として、説明を行うものとする。   In the following, for example, some motion data (A motion data) for a batter character composed of image data for a plurality of batter characters and other motion data (B motion) composed of image data for a plurality of batter characters Data will be described as an example.

この合成処理では、まず、Aモーションデータのある画像データ用の関節角度と、Aモーションデータのある画像データに対応するBモーションデータの画像データ用の関節角度とを、比率データが示す比率に応じて補正する処理が、CPU7により実行される。これにより、合成モーションデータの画像データ用の関節角度が算出される。言い換えると、同じフレームで用いられる各モーションデータの画像データ用の関節角度を比率データが示す比率に応じて補正する処理を、CPU7に実行させることにより、合成モーションデータの画像データ用の関節角度が算出される。たとえば、Aモーションデータの画像データ用のある関節角度を「Ka1」とし、Bモーションデータの画像データ用のある関節角度を「Kb1」とし、比率データを「(ha1,hb1)」とすると、補正された関節角度(合成モーション用の関節角度)Kab1は、補正式「「Kab1=(ha1×Ka1+hb1×Kb1)/(ha1+hb1)」を用いて算出される。   In this synthesis process, first, the joint angle for image data having A motion data and the joint angle for image data of B motion data corresponding to image data having A motion data are set according to the ratio indicated by the ratio data. The CPU 7 executes the correction process. As a result, the joint angle for the image data of the combined motion data is calculated. In other words, by causing the CPU 7 to execute a process of correcting the joint angle for the image data of each motion data used in the same frame according to the ratio indicated by the ratio data, the joint angle for the image data of the combined motion data is obtained. Calculated. For example, if a joint angle for image data of A motion data is “Ka1”, a joint angle for image data of B motion data is “Kb1”, and the ratio data is “(ha1, hb1)”, the correction is performed. The joint angle (joint angle for synthesized motion) Kab1 is calculated using the correction formula ““ Kab1 = (ha1 × Ka1 + hb1 × Kb1) / (ha1 + hb1) ”.

この処理を打者キャラクタ70の全関節に対して実行することにより、合成モーションデータを構成する一画像データに対応する関節角度が算出される。また、この処理を打者キャラクタ70の全フレームに対して実行することにより、合成モーションデータを構成する複数の画像データそれぞれに対応する関節角度が算出される。すると、この関節角度に関節が設定された姿勢に対応する画像データが、RAM12に格納される。そして、これらRAM12に格納された複数の画像データが、合成モーションデータとしてCPU7に認識される。   By executing this process for all the joints of the batter character 70, the joint angle corresponding to one image data constituting the combined motion data is calculated. Further, by executing this process for all the frames of the batter character 70, joint angles corresponding to each of the plurality of image data constituting the composite motion data are calculated. Then, image data corresponding to the posture in which the joint is set to the joint angle is stored in the RAM 12. The plurality of image data stored in the RAM 12 are recognized by the CPU 7 as synthesized motion data.

このように、合成モーションデータが生成されると、合成モーションデータが、インターフェース回路21を介してD/Aコンバータ22に供給される。すると、合成モーションデータが、D/Aコンバータ22でアナログ映像信号に変換される。そして、この合成モーションデータをD/Aコンバータ22からテレビジョンモニタ20に供給することにより、合成モーションデータに対応する動画が、テレビジョンモニタ20に表示される。   As described above, when the synthesized motion data is generated, the synthesized motion data is supplied to the D / A converter 22 via the interface circuit 21. Then, the synthesized motion data is converted into an analog video signal by the D / A converter 22. Then, by supplying this combined motion data from the D / A converter 22 to the television monitor 20, a moving image corresponding to the combined motion data is displayed on the television monitor 20.

最後に、モーションデータの合成時に対象となる画像データについての説明を行っておく。   Finally, description will be given of the image data that is the target when the motion data is synthesized.

モーションデータの合成時に対象となる画像データは、スイング動作開始命令がCPU7から未発行である場合と、スイング動作開始命令がCPU7から発行された場合とにおいて異なっている。   The target image data at the time of synthesis of motion data differs depending on whether the swing motion start command has not been issued from the CPU 7 or the swing motion start command has been issued from the CPU 7.

たとえば、スイング動作開始命令がCPU7から未発行である場合、モーションデータの合成時に対象となる画像データは、図9(a)に示すように、モーションデータを構成する全画像データとなる。すなわち、あるモーションデータ(Aモーションデータ)を構成する全画像データと他のモーションデータ(Bモーションデータ)を構成する全画像データとを対象として、1フレームごとに画像データを互いに合成する処理が、CPU7により実行される。これにより、AモーションデータとBモーションデータとを合成した合成モーションデータを生成することができる。   For example, when the swing operation start command has not been issued from the CPU 7, the image data that is the target at the time of combining the motion data is all the image data constituting the motion data, as shown in FIG. That is, the process of synthesizing image data for each frame for all image data constituting a certain motion data (A motion data) and all image data constituting another motion data (B motion data), It is executed by the CPU 7. Thereby, synthesized motion data obtained by synthesizing A motion data and B motion data can be generated.

また、たとえば、スイング動作開始命令がCPU7から発行され、スイング動作開始命令がCPU7から発行された後のミートカーソル71の設定位置が一定である場合、モーションデータの合成時に対象となる画像データは、スイング動作開始命令がCPU7から未発行である場合と同様に、モーションデータを構成する全画像データとなる(図9(a)を参照)。すなわち、Aモーションデータを構成する全画像データとBモーションデータを構成する全画像データとを対象として、1フレームごとに画像データを互いに合成する処理が、CPU7により実行される。これにより、AモーションデータとBモーションデータとを合成した合成モーションデータを生成することができる。   Further, for example, when the setting position of the meet cursor 71 after the swing motion start command is issued from the CPU 7 and the swing motion start command is issued from the CPU 7, the target image data at the time of combining motion data is: As in the case where the swing operation start command has not been issued from the CPU 7, all the image data constituting the motion data is obtained (see FIG. 9A). That is, the CPU 7 executes a process of synthesizing image data for each frame for all image data constituting the A motion data and all image data constituting the B motion data. Thereby, synthesized motion data obtained by synthesizing A motion data and B motion data can be generated.

これに対して、たとえば、スイング動作開始命令がCPU7から発行され、スイング動作開始命令がCPU7から発行された後のミートカーソル71の設定位置が変化した場合、モーションデータの合成時に対象となる画像データは、図9(b)に示すように、ミートカーソル71の設定位置が変化した時点の画像データに続く画像データとなる。すなわち、ミートカーソル71の設定位置が変化した時点以降のフレームで用いられる、Aモーションデータを構成する画像データとBモーションデータを構成する画像データとを対象として、1フレームごとに画像データを互いに合成する処理が、CPU7により実行される。これにより、AモーションデータとBモーションデータとを合成した合成モーションデータを生成することができる。   On the other hand, for example, when the setting position of the meet cursor 71 is changed after the swing operation start command is issued from the CPU 7 and the swing operation start command is issued from the CPU 7, the image data to be processed at the time of combining the motion data As shown in FIG. 9B, the image data follows the image data at the time when the setting position of the meet cursor 71 is changed. That is, the image data for each frame is combined with each other for the image data constituting the A motion data and the image data constituting the B motion data used in the frames after the time when the setting position of the meet cursor 71 is changed. Processing to be executed is executed by the CPU 7. Thereby, synthesized motion data obtained by synthesizing A motion data and B motion data can be generated.

なお、図9に示した丸付き数字は、フレーム番号を示している。また、図9(b)に示した「n」および「m」は、自然数である。この「n」および「m」の間には、「n>m」の関係が成立している。また、「m」は「1≦m≦m1(m1は所定の自然数)」の範囲の自然数である。ここでは、「m」は「1≦m≦22」の範囲の自然数となっている。   Note that the circled numbers shown in FIG. 9 indicate frame numbers. Also, “n” and “m” shown in FIG. 9B are natural numbers. The relationship “n> m” is established between “n” and “m”. “M” is a natural number in a range of “1 ≦ m ≦ m1 (m1 is a predetermined natural number)”. Here, “m” is a natural number in the range of “1 ≦ m ≦ 22”.

上記のようなモーションデータの合成処理では、比率データが用いられる。この比率データは、ミートカーソル71の設定位置が変化すると、ミートカーソル71の設定位置の変化に連動してリアルタイムに変化する。すると、変化した比率データに基づいて、合成モーションデータが、生成される。このように、合成モーションデータは、ミートカーソル71の設定位置が監視されている間において、ミートカーソル71の設定位置データに応じてリアルタイムに変化する。すなわち、ミートカーソル71の設定位置が監視されている間において、ミートカーソル71の設定位置データが変化すれば、合成モーションデータは、ミートカーソル71の設定位置データの変化に応じて生成される。   Ratio data is used in the above-described motion data composition processing. This ratio data changes in real time in conjunction with the change in the setting position of the meet cursor 71 when the setting position of the meet cursor 71 changes. Then, synthetic motion data is generated based on the changed ratio data. As described above, the combined motion data changes in real time according to the set position data of the meet cursor 71 while the set position of the meet cursor 71 is being monitored. That is, if the setting position data of the meet cursor 71 changes while the setting position of the meet cursor 71 is being monitored, the combined motion data is generated according to the change of the setting position data of the meet cursor 71.

なお、上記のモーションデータという文言は、第1モーションデータ、第2モーションデータ、第1合成モーションデータ、および第2合成モーションデータに対応する文言である。すなわち、上記のモーションデータという文言は、合成対象となるモーションデータに対応する文言である。また、比率データという文言は、第1比率データ、第2比率データ、および第3比率データに対応する文言である。さらに、合成モーションデータという文言は、第1合成モーションデータ、第2合成モーションデータ、および第3合成モーションデータに対応する文言である。   The term “motion data” is a term corresponding to the first motion data, the second motion data, the first synthesized motion data, and the second synthesized motion data. That is, the term “motion data” is a term corresponding to the motion data to be synthesized. The term ratio data is a term corresponding to the first ratio data, the second ratio data, and the third ratio data. Furthermore, the term synthetic motion data is a term corresponding to the first synthetic motion data, the second synthetic motion data, and the third synthetic motion data.

このように、本実施形態においては、基本位置データが示す基本スイング動作の対象位置および設定位置データが示すミートカーソル71の位置に基づいて、基本となる基本モーションデータを合成し、合成されたモーションデータを再合成することにより、最終的な合成モーションデータが生成されるようになっている。すなわち、基本位置データが示す基本スイング動作の対象位置および設定位置データが示すミートカーソル71の位置に基づいて、基本となる基本モーションデータから、第1合成モーションデータおよび第2合成モーションデータを介して、第3合成モーションデータが生成されるようになっている。このため、ミートカーソル71がどの位置に位置していても、第3合成モーションデータを用いることにより、打者キャラクタ70の現実的なスイング動作を、モニタに表示することができる。一般的な表現を用いると、現実空間において人が行う動作をゲーム空間においても違和感なく表示することができる。   As described above, in this embodiment, basic basic motion data is synthesized based on the target position of the basic swing motion indicated by the basic position data and the position of the meet cursor 71 indicated by the set position data, and the synthesized motion By re-synthesizing the data, final synthesized motion data is generated. That is, based on the target position of the basic swing motion indicated by the basic position data and the position of the meet cursor 71 indicated by the set position data, the basic basic motion data is passed through the first synthetic motion data and the second synthetic motion data. Third synthesized motion data is generated. For this reason, regardless of the position of the meet cursor 71, the realistic swing motion of the batter character 70 can be displayed on the monitor by using the third synthesized motion data. If a general expression is used, an action performed by a person in the real space can be displayed in the game space without a sense of incongruity.

なお、図5、図7、および図8には、打者キャラクタ70のスイング動作が示されている。これら図5、図7、および図8では、打者キャラクタ70に素振り動作を実行させたときの図を用いている。   5, 7, and 8 show the swing motion of the batter character 70. 5, 7, and 8, the figures when the batter character 70 performs the swing motion are used.

〔他の実施形態〕
(a)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての家庭用ビデオゲーム装置を用いた場合の例を示したが、ゲーム装置は、前記実施形態に限定されず、モニタが別体に構成されたゲーム装置、モニタが一体に構成されたゲーム装置、ゲームプログラムを実行することによってゲーム装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。また、ゲーム装置は、前記実施形態に限定されず、携帯型コンピュータ、携帯型ゲーム装置などにも同様に適用することができる。
[Other Embodiments]
(A) In the above-described embodiment, an example in which a home video game apparatus as an example of a computer to which a game program can be applied has been used has been described. However, the game apparatus is not limited to the above-described embodiment, The present invention can be similarly applied to a game device configured in a body, a game device in which a monitor is integrated, a personal computer functioning as a game device by executing a game program, a workstation, and the like. Further, the game device is not limited to the above-described embodiment, and can be similarly applied to a portable computer, a portable game device, and the like.

(b)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。   (B) The present invention includes a program for executing the game as described above and a computer-readable recording medium on which the program is recorded. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.

本発明の一実施形態によるビデオゲーム装置の基本構成図。1 is a basic configuration diagram of a video game apparatus according to an embodiment of the present invention. 前記ゲーム装置の機能ブロック図。The functional block diagram of the said game device. 打者キャラクタおよびミートカーソルの表示形態と、ボール通過領域の範囲とを示す図。The figure which shows the display form of a batter character and a meat cursor, and the range of a ball passage area. 対象点の基本位置およびミートカーソルの初期設定位置を示す図。The figure which shows the basic position of an object point, and the initial setting position of a meet cursor. 対象点の基本位置に向かってスイング動作を行う打者キャラクタを示す図。The figure which shows the batter character which performs swing motion toward the basic position of a target point. 対象点の基本位置に向かってスイング動作を行う打者キャラクタを示す図。The figure which shows the batter character which performs swing motion toward the basic position of a target point. 比率データの算出時に用いられる内分点および比率データを説明するための図。The figure for demonstrating the internal dividing point and ratio data which are used at the time of calculation of ratio data. 対象点の内分点に向かってスイング動作を行う打者キャラクタを示す図。The figure which shows the batter character which performs a swing motion toward the internal dividing point of an object point. ミートカーソルの設定位置に向かってスイング動作を行う打者キャラクタを示す図。The figure which shows the batter character which performs a swing action toward the setting position of a meat cursor. モーションデータの合成時に対象となる画像データを示す図。The figure which shows the image data used as object at the time of the synthesis | combination of motion data. 野球ゲームの全体概要を示すフロー。Flow showing the overall outline of the baseball game. 野球ゲームにおける動作生成システムを示すフロー。The flow which shows the motion generation system in a baseball game. 野球ゲームにおける動作生成システムを示すフロー。The flow which shows the motion generation system in a baseball game. 野球ゲームにおける動作生成システムを示すフロー。The flow which shows the motion generation system in a baseball game.

1 制御部
2 記憶部
3 画像表示部
4 音声出力部
5 操作入力部
7 CPU
12 RAM
17 コントローラ
20 テレビジョンモニタ
23 通信部
50 対象範囲認識手段
51 基本対象点認識手段
52 基本モーションデータ認識手段
53 第1モーションデータ認識手段
54 第2モーションデータ認識手段
55 受付制限時間データ認識手段
56 ミートカーソル移動判断手段
57 動作開始命令判断手段
58 制限時間判断手段
59 ミートカーソル認識手段
60 相対データ算出手段
61 第1合成モーションデータ認識手段
62 第2合成モーションデータ認識手段
63 第3合成モーションデータ認識手段
64 打者キャラクタ表示手段
70 打者キャラクタ
71 ミートカーソル
72a ストライクゾーンの外角高めの隅角部
72b ストライクゾーンの内角高めの隅角部
72c ストライクゾーンの外角低めの隅角部
72d ストライクゾーンの内角低めの隅角部
73a ミートカーソルの設定位置から第1線分に下ろした垂線の足(内分点)
73b ミートカーソルの設定位置から第2線分に下ろした垂線の足(内分点)
73c ミートカーソルの設定位置から第3線分に下ろした垂線の足(内分点)
80 ボール通過領域
80a ストライクゾーン
80b ボールゾーン
hxu1,hxu2 第1比率データが示す比率
hxd1,hxd2 第2比率データが示す比率
hy1,hy2 第3比率データが示す比率



DESCRIPTION OF SYMBOLS 1 Control part 2 Memory | storage part 3 Image display part 4 Audio | voice output part 5 Operation input part 7 CPU
12 RAM
17 controller 20 television monitor 23 communication unit 50 target range recognition means 51 basic target point recognition means 52 basic motion data recognition means 53 first motion data recognition means 54 second motion data recognition means 55 reception limit time data recognition means 56 meat cursor Movement judgment means 57 Operation start command judgment means 58 Time limit judgment means 59 Meet cursor recognition means 60 Relative data calculation means 61 First synthetic motion data recognition means 62 Second synthetic motion data recognition means 63 Third synthetic motion data recognition means 64 Batter Character display means 70 Batter character 71 Meat cursor 72a Higher corner angle of strike zone 72b Higher corner angle of strike zone 72c Lower corner angle of strike zone 72d Trike zone interior angle lower corner 73a from the setting position of the meet cursor perpendicular dropped to the first line segment leg (dividing point)
73b Perpendicular to the second line from the position where the meat cursor is set (inner dividing point)
73c Perpendicular to the third line from the position where the meat cursor is set (inner dividing point)
80 ball passing area 80a strike zone 80b ball zone hxu1, hxu2 ratio indicated by the first ratio data hxd1, hxd2 ratio indicated by the second ratio data hy1, hy2 ratio indicated by the third ratio data



Claims (8)

ゲーム空間において動作するキャラクタを画像表示部に表示するゲームを実行可能なコンピュータに、
前記キャラクタの基本動作に対応する複数の基本モーションデータを、記憶部から読み出し、複数の前記基本モーションデータそれぞれを、制御部に認識させる基本モーションデータ認識機能と、
複数の前記基本モーションデータのうちの少なくとも2つのモーションデータそれぞれを、第1モーションデータとして、制御部に認識させ記憶部に格納する第1モーションデータ認識機能と、
複数の前記第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の前記基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれを、第2モーションデータとして、制御部に認識させ記憶部に格納する第2モーションデータ認識機能と、
前記キャラクタの基本動作の対象となる対象点の基本位置を示す基本位置データを、記憶部から読み出し、前記基本位置データを制御部に認識させ記憶部に格納する基本対象点認識機能と、
前記キャラクタの基本動作を含む前記キャラクタの動作の対象となる対象点の設定位置を示す設定位置データを、1フレームごとに制御部に認識させ記憶部に格納する設定対象点認識機能と、
記憶部に格納された各フレームの前記設定位置データ、および前記第1モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の前記第1モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第1合成モーションデータとして、制御部に認識させ記憶部に格納する第1合成モーションデータ認識機能と、
記憶部に格納された各フレームの前記設定位置データ、および前記第2モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の前記第2モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第2合成モーションデータとして、制御部に認識させ記憶部に格納する第2合成モーションデータ認識機能と、
記憶部に格納された各フレームの前記設定位置データと、前記第1モーションデータに対応する基本位置データおよび前記第2モーションデータに対応する基本位置データとに基づいて、記憶部に格納された前記第1合成モーションデータと、記憶部に格納された前記第2合成モーションデータとを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第3合成モーションデータとして、制御部に認識させ記憶部に格納する第3合成モーションデータ認識機能と、
記憶部に格納された前記第3合成モーションデータを用いて、前記対象点を対象にして動作する前記キャラクタを画像表示部に表示するキャラクタ表示機能と、
を実現させるためのゲームプログラム。
A computer capable of executing a game for displaying a character that operates in a game space on an image display unit,
A plurality of basic motion data corresponding to the basic operation of the character, reading from the storage unit, a plurality of the respective base motion data, and the basic motion data recognition function to recognize the control unit,
A first motion data recognition function for recognizing at least two pieces of motion data of the plurality of basic motion data as first motion data by the control unit and storing in the storage unit ;
Each of the plurality of basic motion data excluding at least one first motion data from among the plurality of first motion data is recognized and stored as second motion data by the control unit. A second motion data recognition function stored in the
A basic target point recognition function that reads basic position data indicating a basic position of a target point that is a target of a basic motion of the character from a storage unit, recognizes the basic position data in a control unit, and stores the basic position data in a storage unit ;
A setting target point recognition function for recognizing a setting position of a target point that is a target of movement of the character including the basic movement of the character by the control unit for each frame and storing it in a storage unit ;
The set position data of each frame stored in the storage unit, and based on the basic position data corresponding to the first motion data, the processing for combining a plurality of the first motion data stored in the storage unit, 1 A first synthesized motion data recognition function for causing the control unit to recognize the motion data synthesized by the above processing as first synthesized motion data and storing it in the storage unit by causing the control unit to execute each frame ;
1. A process of synthesizing the plurality of second motion data stored in the storage unit based on the set position data of each frame stored in the storage unit and the basic position data corresponding to the second motion data. A second synthesized motion data recognition function for causing the control unit to recognize the motion data synthesized by the above processing as second synthesized motion data and store it in the storage unit by causing the control unit to execute each frame ;
Based on the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data , the stored in the storage unit By causing the control unit to execute a process for synthesizing the first synthesized motion data and the second synthesized motion data stored in the storage unit for each frame , the motion data synthesized by the process is A third synthesized motion data recognition function that is recognized by the control unit and stored in the storage unit as synthesized motion data;
A character display function for displaying the character operating on the target point on the image display unit using the third synthesized motion data stored in the storage unit ;
A game program to make it happen.
前記コンピュータに、
前記キャラクタの動作の対象となる対象点を移動させるための対象点移動命令が発行されたか否かを、制御部に判断させる対象点移動判断機能、
をさらに実現させ、
前記設定対象点認識機能では、前記対象点移動命令が発行されていないと制御部により判断された場合、現在の前記対象点の設定位置を示す設定位置データが制御部に認識され、前記対象点移動命令が発行されたと制御部により判断された場合に、移動後の前記対象点の設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納される
請求項1に記載のゲームプログラム。
In the computer,
A target point movement determination function for causing the control unit to determine whether or not a target point movement command for moving a target point that is a target of movement of the character has been issued;
Further realized,
In the setting target point recognition function, when the control unit determines that the target point movement command has not been issued, the control unit recognizes the setting position data indicating the current setting position of the target point, and the target point When the control unit determines that a movement command has been issued, set position data indicating the set position of the target point after movement is recognized by the control unit for each frame and stored in the storage unit .
The game program according to claim 1.
前記コンピュータに、
前記キャラクタの動作の対象となる対象点の設定位置を示す設定位置データを受け付ける時間を制限するための受付制限時間データを、制御部に認識させる受付制限時間データ認識機能と、
前記キャラクタに動作を開始させるための動作開始命令が発行されたか否かを、制御部に判断させる動作開始命令判断機能と、
前記動作開始命令が発行されたと制御部により判断された場合に、前記動作開始命令が発行された時点を基準として、前記受付制限時間データが示す時間が経過したか否かを制御部に判断させる制限時間判断機能と、
をさらに実現させ、
前記設定対象点認識機能では、前記動作開始命令が発行されたと制御部により判断され、前記動作開始命令が発行された時点を基準として前記受付制限時間データが示す時間が経過していないと制御部により判断された場合に、前記キャラクタの動作の対象となる対象点の設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納される
請求項1又は2に記載のゲームプログラム。
In the computer,
A reception time limit data recognition function for causing the control unit to recognize reception time limit data for limiting the time for receiving the setting position data indicating the setting position of the target point that is the object of the character,
An operation start instruction determination function for causing the control unit to determine whether or not an operation start instruction for starting an action for the character has been issued;
When the control unit determines that the operation start command has been issued, the control unit determines whether or not the time indicated by the reception limit time data has elapsed with reference to the time point when the operation start command is issued. Time limit judgment function,
Further realized,
In the setting target point recognition function, the control unit determines that the operation start command has been issued, and the control unit determines that the time indicated by the reception limit time data has not elapsed with respect to the time point when the operation start command has been issued. When the determination is performed, the setting position data indicating the setting position of the target point that is the target of the character's movement is recognized by the control unit for each frame and stored in the storage unit .
The game program according to claim 1 or 2.
前記コンピュータに、
前記キャラクタの動作の対象となる対象領域の範囲を示す範囲データを、制御部に認識させる対象範囲認識機能、
をさらに実現させ、
前記基本対象点認識機能では、前記対象領域の範囲内に位置する前記対象点の基本位置を示す基本対象位置データが、制御部に認識され、
前記設定対象点認識機能では、前記対象領域の範囲内に位置する前記対象点の設定位置を示す設定位置データが、1フレームごとに制御部に認識され記憶部に格納される
請求項1から3のいずれかに記載のゲームプログラム。
In the computer,
A target range recognition function that causes the control unit to recognize range data indicating a range of a target region that is a target of the character's motion;
Further realized,
In the basic target point recognition function, basic target position data indicating the basic position of the target point located within the range of the target region is recognized by the control unit,
In the setting target point recognition function, setting position data indicating the setting position of the target point located within the range of the target region is recognized by the control unit for each frame and stored in the storage unit .
The game program according to any one of claims 1 to 3.
前記コンピュータに、
前記キャラクタの基本動作の対象となる対象点に対する、前記キャラクタの動作の対象となる対象点の相対的な位置を規定するための相対データを、1フレームごとに算出する処理を、制御部に実行させる相対データ算出機能、
をさらに実現させ、
前記第1合成モーションデータ認識機能では、記憶部に格納された各フレームの前記設定位置データ、および前記第1モーションデータに対応する基本位置データに基づいて算出された第1相対データを用いて、記憶部に格納された複数の前記第1モーションデータを合成する処理が、1フレームごとに制御部により実行されることにより、前記処理により合成されたモーションデータが、第1合成モーションデータとして制御部に認識され記憶部に格納され
前記第2合成モーションデータ認識機能では、記憶部に格納された各フレームの前記設定位置データおよび前記第2モーションデータに対応する基本位置データに基づいて算出された第2相対データを用いて、記憶部に格納された複数の前記第2モーションデータを合成する処理が、1フレームごとに制御部により実行されることにより、前記処理により合成されたモーションデータが、第2合成モーションデータとして制御部に認識され記憶部に格納され
前記第3合成モーションデータ認識機能では、記憶部に格納された各フレームの前記設定位置データと、前記第1モーションデータに対応する基本位置データおよび前記第2モーションデータに対応する基本位置データとに基づいて算出される第3相対データを用いて、記憶部に格納された前記第1合成モーションデータと、記憶部に格納された前記第2合成モーションデータとを合成する処理が、1フレームごとに制御部により実行されることにより、前記処理により合成されたモーションデータが第3合成モーションデータとして制御部に認識され記憶部に格納される
請求項1から4のいずれかに記載のゲームプログラム。
In the computer,
Run for the target points to be basic operation of the character, the relative data for defining the relative position of the object point to be the operation of the character, the process of calculating for each frame, the control unit Relative data calculation function,
Further realized,
In the first synthesized motion data recognition function, using the setting position data of each frame stored in the storage unit and the first relative data calculated based on the basic position data corresponding to the first motion data, The process of combining the plurality of first motion data stored in the storage unit is executed by the control unit for each frame , so that the motion data combined by the process is converted into the first combined motion data as the control unit. Is stored in the storage unit ,
In the second synthetic motion data recognition function, using the second relative data calculated on the basis of the basic position data corresponding to the set position data and the second motion data of each frame stored in the storage unit, stores The processing for combining the plurality of second motion data stored in the unit is executed by the control unit for each frame , so that the motion data combined by the processing is sent to the control unit as second combined motion data. Recognized and stored in the storage unit ,
In the third synthesized motion data recognition function, the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data using a third relative data calculated based, said first synthetic motion data stored in the storage unit, the processing for combining the second synthetic motion data stored in the storage unit, for each frame By being executed by the control unit, the motion data synthesized by the processing is recognized as the third synthesized motion data by the control unit and stored in the storage unit .
The game program according to claim 1.
前記第1モーションデータ認識機能では、複数の前記基本モーションデータのうちの2つのモーションデータそれぞれが、第1モーションデータとして、制御部に認識され記憶部に格納され
前記第2モーションデータ認識機能では、2つの前記第1モーションデータを除いた複数の前記基本モーションデータのうちの2つのモーションデータそれぞれが、第2モーションデータとして、制御部に認識され記憶部に格納され
前記相対データ算出機能では、2つの前記第1モーションデータ用の2つの対象点に対する、前記キャラクタの動作の対象となる対象点の相対的な位置を規定するための、第1相対データを1フレームごとに算出する処理が制御部により実行され、2つの前記第2モーションデータ用の2つの対象点に対する、前記キャラクタの動作の対象となる対象点の相対的な位置を規定するための、第2相対データを算出する処理が1フレームごとに制御部により実行され、2つの前記第1モーションデータ用の2つの対象点のうちのいずれか一方の対象点および2つの前記第2モーションデータ用の2つの対象点のうちのいずれか一方の対象点に対する、前記キャラクタの動作の対象となる対象点の相対的な位置を規定するための、第3相対データを算出する処理が1フレームごとに制御部により実行される、
請求項5に記載のゲームプログラム。
In the first motion data recognition function, each of two motion data of the plurality of basic motion data is recognized as first motion data by the control unit and stored in the storage unit ,
In the second motion data recognition function, each of the two motion data out of the plurality of basic motion data excluding the two first motion data is recognized as second motion data by the control unit and stored in the storage unit. And
In the relative data calculation function, the first relative data for defining the relative position of the target point that is the target of the motion of the character with respect to the two target points for the two first motion data is one frame. A process for calculating each of the second motion data is performed by the control unit, and a second position for defining a relative position of the target point that is the target of the character's motion with respect to the two target points for the second motion data. The processing for calculating the relative data is executed by the control unit for each frame, and one of the two target points for the first motion data and the two for the second motion data. 3rd relative data for prescribing the relative position of the target point that is the target of the character's movement with respect to any one of the two target points. Processing for output is performed by the control unit for each frame,
The game program according to claim 5.
ゲーム空間において動作するキャラクタを画像表示部に表示するゲームを実行可能なゲーム装置であって、
前記キャラクタの基本動作に対応する複数の基本モーションデータを、記憶部から読み出し、複数の前記基本モーションデータそれぞれを、制御部に認識させる基本モーションデータ認識手段と、
複数の前記基本モーションデータのうちの少なくとも2つのモーションデータそれぞれを、第1モーションデータとして、制御部に認識させ記憶部に格納する第1モーションデータ認識手段と、
複数の前記第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の前記基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれを、第2モーションデータとして、制御部に認識させ記憶部に格納する第2モーションデータ認識手段と、
前記キャラクタの基本動作の対象となる対象点の基本位置を示す基本位置データを、記憶部から読み出し、前記基本位置データを制御部に認識させ記憶部に格納する基本対象点認識手段と、
前記キャラクタの基本動作を含む前記キャラクタの動作の対象となる対象点の設定位置を示す設定位置データを、1フレームごとに制御部に認識させ記憶部に格納する設定対象点認識手段と、
記憶部に格納された各フレームの前記設定位置データ、および前記第1モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の前記第1モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第1合成モーションデータとして、制御部に認識させ記憶部に格納する第1合成モーションデータ認識手段と、
記憶部に格納された各フレームの前記設定位置データ、および前記第2モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の前記第2モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第2合成モーションデータとして、制御部に認識させ記憶部に格納する第2合成モーションデータ認識手段と、
記憶部に格納された各フレームの前記設定位置データと、前記第1モーションデータに対応する基本位置データおよび前記第2モーションデータに対応する基本位置データとに基づいて、記憶部に格納された前記第1合成モーションデータと、記憶部に格納された前記第2合成モーションデータとを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第3合成モーションデータとして、制御部に認識させ記憶部に格納する第3合成モーションデータ認識手段と、
記憶部に格納された前記第3合成モーションデータを用いて、前記対象点を対象にして動作する前記キャラクタを画像表示部に表示するキャラクタ表示手段と、
を備えるゲーム装置。
A game device capable of executing a game for displaying a character operating in a game space on an image display unit,
A plurality of basic motion data corresponding to the basic operation of the character, reading from the storage unit, and the basic motion data recognizing means for a plurality of said respective basic motion data, is recognized by the control unit,
First motion data recognizing means for recognizing at least two pieces of motion data of the plurality of basic motion data as first motion data by the control unit and storing them in the storage unit ;
Each of the plurality of basic motion data excluding at least one first motion data from among the plurality of first motion data is recognized and stored as second motion data by the control unit. Second motion data recognizing means stored in the unit;
Basic target point recognition means for reading basic position data indicating a basic position of a target point to be a target of the basic motion of the character from the storage unit, and causing the control unit to recognize the basic position data and store the basic position data in the storage unit ;
Setting target point recognizing means for recognizing a setting position of a target point that is a target of movement of the character including the basic movement of the character, and for storing the setting position data in a storage unit for each frame ;
The set position data of each frame stored in the storage unit, and based on the basic position data corresponding to the first motion data, the processing for combining a plurality of the first motion data stored in the storage unit, 1 First synthesized motion data recognition means for causing the control unit to recognize the motion data synthesized by the above processing as first synthesized motion data and store it in the storage unit by causing the control unit to execute each frame .
1. A process of synthesizing the plurality of second motion data stored in the storage unit based on the set position data of each frame stored in the storage unit and the basic position data corresponding to the second motion data. A second synthesized motion data recognizing means for causing the control unit to recognize the motion data synthesized by the above processing as second synthesized motion data and storing it in the storage unit by causing the control unit to execute each frame ;
Based on the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data , the stored in the storage unit By causing the control unit to execute a process for synthesizing the first synthesized motion data and the second synthesized motion data stored in the storage unit for each frame , the motion data synthesized by the process is Third synthesized motion data recognizing means that recognizes the synthesized motion data in the control unit and stores it in the storage unit ;
Character display means for displaying the character operating on the target point on the image display unit using the third synthesized motion data stored in the storage unit ;
A game device comprising:
ゲーム空間において動作するキャラクタを画像表示部に表示するゲームをコンピュータにより制御するゲーム制御方法であって、
前記キャラクタの基本動作に対応する複数の基本モーションデータを、記憶部から読み出し、複数の前記基本モーションデータそれぞれを、制御部に認識させる基本モーションデータ認識ステップと、
複数の前記基本モーションデータのうちの少なくとも2つのモーションデータそれぞれを、第1モーションデータとして、制御部に認識させ記憶部に格納する第1モーションデータ認識ステップと、
複数の前記第1モーションデータのうちの少なくとも1つの第1モーションデータを除いた複数の前記基本モーションデータのうちの、少なくとも2つのモーションデータそれぞれを、第2モーションデータとして、制御部に認識させ記憶部に格納する第2モーションデータ認識ステップと、
前記キャラクタの基本動作の対象となる対象点の基本位置を示す基本位置データを、記憶部から読み出し、前記基本位置データを制御部に認識させ記憶部に格納する基本対象点認識ステップと、
前記キャラクタの基本動作を含む前記キャラクタの動作の対象となる対象点の設定位置を示す設定位置データを、1フレームごとに制御部に認識させ記憶部に格納する設定対象点認識ステップと、
記憶部に格納された各フレームの前記設定位置データ、および前記第1モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の前記第1モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第1合成モーションデータとして、制御部に認識させ記憶部に格納する第1合成モーションデータ認識ステップと、
記憶部に格納された各フレームの前記設定位置データ、および前記第2モーションデータに対応する基本位置データに基づいて、記憶部に格納された複数の前記第2モーションデータを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第2合成モーションデータとして、制御部に認識させ記憶部に格納する第2合成モーションデータ認識ステップと、
記憶部に格納された各フレームの前記設定位置データと、前記第1モーションデータに対応する基本位置データおよび前記第2モーションデータに対応する基本位置データとに基づいて、記憶部に格納された前記第1合成モーションデータと、記憶部に格納された前記第2合成モーションデータとを合成する処理を、1フレームごとに制御部に実行させることにより、前記処理により合成されたモーションデータを、第3合成モーションデータとして、制御部に認識させ記憶部に格納する第3合成モーションデータ認識ステップと、
記憶部に格納された前記第3合成モーションデータを用いて、前記対象点を対象にして動作する前記キャラクタを画像表示部に表示するキャラクタ表示ステップと、
を備えるゲーム制御方法。
A game control method for controlling a game in which a character operating in a game space is displayed on an image display unit by a computer,
A plurality of basic motion data corresponding to the basic operation of the character, reading from the storage unit, and the basic motion data recognition step of a plurality of said respective basic motion data, is recognized by the control unit,
A first motion data recognition step of recognizing at least two pieces of motion data of the plurality of basic motion data as first motion data by the control unit and storing in the storage unit ;
Each of the plurality of basic motion data excluding at least one first motion data from among the plurality of first motion data is recognized and stored as second motion data by the control unit. A second motion data recognition step to be stored in the unit ;
A basic target point recognition step of reading basic position data indicating a basic position of a target point that is a target of the basic motion of the character from the storage unit, and causing the control unit to recognize the basic position data and store the basic position data in the storage unit ;
The set position data indicating the setting position of the target point to be the target of the operation of the character containing the basic operation of the character, and setting the target point recognition step of storing in the storage unit is recognized by the control unit for each frame,
The set position data of each frame stored in the storage unit, and based on the basic position data corresponding to the first motion data, the processing for combining a plurality of the first motion data stored in the storage unit, 1 A first synthesized motion data recognition step of causing the control unit to recognize the motion data synthesized by the processing as the first synthesized motion data and storing the motion data in the storage unit by causing the control unit to execute each frame ;
1. A process of synthesizing the plurality of second motion data stored in the storage unit based on the set position data of each frame stored in the storage unit and the basic position data corresponding to the second motion data. A second synthesized motion data recognition step of causing the control unit to recognize the motion data synthesized by the processing as second synthesized motion data and storing the motion data in the storage unit by causing the control unit to execute each frame ;
Based on the set position data of each frame stored in the storage unit, the basic position data corresponding to the first motion data, and the basic position data corresponding to the second motion data , the stored in the storage unit By causing the control unit to execute a process for synthesizing the first synthesized motion data and the second synthesized motion data stored in the storage unit for each frame , the motion data synthesized by the process is A third synthesized motion data recognition step that is recognized by the control unit and stored in the storage unit as synthesized motion data;
A character display step of displaying, on the image display unit, the character that operates with respect to the target point, using the third synthesized motion data stored in the storage unit ;
A game control method comprising:
JP2007128278A 2007-05-14 2007-05-14 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD Active JP4451897B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007128278A JP4451897B2 (en) 2007-05-14 2007-05-14 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007128278A JP4451897B2 (en) 2007-05-14 2007-05-14 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2008282340A JP2008282340A (en) 2008-11-20
JP4451897B2 true JP4451897B2 (en) 2010-04-14

Family

ID=40143081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007128278A Active JP4451897B2 (en) 2007-05-14 2007-05-14 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP4451897B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5932735B2 (en) * 2013-08-30 2016-06-08 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME SYSTEM, AND PROGRAM
KR101819517B1 (en) * 2016-08-17 2018-01-17 엘지전자 주식회사 Input device and method for controlling the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4097236B2 (en) * 1997-02-28 2008-06-11 株式会社バンダイナムコゲームス Image generating apparatus and information storage medium
JP4380042B2 (en) * 2000-09-04 2009-12-09 ソニー株式会社 Animation generation method and apparatus
JP4071011B2 (en) * 2001-02-22 2008-04-02 株式会社セガ Program for controlling execution of golf game and game apparatus for executing the program
JP4776831B2 (en) * 2001-09-11 2011-09-21 株式会社バンダイナムコゲームス Program, information storage medium, game device, and host device

Also Published As

Publication number Publication date
JP2008282340A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
JP3947549B2 (en) Video game program, video game apparatus, and video game control method
JP5174123B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
JP5103509B2 (en) GAME CONTROL DEVICE, GAME CONTROL PROGRAM, AND GAME CONTROL METHOD
JP4463289B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP3892889B1 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP5775323B2 (en) Program and image processing apparatus provided with computer for executing the program
JP4521020B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP5767682B2 (en) Game program and game system
JP3561517B1 (en) Image display control program, image display control method, and video game apparatus
JP5785414B2 (en) Program and image processing apparatus provided with program recording unit recording the program
JP4115488B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP4451897B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP4543054B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP3924584B1 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP6042495B2 (en) Program and image processing apparatus provided with computer for executing the program
JP2008237654A (en) Game program, game apparatus and game control method
JP2008237387A (en) Game program, game device and game control method
JP2007159817A (en) Game program, game device and game method
JP2007068824A (en) Game program, game apparatus and game method
JP5575553B2 (en) Program, recording medium storing the program, and image processing apparatus provided with program storage means storing the program
JP2009104483A (en) Image processing device, and control method and program for image processing device
JP3762919B2 (en) Video game program, video game apparatus, and video game method
JP5204917B2 (en) GAME CONTROL DEVICE, GAME CONTROL PROGRAM, AND GAME CONTROL METHOD
JP4589936B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2008245752A (en) Game program, game device, and game control method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100128

R150 Certificate of patent or registration of utility model

Ref document number: 4451897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250