JP2009131494A - Game program, game device, and game control method - Google Patents

Game program, game device, and game control method Download PDF

Info

Publication number
JP2009131494A
JP2009131494A JP2007310979A JP2007310979A JP2009131494A JP 2009131494 A JP2009131494 A JP 2009131494A JP 2007310979 A JP2007310979 A JP 2007310979A JP 2007310979 A JP2007310979 A JP 2007310979A JP 2009131494 A JP2009131494 A JP 2009131494A
Authority
JP
Japan
Prior art keywords
coordinate data
area
control unit
instruction
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007310979A
Other languages
Japanese (ja)
Other versions
JP4430707B2 (en
Inventor
Katsuyoshi Endo
勝義 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2007310979A priority Critical patent/JP4430707B2/en
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to CN2008801183267A priority patent/CN101878056A/en
Priority to PCT/JP2008/069133 priority patent/WO2009069409A1/en
Priority to EP08853498A priority patent/EP2229985A1/en
Priority to KR1020107014161A priority patent/KR101183450B1/en
Priority to TW097143380A priority patent/TWI398282B/en
Publication of JP2009131494A publication Critical patent/JP2009131494A/en
Application granted granted Critical
Publication of JP4430707B2 publication Critical patent/JP4430707B2/en
Priority to US12/780,641 priority patent/US8226483B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game program which facilitates setting of a plurality of objects and selection of one of the same, and to provide a game device and a game control method. <P>SOLUTION: According to the game program, internal coordinate data in a display region of each of the objects 71 displayed on an image display section 3 are recognized by a CPU 11, and an indicated region R whose range is expanded based on an indicated location SP indicated by an indicating means T as a base point, is set by the CPU 11. Then internal coordinate data in the indicated region R are recognized by the CPU 11. If the internal coordinate data in the display region of the object 71 conform to the internal coordinate data in the indicated region R, the object 71 whose coordinate data conform to the coordinate data in the indicated region R, is recognized as the selected object by the CPU 11. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ゲームプログラム、特に、複数のオブジェクトを画像表示部に表示するゲームを実現するためのゲームプログラムに関する。また、このゲームプログラムを実行可能なゲーム装置、およびこのゲームプログラムに基づいてコンピュータにより制御されるゲーム制御方法に関する。   The present invention relates to a game program, and more particularly to a game program for realizing a game for displaying a plurality of objects on an image display unit. The present invention also relates to a game apparatus that can execute the game program, and a game control method that is controlled by a computer based on the game program.

従来から様々なビデオゲームが提案されている。これらビデオゲームは、ゲーム装置において実行されるようになっている。たとえば、一般的なゲーム装置は、モニタと、モニタとは別体のゲーム機本体と、ゲーム機本体とは別体の入力部たとえばコントローラとを有している。コントローラには、複数の入力ボタンが配置されている。また、たとえば、携帯型のゲーム装置は、ゲーム機本体と、ゲーム機本体の略中央部に設けられた液晶モニタと、液晶モニタの両側に配置された入力部たとえば複数の入力ボタンとを有している。   Conventionally, various video games have been proposed. These video games are executed in a game device. For example, a general game device includes a monitor, a game machine main body separate from the monitor, and an input unit such as a controller separate from the game machine main body. The controller has a plurality of input buttons. In addition, for example, a portable game device includes a game machine body, a liquid crystal monitor provided at a substantially central portion of the game machine body, and input units arranged on both sides of the liquid crystal monitor, for example, a plurality of input buttons. ing.

このようなゲーム装置においては、入力部を操作したりタッチペンを液晶モニタに接触させたりすることによって、各種の命令を指示することができるようになっている。   In such a game apparatus, various commands can be instructed by operating the input unit or bringing a touch pen into contact with the liquid crystal monitor.

ここでは、たとえば、対戦ゲームやロールプレイングゲーム等が、携帯型のゲーム装置において実行される場合を考える(非特許文献1を参照)。この場合、たとえば、キャラクタに命令を指示するための命令用ボタンが、液晶モニタに表示される。このときに、この命令用ボタンの位置においてタッチペンを液晶モニタに接触させると、命令用ボタンが選択される。すると、命令用ボタンに割り当てられた命令が制御部に認識され、この命令に対応する処理が制御部により実行される。すると、この命令に対応する画像が、液晶モニタに表示される。
パワプロクンポケット9、株式会社コナミデジタルエンタテインメント、ニンテンドーDS版、2006年12月7日
Here, for example, consider a case where a battle game, a role playing game, or the like is executed in a portable game device (see Non-Patent Document 1). In this case, for example, a command button for instructing the character to command is displayed on the liquid crystal monitor. At this time, when the touch pen is brought into contact with the liquid crystal monitor at the position of the command button, the command button is selected. Then, the command assigned to the command button is recognized by the control unit, and processing corresponding to this command is executed by the control unit. Then, an image corresponding to this command is displayed on the liquid crystal monitor.
Power Prokun Pocket 9, Konami Digital Entertainment, Nintendo DS Edition, December 7, 2006

従来の携帯型のゲーム装置では、ゲーム装置の携帯性を確保するために、ゲーム装置本体の大きさに制限が設けられることが多い。すなわち、ゲーム装置の携帯性を重視すればするほど、液晶モニタの大きさが小さくなってしまう。このため、この液晶モニタに表示できる命令用ボタンの大きさも小さくなってしまい、プレイヤが所望の命令用ボタンを選択しにくいという問題点があった。   In conventional portable game devices, the size of the game device body is often limited in order to ensure the portability of the game device. That is, the more important the portability of the game apparatus, the smaller the size of the liquid crystal monitor. For this reason, the size of the command button that can be displayed on the liquid crystal monitor is also reduced, and it is difficult for the player to select a desired command button.

このような問題点を解決するために、命令用ボタンの認識領域を従来のものより大きな領域に設定することがある。たとえば、命令用ボタンの認識領域を命令用ボタンの表示領域より大きな領域に設定しておけば、手ぶれ等によりプレイヤが所望の命令用ボタンの表示領域から外れた位置で命令用ボタンを選択してしまっても、命令用ボタンを制御部に認識させることができる。   In order to solve such problems, the command button recognition area may be set larger than the conventional one. For example, if the recognition area of the command button is set larger than the display area of the command button, the player selects the command button at a position outside the display area of the desired command button due to camera shake or the like. Even then, the command button can be recognized by the control unit.

しかしながら、複数の命令用ボタンが液晶モニタに表示されるような場合は、状況によっては、隣接する命令用ボタンの認識領域が重なってしまうおそれがある。このため、ゲーム提供者は、命令用ボタンの認識領域が重ならないように、命令用ボタンのレイアウトを事前に設定しておく必要がある。この設定をゲーム提供者は画面ごとに行う必要があるので、ゲーム提供者は、命令用ボタンのレイアウトの設定に多大な労力を要するおそれがある。   However, when a plurality of command buttons are displayed on the liquid crystal monitor, the recognition areas of adjacent command buttons may overlap depending on the situation. Therefore, the game provider needs to set the command button layout in advance so that the command button recognition areas do not overlap. Since the game provider needs to perform this setting for each screen, the game provider may require a great deal of effort to set the layout of the command buttons.

そこで、本発明では、複数のボタンそれぞれを容易に設定し選択することができるようにすることを目的とする。一般的には、本発明では、複数のオブジェクトそれぞれを容易に設定し選択することができるようにすることを目的とする。   Therefore, an object of the present invention is to make it possible to easily set and select each of a plurality of buttons. In general, an object of the present invention is to make it possible to easily set and select each of a plurality of objects.

請求項1に係るゲームプログラムは、複数のオブジェクトを画像表示部に表示するゲームを実行可能なコンピュータに、以下の機能を実現させるためのプログラムである。
(1)画像表示部にオブジェクトを表示する表示位置を示す座標データを、制御部に認識させる表示位置認識機能。
(2)複数のオブジェクトそれぞれの表示位置を示す座標データに基づいて、複数のオブジェクトそれぞれを、画像データを用いて画像表示部に表示するオブジェクト表示機能。
(3)画像表示部に表示された複数のオブジェクトそれぞれの表示領域の内部の座標データを、制御部に認識させる表示領域認識機能。
(4)入力手段からの入力信号に基づいて、指示手段が示す指示位置を示す座標データを制御部に認識させる指示位置認識機能。
(5)指示位置を基点として範囲が拡大する指示領域を制御部に設定させる指示領域設定機能。
(6)指示領域の内部の座標データを、制御部に認識させる指示領域認識機能。
(7)オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したか否かを、制御部に判断させる領域一致判断機能。
(8)オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したと制御部により判断された場合に、座標データが一致したオブジェクトを、選択されたオブジェクトとして制御部に認識させるオブジェクト選択機能。
A game program according to claim 1 is a program for causing a computer capable of executing a game for displaying a plurality of objects on an image display unit to realize the following functions.
(1) A display position recognition function for causing the control unit to recognize coordinate data indicating a display position for displaying an object on the image display unit.
(2) An object display function for displaying each of the plurality of objects on the image display unit using the image data based on the coordinate data indicating the display position of each of the plurality of objects.
(3) A display area recognition function for causing the control section to recognize the coordinate data inside the display area of each of the plurality of objects displayed on the image display section.
(4) A designated position recognition function for causing the control unit to recognize coordinate data indicating a designated position indicated by the pointing means based on an input signal from the input means.
(5) An instruction area setting function for causing the control unit to set an instruction area whose range is expanded from the indicated position.
(6) An instruction area recognition function for causing the control unit to recognize the coordinate data inside the instruction area.
(7) A region matching determination function that causes the control unit to determine whether or not the coordinate data inside the display area of the object matches the coordinate data inside the instruction region.
(8) When the control unit determines that the coordinate data inside the display area of the object matches the coordinate data inside the instruction area, the control unit sets the object having the matched coordinate data as the selected object. The object selection function to be recognized.

このゲームプログラムでは、表示位置認識機能において、画像表示部にオブジェクトを表示する表示位置を示す座標データが、制御部に認識される。オブジェクト表示機能においては、複数のオブジェクトそれぞれの表示位置を示す座標データに基づいて、複数のオブジェクトそれぞれが、画像データを用いて画像表示部に表示される。表示領域認識機能においては、画像表示部に表示された複数のオブジェクトそれぞれの表示領域の内部の座標データが、制御部に認識される。指示位置認識機能においては、入力手段からの入力信号に基づいて、指示手段が示す指示位置を示す座標データが、制御部に認識される。指示領域設定機能においては、指示位置を基点として範囲が拡大する指示領域が、制御部により設定される。指示領域認識機能においては、指示領域の内部の座標データが、制御部に認識される。領域一致判断機能においては、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したか否かが、制御部により判断される。オブジェクト選択機能においては、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したと制御部により判断された場合に、座標データが一致したオブジェクトが、選択されたオブジェクトとして制御部に認識される。   In this game program, in the display position recognition function, the coordinate data indicating the display position for displaying the object on the image display unit is recognized by the control unit. In the object display function, each of the plurality of objects is displayed on the image display unit using the image data based on the coordinate data indicating the display position of each of the plurality of objects. In the display area recognition function, the coordinate data inside the display area of each of the plurality of objects displayed on the image display unit is recognized by the control unit. In the designated position recognition function, the coordinate data indicating the designated position indicated by the instruction unit is recognized by the control unit based on the input signal from the input unit. In the instruction area setting function, an instruction area whose range is expanded from the instruction position is set by the control unit. In the pointing area recognition function, the coordinate data inside the pointing area is recognized by the control unit. In the area coincidence determination function, the control unit determines whether or not the coordinate data inside the display area of the object matches the coordinate data inside the instruction area. In the object selection function, when the control unit determines that the coordinate data inside the display area of the object matches the coordinate data inside the instruction area, the object with the matching coordinate data is selected as the selected object. As recognized by the control unit.

たとえば、本ゲームプログラムを用いることにより野球ゲームが実行された場合、画像表示部にボタンオブジェクトを表示する表示位置を示す座標データが、制御部に認識される。そして、複数のボタンオブジェクトそれぞれの表示位置を示す座標データに基づいて、複数のボタンオブジェクトそれぞれが、画像データを用いて画像表示部に表示される。そして、画像表示部に表示された複数のボタンオブジェクトそれぞれの表示領域の内部の座標データが、制御部に認識される。そして、入力手段たとえば接触入力式のモニタからの入力信号に基づいて、タッチペンが示す指示位置を示す座標データが、制御部に認識される。そして、指示位置を基点として範囲が拡大する指示領域が、制御部により設定される。そして、指示領域の内部の座標データが、制御部に認識される。そして、ボタンオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したか否かが、制御部により判断される。そして、ボタンオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したと制御部により判断された場合に、座標データが一致したボタンオブジェクトが、選択されたボタンオブジェクトとして制御部に認識される。   For example, when a baseball game is executed by using this game program, coordinate data indicating a display position for displaying a button object on the image display unit is recognized by the control unit. Then, based on the coordinate data indicating the display position of each of the plurality of button objects, each of the plurality of button objects is displayed on the image display unit using the image data. Then, the coordinate data inside the display area of each of the plurality of button objects displayed on the image display unit is recognized by the control unit. Then, based on an input signal from an input means such as a contact input type monitor, the coordinate data indicating the indicated position indicated by the touch pen is recognized by the control unit. Then, an instruction area whose range is enlarged with the indicated position as a base point is set by the control unit. Then, the coordinate data inside the indication area is recognized by the control unit. Then, the control unit determines whether or not the coordinate data inside the display area of the button object matches the coordinate data inside the instruction area. Then, when the control unit determines that the coordinate data inside the button object display area and the coordinate data inside the instruction area match, the button object with the matching coordinate data is selected as the selected button object. Recognized by the control unit.

この場合、接触入力式のモニタにタッチペンを接触させることにより、タッチペンにより指示された指示位置を基点として範囲が拡大する指示領域が、制御部により設定される。そして、指示位置を基点として範囲が拡大する指示領域がボタンオブジェクトの表示領域に重なったか否かが、制御部により判断される。そして、指示位置を基点として範囲が拡大する指示領域がボタンオブジェクトの表示領域に重なった場合に、指示領域が重なったボタンオブジェクトが選択される。   In this case, when the touch pen is brought into contact with the contact input type monitor, an instruction area whose range is enlarged with the instruction position instructed by the touch pen as a base point is set by the control unit. Then, the control unit determines whether or not an instruction area whose range is enlarged from the instruction position overlaps the display area of the button object. Then, when the pointing area whose range is enlarged from the pointing position overlaps the display area of the button object, the button object with the pointing area overlapping is selected.

このため、請求項1に係る発明では、プレイヤは、モニタに表示されたボタンオブジェクトの内部又はボタンオブジェクトの近傍にタッチペンを位置させるだけで、指示領域によりボタンオブジェクトを容易に選択することができる。また、隣接するボタンオブジェクトが互いに近づいた位置に配置されたとしても、プレイヤは、ボタンオブジェクトの内部又はボタンオブジェクトの近傍にタッチペンを位置させるだけで、指示領域によりボタンオブジェクトを容易に選択することができる。さらに、隣接するボタンオブジェクトが互いに近づいた位置に配置されていたとしても、ゲーム提供者は、ゲーム制作時にボタンオブジェクトのレイアウトを特別に調整する必要がない。すなわち、ゲーム提供者は、ゲーム制作時の労力を低減することができる。   For this reason, in the invention according to claim 1, the player can easily select the button object by the instruction area only by positioning the touch pen inside the button object displayed on the monitor or in the vicinity of the button object. Further, even if adjacent button objects are arranged at positions close to each other, the player can easily select the button object by the instruction area only by positioning the touch pen inside the button object or in the vicinity of the button object. it can. Furthermore, even if adjacent button objects are arranged at positions close to each other, the game provider does not need to specially adjust the layout of the button objects when creating the game. That is, the game provider can reduce the labor at the time of game production.

請求項2に係るゲームプログラムは、請求項1に記載のゲームプログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。
(9)指示手段の指示位置が制御部に認識された時点から1フレーム時間が経過したときに、選択されたオブジェクトに割り当てられた命令を制御部に実行させる命令実行機能。
A game program according to claim 2 is a program for causing a computer to further realize the following functions in the game program according to claim 1.
(9) A command execution function for causing the control unit to execute a command assigned to the selected object when one frame time has elapsed from the time when the pointing position of the pointing unit is recognized by the control unit.

このゲームプログラムでは、命令実行機能において、指示手段の指示位置が制御部に認識された時点から1フレーム時間が経過したときに、選択されたオブジェクトに割り当てられた命令が制御部により実行される。   In this game program, in the command execution function, the command assigned to the selected object is executed by the control unit when one frame time elapses from the time when the control unit recognizes the indicated position of the pointing means.

たとえば、本ゲームプログラムを用いることにより野球ゲームが実行された場合、タッチペンの指示位置が制御部に認識された時点から1フレーム時間が経過したときに、選択されたボタンオブジェクトに割り当てられた命令が、制御部により実行される。   For example, when a baseball game is executed by using this game program, an instruction assigned to the selected button object is issued when one frame time has elapsed since the point indicated by the touch pen was recognized by the control unit. And executed by the control unit.

この場合、タッチペンの指示位置が制御部に認識された時点から1フレーム時間が経過するまでに、指示領域が重なったボタンオブジェクトが選択される。そして、タッチペンの指示位置が制御部に認識された時点から1フレーム時間が経過したときに、選択されたボタンオブジェクトに割り当てられた命令が、制御部により実行される。すなわち、指示領域が重なったボタンオブジェクトが、1フレーム時間内で選択され、指示領域が重なったボタンオブジェクトに割り当てられた命令が、1フレーム時間経過時に実行される。   In this case, the button object with which the instruction area overlaps is selected until one frame time elapses from the time when the instruction position of the touch pen is recognized by the control unit. Then, when one frame time elapses from the time when the pointing position of the touch pen is recognized by the control unit, the command assigned to the selected button object is executed by the control unit. That is, a button object with an overlapped instruction area is selected within one frame time, and a command assigned to the button object with the overlapped instruction area is executed when one frame time has elapsed.

このため、ボタンオブジェクトを表示する処理が1フレームごとに行われることを考慮すると、ボタンオブジェクトのレイアウトが変更されるようなことがあっても、ボタンオブジェクトのレイアウトの変更が行われる前に、ボタンオブジェクトを選択する処理を終了することができる。このため、ボタンオブジェクトの位置が変化したとしても、特別な処理を行うことなく、ボタンオブジェクトを容易に選択することができる。   For this reason, considering that the process of displaying the button object is performed for each frame, the button object layout is changed before the button object layout is changed even if the button object layout is changed. The process of selecting an object can be terminated. For this reason, even if the position of the button object changes, it is possible to easily select the button object without performing special processing.

なお、ここでは(上記および下記の請求項を含む)、オブジェクトがボタンオブジェクトである場合の例を示しているが、オブジェクトはボタンオブジェクトに限定されず、どのようなものでも良い。たとえば、オブジェクトがキャラクタ用のオブジェクトである場合、静止時のキャラクタおよび動作時のキャラクタに対して、本発明(上記および下記の請求項に係る発明を含む)を適用することができる。   Here, an example in which the object is a button object is shown (including the above and the following claims), but the object is not limited to a button object, and any object may be used. For example, when the object is a character object, the present invention (including the invention according to the above and the following claims) can be applied to a stationary character and a moving character.

請求項3に係るゲームプログラムでは、請求項1又は2に記載のゲームプログラムにおいて、指示手段の指示位置が制御部に認識された時点からの時間に応じて指示領域の拡大率が小さくなるように、指示領域が制御部に設定される。この機能は、指示領域設定機能において実現される。   In the game program according to claim 3, in the game program according to claim 1 or 2, the enlargement ratio of the instruction area is reduced according to the time from the point in time when the instruction position of the instruction means is recognized by the control unit. The instruction area is set in the control unit. This function is realized in the instruction area setting function.

たとえば、本ゲームプログラムを用いることにより野球ゲームが実行された場合、指示手段たとえばタッチペンの指示位置が制御部に認識された時点からの時間に応じて指示領域の拡大率が小さくなるように、指示領域が制御部により設定される。   For example, when a baseball game is executed by using this game program, an instruction is given so that the enlargement ratio of the instruction area is reduced according to the time from the time when the instruction unit, for example, the instruction position of the touch pen is recognized by the control unit. The area is set by the control unit.

この場合、たとえば、タッチペンの指示位置が制御部に認識された時点からの時間が経過すればするほど、指示領域が拡大する程度が小さくなる。たとえば、指示領域の形状が円形である場合、タッチペンの指示位置が制御部に認識された時点からの時間に応じて、タッチペンの指示位置を中心として指示領域が放射状に拡大する。たとえば、指示領域が拡大するときのスピードは、経過時間に対する半径又は直径の比率に基づいて決定される。ここでは、時間の経過に応じてこの比率が小さくなるように、指示領域が制御部により設定される。すなわち、円の半径又は円の直径が大きくなるほど、ボタンと円との重なりを精度良く判別することができる。これにより、プレイヤが所望するボタンオブジェクトを、確実に選択することができる。   In this case, for example, as the time from the point when the pointing position of the touch pen is recognized by the control unit elapses, the extent to which the pointing area is enlarged becomes smaller. For example, when the shape of the pointing area is circular, the pointing area expands radially around the pointing position of the touch pen according to the time from when the pointing position of the touch pen is recognized by the control unit. For example, the speed at which the indication area expands is determined based on the ratio of radius or diameter to elapsed time. Here, the instruction area is set by the control unit so that the ratio decreases as time elapses. That is, as the radius of the circle or the diameter of the circle increases, the overlap between the button and the circle can be determined with higher accuracy. Thereby, the button object which a player desires can be selected reliably.

請求項4に係るゲームプログラムでは、請求項1から3のいずれかに記載のゲームプログラムにおいて、1つのオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したと制御部により判断された場合に、座標データが一致したオブジェクトが、選択されたオブジェクトとして制御部に認識される。また、複数のオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが同時に一致したと制御部により判断された場合に、オブジェクトを選択する処理を中止する命令が制御部から発行される。これらの機能は、オブジェクト選択機能において実現される。   In the game program according to claim 4, in the game program according to any one of claims 1 to 3, it is controlled that the coordinate data inside the display area of one object matches the coordinate data inside the instruction area. When determined by the unit, the control unit recognizes the object having the matching coordinate data as the selected object. In addition, when the control unit determines that the coordinate data inside the display area of the plurality of objects coincides with the coordinate data inside the instruction area at the same time, an instruction to stop the object selection process is issued from the control unit. publish. These functions are realized in the object selection function.

たとえば、本ゲームプログラムを用いることにより野球ゲームが実行された場合、1つのボタンオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したと制御部により判断された場合に、座標データが一致したボタンオブジェクトが、選択されたボタンオブジェクトとして制御部に認識される。また、複数のボタンオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが同時に一致したと制御部により判断された場合に、ボタンオブジェクトを選択する処理を中止する命令が制御部から発行される。   For example, when a baseball game is executed by using this game program, the control unit determines that the coordinate data inside the display area of one button object matches the coordinate data inside the instruction area In addition, the button object with the matching coordinate data is recognized by the control unit as the selected button object. In addition, when the control unit determines that the coordinate data inside the display area of a plurality of button objects coincides with the coordinate data inside the instruction area at the same time, an instruction to stop the process of selecting the button object is controlled. Issued by the department.

この場合、複数のボタンオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが同時に一致したと制御部により判断された場合に、ボタンオブジェクトを選択する処理を中止する命令が制御部から発行される。たとえば、指示領域が指示位置を基点として拡大していくうちに、指示領域が2つのボタンオブジェクトに重なった場合、ボタンオブジェクトを選択する処理が中止される。すなわち、ここでは、2つ以上のボタンオブジェクトが同時に選択されることがなく、1つのボタンオブジェクトだけが確実に選択されることになる。これにより、指示領域が2つ以上のボタンオブジェクトに同時に重なった場合の誤認識を、防止することができる。   In this case, when the control unit determines that the coordinate data inside the display area of the plurality of button objects and the coordinate data inside the instruction area match at the same time, an instruction to stop the process of selecting the button object is issued. Issued by the control unit. For example, when the pointing area overlaps two button objects while the pointing area expands with the pointing position as a base point, the process of selecting the button object is stopped. That is, here, two or more button objects are not selected at the same time, and only one button object is surely selected. As a result, it is possible to prevent erroneous recognition when the pointing area simultaneously overlaps two or more button objects.

請求項5に係るゲームプログラムは、請求項1から4のいずれかに記載のゲームプログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。
(10)指示位置を基点として拡大する指示領域の最大範囲を規定するためのデータを、制御部に認識させる最大領域認識機能。
A game program according to claim 5 is a program for causing a computer to further realize the following functions in the game program according to any one of claims 1 to 4.
(10) A maximum area recognizing function that causes the control unit to recognize data for defining the maximum range of the designated area to be enlarged with the designated position as a base point.

このゲームプログラムでは、最大領域認識機能において、指示位置を基点として拡大する指示領域の最大範囲を規定するためのデータが、制御部に認識される。この場合、指示領域の拡大を許容する範囲を規定するためのデータが、制御部に認識される。   In this game program, in the maximum area recognition function, the control unit recognizes data for defining the maximum range of the designated area to be enlarged with the designated position as a base point. In this case, the control unit recognizes data for defining a range in which the instruction area is allowed to expand.

たとえば、指示領域の形状が円形である場合、タッチペンの指示位置を中心として指示領域が放射状に拡大する。このときに、指示領域の半径又は直径が所定の値(指示領域の最大範囲を規定するためのデータが示す値)になったか否かが、制御部により判断される。そして、指示領域の半径又は直径が所定の値になった場合に、指示領域の拡大を停止する命令が、制御部から発行される。すると、指示領域の拡大する処理が、制御部により中止される。   For example, when the shape of the pointing area is a circle, the pointing area is radially enlarged around the pointing position of the touch pen. At this time, the control unit determines whether or not the radius or diameter of the indication area has reached a predetermined value (a value indicated by data for defining the maximum range of the indication area). Then, when the radius or diameter of the indication area reaches a predetermined value, a command for stopping the enlargement of the indication area is issued from the control unit. Then, the process of enlarging the designated area is stopped by the control unit.

これにより、指示領域の大きさには制限が設けられることになる。このため、プレイヤがタッチペンを誤ってモニタに接触させてしまったとき、このタッチペンの接触位置がボタンオブジェクトから非常に離れた位置であれば、ボタンオブジェクトが指示領域より選択されなくなる。すなわち、プレイヤが意図しない操作をしてしまったときに、ボタンオブジェクトが指示領域によって誤って選択されないように規制することができる。   Thereby, the size of the instruction area is limited. For this reason, when the player accidentally touches the touch pen with the monitor, if the contact position of the touch pen is very far from the button object, the button object is not selected from the instruction area. That is, when the player performs an unintended operation, the button object can be restricted from being erroneously selected by the instruction area.

なお、指示領域の最大範囲を設定する場合の一例として、次のような形態が考えられる。たとえば、オブジェクトの代表的な長さ(代表長さ)に基づいて、指示領域の直径又は半径がとり得る最大値を規定する。そして、この最大値に基づいて、指示領域の最大範囲を設定する。   As an example of setting the maximum range of the instruction area, the following form is conceivable. For example, based on the representative length (representative length) of the object, the maximum value that the diameter or radius of the pointing area can take is defined. And based on this maximum value, the maximum range of an instruction | indication area | region is set.

様々な検討を行った結果、以下のように、オブジェクトの代表長さおよび指示領域の最大範囲を設定することが望ましいと判明した。   As a result of various studies, it has been found that it is desirable to set the representative length of the object and the maximum range of the pointing area as follows.

たとえば、オブジェクトが長方形でありオブジェクトの長辺の長さがL1である場合、オブジェクトの長辺の長さL1を、オブジェクトの代表長さとして制御部に認識させる。そして、このオブジェクトの代表長さL1に所定の値(ex. 1/2)を乗じる計算を、制御部に実行させる。そして、この計算結果(ex. L1/2)を、指示領域の直径がとり得る最大値として、制御部に認識させる。これにより、指示領域の直径がとり得る最大値が設定され、指示領域の最大範囲が規定されるので、指示領域がオブジェクトから非常に離れた位置に形成されたような場合に、オブジェクトが誤って選択されないようにすることができる。また、指示領域がオブジェクトの近傍に形成されたときには、指示領域が最大範囲に拡大するまでに、オブジェクトを選択することができる。このように、指示領域の最大範囲を規定することにより、指示領域がどこで形成されても、オブジェクトの選択操作を違和感なく実行することができる。   For example, when the object is a rectangle and the length of the long side of the object is L1, the control unit recognizes the length L1 of the long side of the object as the representative length of the object. Then, the control unit is caused to execute a calculation of multiplying the representative length L1 of the object by a predetermined value (ex. 1/2). Then, the control unit recognizes this calculation result (ex. L1 / 2) as the maximum value that the diameter of the indication area can take. As a result, the maximum value that the diameter of the pointing area can take is set and the maximum range of the pointing area is defined, so that when the pointing area is formed at a position very far from the object, the object is erroneously It can be prevented from being selected. When the indication area is formed in the vicinity of the object, the object can be selected until the indication area is expanded to the maximum range. In this way, by defining the maximum range of the instruction area, the object selection operation can be performed without a sense of incongruity wherever the instruction area is formed.

なお、ここでは、ボタンオブジェクトが長方形の場合の例を示したが、たとえば、オブジェクトが円形である場合も、上記と同様に指示領域の最大範囲を設定することができる。たとえば、オブジェクトの直径(代表長さ)L2をオブジェクトの代表長さとし、この代表長さL2に所定の値(ex. 1/2)を乗じる。そして、この計算結果(ex. L2/2)を、指示領域の直径がとり得る最大値に設定する。これにより、指示領域の最大範囲を規定することができる。また、たとえば、外周に凹凸を有するようなオブジェクトの場合は、その外周に外接するような円を想定する。そして、この円の直径を代表長さに設定すれば、上記と同様に指示領域の最大範囲を規定することができる。   Here, an example in which the button object is rectangular has been described, but for example, even when the object is circular, the maximum range of the instruction area can be set in the same manner as described above. For example, the diameter (representative length) L2 of the object is set as the representative length of the object, and this representative length L2 is multiplied by a predetermined value (ex. 1/2). Then, the calculation result (ex. L2 / 2) is set to the maximum value that the diameter of the indication area can take. Thereby, the maximum range of an instruction | indication area | region can be prescribed | regulated. For example, in the case of an object having irregularities on the outer periphery, a circle circumscribing the outer periphery is assumed. If the diameter of this circle is set to the representative length, the maximum range of the indication area can be defined as described above.

請求項6に係るゲーム装置は、複数のオブジェクトを画像表示部に表示するゲームを実行可能なゲーム装置である。このゲーム装置は、画像表示部にオブジェクトを表示する表示位置を示す座標データを、制御部に認識させる表示位置認識手段と、複数のオブジェクトそれぞれの表示位置を示す座標データに基づいて、複数のオブジェクトそれぞれを、画像データを用いて画像表示部に表示するオブジェクト表示手段と、画像表示部に表示された複数のオブジェクトそれぞれの表示領域の内部の座標データを、制御部に認識させる表示領域認識手段と、入力手段からの入力信号に基づいて、指示手段が示す指示位置を示す座標データを制御部に認識させる指示位置認識手段と、指示位置を基点として範囲が拡大する指示領域を制御部に設定させる指示領域設定手段と、指示領域の内部の座標データを、制御部に認識させる指示領域認識手段と、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したか否かを、制御部に判断させる領域一致判断手段と、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したと制御部により判断された場合に、座標データが一致したオブジェクトを、選択されたオブジェクトとして制御部に認識させるオブジェクト選択手段と、を備えている。   A game device according to a sixth aspect is a game device capable of executing a game in which a plurality of objects are displayed on an image display unit. The game apparatus has a plurality of objects based on display position recognition means for causing the control unit to recognize coordinate data indicating a display position for displaying the object on the image display unit, and coordinate data indicating the display position of each of the plurality of objects. Object display means for displaying each on the image display section using image data, and display area recognition means for causing the control section to recognize the coordinate data inside the display areas of each of the plurality of objects displayed on the image display section Based on the input signal from the input unit, the control unit sets the pointing position recognition unit for causing the control unit to recognize the coordinate data indicating the pointing position indicated by the pointing unit, and the control unit to set the pointing area whose range is expanded based on the pointing position. An indication area setting means, an indication area recognition means for causing the control unit to recognize the coordinate data inside the indication area, and an object Area matching determination means for causing the control unit to determine whether or not the coordinate data inside the display area and the coordinate data inside the instruction area match, coordinate data inside the object display area, And an object selection unit that causes the control unit to recognize an object having the matched coordinate data as a selected object when the control unit determines that the internal coordinate data matches.

請求項7に係るゲーム制御方法は、複数のオブジェクトを画像表示部に表示するゲームをコンピュータにより制御可能なゲーム制御方法である。このゲーム制御方法は、画像表示部にオブジェクトを表示する表示位置を示す座標データを、制御部に認識させる表示位置認識ステップと、複数のオブジェクトそれぞれの表示位置を示す座標データに基づいて、複数のオブジェクトそれぞれを、画像データを用いて画像表示部に表示するオブジェクト表示ステップと、画像表示部に表示された複数のオブジェクトそれぞれの表示領域の内部の座標データを、制御部に認識させる表示領域認識ステップと、入力手段からの入力信号に基づいて、指示手段が示す指示位置を示す座標データを制御部に認識させる指示位置認識ステップと、指示位置を基点として範囲が拡大する指示領域を制御部に設定させる指示領域設定ステップと、指示領域の内部の座標データを、制御部に認識させる指示領域認識ステップと、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したか否かを、制御部に判断させる領域一致判断ステップと、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したと制御部により判断された場合に、座標データが一致したオブジェクトを、選択されたオブジェクトとして制御部に認識させるオブジェクト選択ステップと、を備えている。   A game control method according to a seventh aspect is a game control method in which a game for displaying a plurality of objects on an image display unit can be controlled by a computer. In this game control method, a plurality of coordinate data indicating a display position for displaying an object on the image display unit is displayed based on a display position recognition step for causing the control unit to recognize the display position, and coordinate data indicating each display position of the plurality of objects. An object display step for displaying each object on the image display unit using image data, and a display area recognition step for causing the control unit to recognize the coordinate data inside the display area of each of the plurality of objects displayed on the image display unit And an instruction position recognition step for causing the control unit to recognize coordinate data indicating the indicated position indicated by the instruction means based on an input signal from the input means, and an instruction area whose range is expanded from the indicated position as a base point. Instruction area setting step to be performed and an instruction area for causing the control unit to recognize the coordinate data inside the instruction area Recognition step, an area matching determination step for causing the control unit to determine whether or not the coordinate data inside the object display area and the coordinate data inside the instruction area match, and the coordinates inside the object display area An object selection step for causing the control unit to recognize the object having the matched coordinate data as the selected object when the control unit determines that the data and the coordinate data inside the instruction area match. Yes.

本発明では、プレイヤが、モニタに表示されたオブジェクトの内部又はボタンオブジェクトの近傍でオブジェクトの選択指示を行うことにより、ボタンオブジェクトを容易に選択することができる。また、隣接するボタンオブジェクトが互いに近づいた位置に配置されたとしても、プレイヤは、ボタンオブジェクトの内部又はボタンオブジェクトの近傍でオブジェクトの選択指示を行うことにより、ボタンオブジェクトを容易に選択することができる。さらに、隣接するボタンオブジェクトが互いに近づいた位置に配置されていたとしても、ゲーム提供者は、ゲーム制作時にボタンオブジェクトのレイアウトを特別に調整する必要がない。すなわち、ゲーム提供者は、ゲーム制作時の労力を低減することができる。   In the present invention, the player can easily select a button object by giving an object selection instruction within the object displayed on the monitor or in the vicinity of the button object. Even if adjacent button objects are arranged at positions close to each other, the player can easily select the button object by instructing the selection of the object inside the button object or in the vicinity of the button object. . Furthermore, even if adjacent button objects are arranged at positions close to each other, the game provider does not need to specially adjust the layout of the button objects when creating the game. That is, the game provider can reduce the labor at the time of game production.

〔ゲーム装置の構成〕
図1は、本発明に係るゲームプログラムを適用しうるコンピュータの一例としての携帯ゲーム機1の外観図である。また、図2は、携帯ゲーム機1の一例としての制御ブロック図である。
[Configuration of game device]
FIG. 1 is an external view of a portable game machine 1 as an example of a computer to which a game program according to the present invention can be applied. FIG. 2 is a control block diagram as an example of the portable game machine 1.

携帯ゲーム機1は、図1に示すように、主に、本体2と、液晶モニタ部3と、入力部4と、カートリッジ装着部5と、通信部23とを有している。   As shown in FIG. 1, the portable game machine 1 mainly includes a main body 2, a liquid crystal monitor unit 3, an input unit 4, a cartridge mounting unit 5, and a communication unit 23.

本体2は、上部筐体2aと下部筐体2bとを有している。上部筐体2aと下部筐体2bとは、互いに開閉自在に連結されている。液晶モニタ部3は、上部筐体2aに設けられた第1液晶モニタすなわち上部液晶モニタ3aと、下部筐体2bに設けられた第2液晶モニタすなわち下部液晶モニタ3bとからなっている。ここでは、たとえば、上部液晶モニタ3aが非接触入力式のモニタすなわち非タッチパネル式のモニタになっており、下部液晶モニタ3bが接触入力式のモニタすなわちタッチパネル式のモニタになっている。非タッチパネル式のモニタは液晶パネルからなっており、タッチパネル式のモニタは液晶パネルとタッチパネルとからなっている。タッチパネル式のモニタでは、液晶パネルの表示面とタッチパネルのデータ入力面とは、積層一体型に構成されている。   The main body 2 has an upper housing 2a and a lower housing 2b. The upper housing 2a and the lower housing 2b are connected to each other so as to be openable and closable. The liquid crystal monitor unit 3 includes a first liquid crystal monitor provided in the upper casing 2a, that is, an upper liquid crystal monitor 3a, and a second liquid crystal monitor provided in the lower casing 2b, that is, a lower liquid crystal monitor 3b. Here, for example, the upper liquid crystal monitor 3a is a non-contact input type monitor, that is, a non-touch panel type monitor, and the lower liquid crystal monitor 3b is a contact input type monitor, that is, a touch panel type monitor. The non-touch panel type monitor includes a liquid crystal panel, and the touch panel type monitor includes a liquid crystal panel and a touch panel. In the touch panel type monitor, the display surface of the liquid crystal panel and the data input surface of the touch panel are configured in a stacked and integrated type.

なお、液晶モニタ部3の下部液晶モニタ3b(タッチパネル式のモニタ)は、接触入力式のモニタになっている。このため、この下部液晶モニタ3bに指示手段たとえばタッチペンや指等を接触させることにより、各種の入力に関する指示をすることができる。このように、液晶モニタ部3の下部液晶モニタ3bは、後述する入力部4と同様に、入力手段の1つになっている。すなわち、本実施形態では、液晶モニタ部3の下部液晶モニタ3bおよび入力部4が、入力手段となっている。   The lower liquid crystal monitor 3b (touch panel type monitor) of the liquid crystal monitor unit 3 is a contact input type monitor. For this reason, it is possible to give instructions regarding various inputs by bringing an instruction means such as a touch pen or a finger into contact with the lower liquid crystal monitor 3b. As described above, the lower liquid crystal monitor 3b of the liquid crystal monitor unit 3 is one of the input means similarly to the input unit 4 described later. That is, in this embodiment, the lower liquid crystal monitor 3b and the input unit 4 of the liquid crystal monitor unit 3 are input means.

入力部4は、下部筐体2bの左側中央部に配置された十字状の方向指示釦4aと、下部筐体2bの左側上部に左右に配置されたセレクト釦4bおよびスタート釦4cと、下部筐体2bの右側中央部に配置された指示釦4dと、下部筐体2bの右側上部に配置された電源釦4eと、下部筐体2bの左右の隅角部に配置されたL釦4fおよびR釦4gとからなっている。   The input unit 4 includes a cross-shaped direction indicating button 4a disposed at the left center portion of the lower housing 2b, a select button 4b and a start button 4c disposed on the left and right above the lower housing 2b, and a lower housing. An instruction button 4d disposed at the right center portion of the body 2b, a power button 4e disposed at the upper right portion of the lower housing 2b, and L buttons 4f and R disposed at the left and right corners of the lower housing 2b It consists of a button 4g.

カートリッジ装着部5は下部筐体2bの下部に設けられている。このカートリッジ装着部5には、たとえばゲーム用カートリッジが装着可能になっている。通信部23は、本体2たとえば上部筐体2aに内蔵されている。この通信部23においては、たとえば、ローカルワイヤレスネットーワーク機能や、ワイヤレスLANによるインターネット接続機能等が提供される。   The cartridge mounting portion 5 is provided at the lower portion of the lower housing 2b. For example, a game cartridge can be mounted on the cartridge mounting portion 5. The communication unit 23 is built in the main body 2, for example, the upper housing 2a. In the communication unit 23, for example, a local wireless network function, an Internet connection function using a wireless LAN, and the like are provided.

なお、携帯ゲーム機1には、音量調整用釦やイヤホンジャック等も設けられている。しかしながら、ここでは、これらの説明については省略する。   Note that the portable game machine 1 is also provided with a volume adjustment button, an earphone jack, and the like. However, these descriptions are omitted here.

携帯ゲーム機1は、図2に示すように、制御装置10を内部に有している。制御装置10は、マイクロプロセッサを利用したCPU(Central Processing Unit)11と、主記憶装置としてのROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理回路14と、サウンド処理回路15とを有している。これらは、バス16を介してそれぞれが接続されている。   As shown in FIG. 2, the portable game machine 1 has a control device 10 therein. The control device 10 includes a CPU (Central Processing Unit) 11 using a microprocessor, a ROM (Read Only Memory) 12 as a main storage device, a RAM (Random Access Memory) 13, an image processing circuit 14, and a sound processing. Circuit 15. These are connected to each other via a bus 16.

CPU11は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。ROM12は、ゲーム機1の基本的な制御(たとえば起動制御)に必要なプログラム等を格納する。RAM13は、CPU11に対する作業領域を確保する。画像処理回路14は、CPU11からの描画指示に応じて液晶モニタ部3を制御して、上部液晶モニタ3aおよび下部液晶モニタ3bの少なくともいずれか一方に所定の画像を表示する。   The CPU 11 interprets instructions from the game program and performs various data processing and control. The ROM 12 stores programs and the like necessary for basic control (for example, startup control) of the game machine 1. The RAM 13 secures a work area for the CPU 11. The image processing circuit 14 controls the liquid crystal monitor unit 3 in accordance with a drawing instruction from the CPU 11, and displays a predetermined image on at least one of the upper liquid crystal monitor 3a and the lower liquid crystal monitor 3b.

また、画像処理回路14にはタッチ入力検出回路14aが含まれている。タッチパネルに指示手段たとえばタッチペンや指等を直接的に接触させたときに、接触位置の座標データがタッチ入力検出回路14aからCPU11へと供給され、接触位置がCPU11に認識される。また、液晶パネルに表示された対象物の位置において、タッチパネルに指示手段を直接的に接触させると、対象物の座標データがタッチ入力検出回路14aからCPU11へと供給され、対象物がCPU11に認識される。   The image processing circuit 14 includes a touch input detection circuit 14a. When an instruction means such as a touch pen or a finger is brought into direct contact with the touch panel, the coordinate data of the contact position is supplied from the touch input detection circuit 14a to the CPU 11, and the contact position is recognized by the CPU 11. Further, when the pointing means is brought into direct contact with the touch panel at the position of the object displayed on the liquid crystal panel, the coordinate data of the object is supplied from the touch input detection circuit 14a to the CPU 11, and the object is recognized by the CPU 11. Is done.

サウンド処理回路15は、CPU11からの発音指示に応じたアナログ音声信号を生成してスピーカ22に出力する。通信制御回路20および通信インターフェイス21は、通信部23に含まれており、ゲーム機1を他のゲーム機等にワイヤレスで接続するために用いられる。通信制御回路20および通信インターフェイス21は、バス16を介してCPU11に接続されている。通信制御回路20および通信インターフェイス21は、CPU11からの命令に応じて、ゲーム機1をローカルワイヤレスネットーワーク又はワイヤレスLANによるインターネットに接続するための接続信号を制御し発信する。   The sound processing circuit 15 generates an analog audio signal corresponding to a sound generation instruction from the CPU 11 and outputs the analog audio signal to the speaker 22. The communication control circuit 20 and the communication interface 21 are included in the communication unit 23 and are used to connect the game machine 1 to another game machine or the like wirelessly. The communication control circuit 20 and the communication interface 21 are connected to the CPU 11 via the bus 16. The communication control circuit 20 and the communication interface 21 control and transmit a connection signal for connecting the game machine 1 to the Internet through a local wireless network or a wireless LAN in accordance with a command from the CPU 11.

バス16には、制御装置10とは別体の外部記憶装置17が接続される。たとえば、外部記憶装置17には本体2たとえば下部筐体2bに着脱自在に装着されるゲーム用カートリッジ等がある。外部記憶装置17の内部には、記憶媒体としてのROM18と、書き換え可能なユーザ用メモリとしてのメモリ19が設けられる。ROM18には、コンピュータとしてのゲーム機1を機能させるためのゲームプログラムと、ゲームプログラムの実行に必要な各種データとが予め記録されている。この各種データには、各種の画像データ等が含まれている。メモリ19には、たとえばフラッシュメモリのような書き換え可能なメモリが使用される。このメモリ19には、たとえば、ゲームのセーブデータ等が必要に応じて記録される。   An external storage device 17 that is separate from the control device 10 is connected to the bus 16. For example, the external storage device 17 includes a game cartridge or the like that is detachably attached to the main body 2 such as the lower housing 2b. Inside the external storage device 17, a ROM 18 as a storage medium and a memory 19 as a rewritable user memory are provided. In the ROM 18, a game program for causing the game machine 1 as a computer to function and various data necessary for executing the game program are recorded in advance. The various data includes various image data. For the memory 19, a rewritable memory such as a flash memory is used. For example, game save data is recorded in the memory 19 as necessary.

なお、外部記憶装置17の記憶媒体には、半導体記憶素子に限らず、磁気記憶媒体、光学式記憶媒体、光磁気記憶媒体等の各種の記憶媒体を使用してもよい。なお、バス16と各要素との間には必要に応じてインターフェイス回路が介在しているが、ここではそれらの図示は省略した。   The storage medium of the external storage device 17 is not limited to a semiconductor storage element, and various storage media such as a magnetic storage medium, an optical storage medium, and a magneto-optical storage medium may be used. Note that an interface circuit is interposed between the bus 16 and each element as necessary, but the illustration thereof is omitted here.

以上のような構成のゲーム機1では、外部記憶装置17のROM18に記録されたゲームプログラムがロードされ、ロードされたゲームプログラムがCPU11で実行されることにより、プレイヤは様々なジャンルのゲームを液晶モニタ部3上で遊戯することができる。また、通信制御回路20を介して、ワイヤレスネットワークにゲーム機1を接続したり、他のゲーム機と通信ケーブル等を介して接続したりすることで、他のゲーム機との間でデータのやり取りや対戦型のゲームを行うことができる。   In the game machine 1 configured as described above, the game program recorded in the ROM 18 of the external storage device 17 is loaded, and the loaded game program is executed by the CPU 11 so that the player can display games of various genres. You can play on the monitor unit 3. In addition, by connecting the game machine 1 to the wireless network via the communication control circuit 20 or connecting to another game machine via a communication cable or the like, data can be exchanged with other game machines. And can play a battle game.

〔ゲーム装置における各種手段の説明〕
ゲーム機1において実行されるゲームには、たとえば野球ゲームがある。ゲーム機1では、複数のオブジェクトが、液晶モニタ部3の下部液晶モニタ3bに表示できるようになっている。図3は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。
[Description of Various Means in Game Device]
Examples of the game executed on the game machine 1 include a baseball game. In the game machine 1, a plurality of objects can be displayed on the lower liquid crystal monitor 3 b of the liquid crystal monitor unit 3. FIG. 3 is a functional block diagram for explaining functions that play a major role in the present invention.

表示位置認識手段50は、下部液晶モニタ3bにオブジェクトを表示する表示位置を示す座標データを、CPU11に認識させる機能を備えている。   The display position recognition means 50 has a function of causing the CPU 11 to recognize coordinate data indicating a display position for displaying an object on the lower liquid crystal monitor 3b.

この手段では、下部液晶モニタ3bにオブジェクトを表示する表示位置を示す座標データが、CPU11に認識される。たとえば、各オブジェクトの表示位置を示す座標データは、野球ゲームプログラムがROM12からロードされたときに、RAM13に格納されている。そして、オブジェクトの表示命令がCPU11から発行されたときに、まず、RAM13に格納された上記の座標データが、CPU11に認識される。   In this means, the coordinate data indicating the display position for displaying the object on the lower liquid crystal monitor 3b is recognized by the CPU 11. For example, the coordinate data indicating the display position of each object is stored in the RAM 13 when the baseball game program is loaded from the ROM 12. When an object display command is issued from the CPU 11, first, the CPU 11 recognizes the coordinate data stored in the RAM 13.

最大領域認識手段51は、指示位置を基点として拡大する指示領域の最大範囲を規定するためのデータを、制御部に認識させる機能を備えている。   The maximum area recognizing means 51 has a function of causing the control unit to recognize data for defining the maximum range of the designated area to be enlarged with the designated position as a base point.

この手段では、指示位置を基点として拡大する指示領域の最大範囲を規定するためのデータが、制御部に認識される。たとえば、指示領域の形状が円形である場合、指示領域を段階的に拡大するときの段数の最大値が、最大段数データD_maxとして制御部に認識される。なお、このデータは、野球ゲームプログラムがROM12からロードされたときに、RAM13に格納されている。   In this means, the control unit recognizes data for defining the maximum range of the designated area to be enlarged with the designated position as a base point. For example, when the shape of the pointing area is a circle, the maximum value of the number of stages when the pointing area is enlarged stepwise is recognized by the control unit as maximum stage number data D_max. This data is stored in the RAM 13 when the baseball game program is loaded from the ROM 12.

オブジェクト表示手段52は、複数のオブジェクトそれぞれの表示位置を示す座標データに基づいて、複数のオブジェクトそれぞれを、画像データを用いて下部液晶モニタ3bに表示する機能を備えている。   The object display means 52 has a function of displaying each of the plurality of objects on the lower liquid crystal monitor 3b using image data based on the coordinate data indicating the display position of each of the plurality of objects.

この手段では、複数のオブジェクトそれぞれの表示位置を示す座標データに基づいて、複数のオブジェクトそれぞれが、画像データを用いて下部液晶モニタ3bに表示される。たとえば、オブジェクトの表示命令がCPU11から発行されたときに、RAM13に格納されたオブジェクトの表示位置を示す座標データがCPU11に認識されると、これら座標データに基づいて、複数のオブジェクトそれぞれが下部液晶モニタ3bに表示される。   In this means, each of the plurality of objects is displayed on the lower liquid crystal monitor 3b using the image data based on the coordinate data indicating the display position of each of the plurality of objects. For example, when the CPU 11 recognizes coordinate data indicating the display position of the object stored in the RAM 13 when an object display command is issued from the CPU 11, each of the plurality of objects is displayed on the lower liquid crystal based on the coordinate data. It is displayed on the monitor 3b.

具体的には、各オブジェクトの重心位置が、下部液晶モニタ3bにおける各オブジェクトの表示位置に一致するように、各オブジェクトを配置する命令がCPU11から発行される。すると、複数のオブジェクトそれぞれが、各画像データを用いて下部液晶モニタ3bに表示される。   Specifically, the CPU 11 issues a command to arrange each object so that the center of gravity position of each object matches the display position of each object on the lower liquid crystal monitor 3b. Then, each of the plurality of objects is displayed on the lower liquid crystal monitor 3b using each image data.

表示領域認識手段53は、下部液晶モニタ3bに表示された複数のオブジェクトそれぞれの表示領域の内部の座標データを、CPU11に認識させる機能を備えている。   The display area recognition means 53 has a function of causing the CPU 11 to recognize the coordinate data inside the display area of each of the plurality of objects displayed on the lower liquid crystal monitor 3b.

この手段では、下部液晶モニタ3bに表示された複数のオブジェクトそれぞれの表示領域の内部の座標データが、CPU11に認識される。たとえば、各オブジェクトが下部液晶モニタ3bに表示されると、下部液晶モニタ3bに表示された各オブジェクトの表示領域の内部の座標データが、CPU11に認識される。   In this means, the CPU 11 recognizes the coordinate data inside the display area of each of the plurality of objects displayed on the lower liquid crystal monitor 3b. For example, when each object is displayed on the lower liquid crystal monitor 3b, the coordinate data inside the display area of each object displayed on the lower liquid crystal monitor 3b is recognized by the CPU 11.

ここでは、下部液晶モニタ3bの中心位置を原点とした座標系における、各オブジェクトの表示領域の内部の座標データが、CPU11に認識される。なお、ここでCPU11に認識される各オブジェクトの表示領域の内部の座標データには、各オブジェクトの表示位置に対応する座標データも含まれている。   Here, the coordinate data inside the display area of each object in the coordinate system with the center position of the lower liquid crystal monitor 3b as the origin is recognized by the CPU 11. Here, the coordinate data in the display area of each object recognized by the CPU 11 includes coordinate data corresponding to the display position of each object.

指示位置認識手段54は、入力手段からの入力信号に基づいて、指示手段が示す指示位置をCPU11に認識させる機能を備えている。   The designated position recognizing means 54 has a function of causing the CPU 11 to recognize the designated position indicated by the designated means based on an input signal from the input means.

この手段では、入力手段からの入力信号に基づいて、指示手段が示す指示位置が、CPU11に認識される。たとえば、入力手段が下部液晶モニタ3bであり、指示手段がタッチペンである場合、タッチペンが下部液晶モニタ3bに接触したときに、タッチペンの接触位置を示す入力信号が、タッチ入力検出回路14aからCPU11へと供給される。そして、この入力信号に基づいて、タッチペンの接触位置を示す座標データが、CPU11に認識される。   In this means, the CPU 11 recognizes the indicated position indicated by the instruction means based on the input signal from the input means. For example, when the input means is the lower liquid crystal monitor 3b and the instruction means is a touch pen, when the touch pen touches the lower liquid crystal monitor 3b, an input signal indicating the touch position of the touch pen is sent from the touch input detection circuit 14a to the CPU 11. Supplied with. Based on this input signal, the coordinate data indicating the touch position of the touch pen is recognized by the CPU 11.

指示領域設定手段55は、指示位置を基点として範囲が拡大する指示領域をCPU11に設定させる機能を備えている。また、指示領域設定手段55は、指示位置がCPU11に認識された時点からの時間に応じて指示領域の拡大率が小さくなるように、指示領域をCPU11に設定させる機能を備えている。   The instruction area setting unit 55 has a function of causing the CPU 11 to set an instruction area whose range is enlarged with the instruction position as a base point. The instruction area setting means 55 has a function of causing the CPU 11 to set the instruction area so that the enlargement ratio of the instruction area decreases according to the time from when the instruction position is recognized by the CPU 11.

この手段では、タッチペンの接触位置がCPU11に認識されると、この時点toからの時間tを計測する処理がCPU11により実行される。そして、ここで計測された時間(計測時間)tが所定の時間tsになったときに、指示領域を拡大する処理がCPU11により実行される。ここでは、計測時間tが、所定の時間tsたとえば1/240(sec)、1/120(=2/240)(sec)、および1/80(=3/240((sec)に等しいとCPU11に判断された場合(t=ts)、指示領域を拡大する処理がCPU11により実行される。すなわち、ここでは、タッチペンを下部液晶モニタ3bに接触させた時点を基準として、指示領域を3段階で拡大する処理が、CPU11により実行される。   In this means, when the contact position of the touch pen is recognized by the CPU 11, a process of measuring the time t from this time point to is executed by the CPU 11. Then, when the time (measurement time) t measured here becomes a predetermined time ts, the CPU 11 executes a process of expanding the designated area. Here, if the measurement time t is equal to a predetermined time ts, for example 1/240 (sec), 1/120 (= 2/240) (sec), and 1/80 (= 3/240 ((sec)), the CPU 11 Is determined (t = ts), the CPU 11 executes a process for enlarging the designated area, that is, here, the designated area is divided into three stages with reference to the time when the touch pen is brought into contact with the lower liquid crystal monitor 3b. The enlargement process is executed by the CPU 11.

指示領域を拡大するときには、タッチペンを下部液晶モニタ3bに接触させた時点からの時間に応じて指示領域の拡大率が小さくなるように、指示領域を規定するための半径データ(規定データ)が、設定される。これにより、タッチペンを下部液晶モニタ3bに接触させた時点からの時間に応じて指示領域の拡大率が小さくなるような指示領域を、下部液晶モニタ3bに設定することができる。   When enlarging the instruction area, radius data (regulation data) for defining the instruction area is reduced so that the enlargement ratio of the instruction area decreases according to the time from when the touch pen is brought into contact with the lower liquid crystal monitor 3b. Is set. As a result, it is possible to set an instruction area in the lower liquid crystal monitor 3b such that the enlargement ratio of the instruction area decreases according to the time from when the touch pen is brought into contact with the lower liquid crystal monitor 3b.

指示領域認識手段56は、指示領域の内部の座標データを、CPU11に認識させる機能を備えている。   The instruction area recognition unit 56 has a function of causing the CPU 11 to recognize the coordinate data inside the instruction area.

この手段では、指示領域の内部の座標データが、CPU11に認識される。たとえば、指示領域が上記のように円状に設定された場合、この円状の指示領域の内部の座標データが、CPU11に認識される。   With this means, the coordinate data inside the designated area is recognized by the CPU 11. For example, when the pointing area is set in a circular shape as described above, the coordinate data inside the circular pointing area is recognized by the CPU 11.

領域一致判断手段57は、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したか否かを、CPU11に判断させる機能を備えている。   The area match determination unit 57 has a function of causing the CPU 11 to determine whether or not the coordinate data inside the display area of the object matches the coordinate data inside the instruction area.

この手段では、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したか否かが、CPU11により判断される。たとえば、下部液晶モニタ3bに表示されたオブジェクトの表示領域の内部の少なくとも1つの座標データと、タッチペンの接触位置を基準として定義された指示領域の内部の少なくとも1つの座標データとが一致したか否かが、CPU11により判断される。   In this means, the CPU 11 determines whether or not the coordinate data inside the display area of the object matches the coordinate data inside the instruction area. For example, whether or not at least one coordinate data inside the display area of the object displayed on the lower liquid crystal monitor 3b matches at least one coordinate data inside the pointing area defined with reference to the touch position of the touch pen Is determined by the CPU 11.

オブジェクト選択手段58は、オブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したとCPU11により判断された場合に、座標データが一致したオブジェクトを、選択されたオブジェクトとしてCPU11に認識させる機能を備えている。   When the CPU 11 determines that the coordinate data inside the display area of the object matches the coordinate data inside the instruction area, the object selection means 58 sets the object having the matched coordinate data as the selected object. A function for causing the CPU 11 to recognize is provided.

詳細には、オブジェクト選択手段58は、1つのオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したとCPU11により判断された場合に、座標データが一致したオブジェクトを、選択されたオブジェクトとしてCPU11に認識させる機能を備えている。また、オブジェクト選択手段58は、複数のオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが同時に一致したとCPU11により判断された場合に、オブジェクトを選択する処理を中止する命令をCPU11に発行させる機能を備えている。   Specifically, the object selection unit 58 selects an object having the same coordinate data when the CPU 11 determines that the coordinate data inside the display area of one object matches the coordinate data inside the instruction area. The CPU 11 has a function of recognizing the selected object. In addition, the object selection unit 58 stops the process of selecting an object when the CPU 11 determines that the coordinate data inside the display area of the plurality of objects coincides with the coordinate data inside the instruction area at the same time. A function for causing the CPU 11 to issue an instruction is provided.

この手段では、1つのオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが一致したとCPU11により判断された場合に、座標データが一致したオブジェクトが、タッチペンにより選択されたオブジェクトとしてCPU11に認識される。たとえば、1つのオブジェクトの表示領域の内部の少なくとも1つの座標データと、時間に応じて拡大する指示領域の内部の少なくとも1つの座標データとが一致したとCPU11により判断された場合に、指示領域がオブジェクトの表示領域に重なったものと判定され、タッチペンにより選択されたオブジェクトがCPU11に認識される。   In this means, when the CPU 11 determines that the coordinate data inside the display area of one object matches the coordinate data inside the instruction area, the object with the matching coordinate data is selected by the touch pen. Recognized by the CPU 11 as an object. For example, when the CPU 11 determines that at least one coordinate data inside the display area of one object matches at least one coordinate data inside the instruction area enlarged according to time, the indication area is It is determined that the object overlaps the display area of the object, and the CPU 11 recognizes the object selected by the touch pen.

また、この手段では、複数のオブジェクトの表示領域の内部の座標データと、指示領域の内部の座標データとが同時に一致したとCPU11により判断された場合に、オブジェクトを選択する処理を中止する命令が、CPU11から発行される。たとえば、複数のオブジェクトの表示領域それぞれの内部の少なくとも1つの座標データと、時間に応じて拡大する指示領域の内部の少なくとも1つの座標データとが同時に一致したとCPU11により判断された場合に、オブジェクトを選択する処理を中止する命令が、CPU11から発行される。   Further, in this means, when the CPU 11 determines that the coordinate data inside the display area of the plurality of objects and the coordinate data inside the instruction area coincide with each other at the same time, an instruction to stop the object selecting process is issued. Issued from the CPU 11. For example, when the CPU 11 determines that at least one coordinate data inside each display area of a plurality of objects and at least one coordinate data inside an instruction area enlarged according to time coincide with each other, the object A command for canceling the process of selecting is issued from the CPU 11.

命令実行手段59は、指示位置がCPU11に認識された時点から1フレーム時間が経過したときに、選択されたオブジェクトに割り当てられた命令をCPU11に実行させる機能を備えている。   The command execution means 59 has a function of causing the CPU 11 to execute a command assigned to the selected object when one frame time has elapsed from the time when the designated position is recognized by the CPU 11.

この手段では、タッチペンの接触位置がCPU11に認識された時点から1フレーム時間が経過したときに、選択されたオブジェクトに割り当てられた命令が、CPU11により実行される。たとえば、指示領域が重なったボタンオブジェクトが、1フレーム時間内で選択される。そして、指示領域が重なったボタンオブジェクトに割り当てられた命令が、1フレーム時間が経過した時に実行される。   In this means, when one frame time elapses from the time when the touch position of the touch pen is recognized by the CPU 11, the instruction assigned to the selected object is executed by the CPU 11. For example, a button object with an overlapped instruction area is selected within one frame time. Then, the command assigned to the button object with which the instruction area overlaps is executed when one frame time has elapsed.

〔野球ゲームにおけるオブジェクト選択システムの処理フローと説明〕
〔第1実施形態〕
次に、たとえば野球ゲームにおけるオブジェクト選択システムの第1実施形態の内容について説明する。また、図8に示すオブジェクト選択システムに関するフローについても同時に説明する。
[Processing flow and explanation of object selection system in baseball game]
[First Embodiment]
Next, for example, the contents of the first embodiment of the object selection system in a baseball game will be described. A flow related to the object selection system shown in FIG. 8 will also be described at the same time.

たとえば、野球ゲームにおいて、プレイヤが攻撃時の操作や守備時の操作等を練習するための操作練習モードが選択されると、図4に示すような練習選択画面70が、下部液晶モニタ3bに表示される。この練習選択画面70には、複数のボタンオブジェクト71(71a,71b,71c,71d,71e,71f)が配置されている。ここでは、複数のボタンオブジェクト71が、練習形態を指示するための5つのボタンオブジェクト(打撃練習ボタン71a、投球練習ボタン71b、守備練習ボタン71c、総合攻撃練習ボタン71d、総合守備練習ボタン71e)、および練習形態の詳細を設定するためのボタンオブジェクト(オプションボタン)71f等から構成されている。   For example, in a baseball game, when an operation practice mode is selected for the player to practice an attack operation or a defensive operation, a practice selection screen 70 as shown in FIG. 4 is displayed on the lower liquid crystal monitor 3b. Is done. On the practice selection screen 70, a plurality of button objects 71 (71a, 71b, 71c, 71d, 71e, 71f) are arranged. Here, a plurality of button objects 71 are five button objects for instructing a practice form (a hitting practice button 71a, a throwing practice button 71b, a defensive practice button 71c, a general attack practice button 71d, and a general defensive practice button 71e), And button objects (option buttons) 71f for setting details of the practice form.

操作練習モードが選択されると、たとえば、上記の複数のボタンオブジェクト71を下部液晶モニタ3bに表示するための表示命令が、CPU11から発行される(S1)。すると、複数のボタンオブジェクト71それぞれを下部液晶モニタ3bに表示する表示位置H(H1,H2,H3,H4,H5,H6)を示す座標データが、CPU11に認識される(S2)。なお、ボタンオブジェクト71の表示位置Hを示す座標データは、予めゲームプログラムおいて規定されており、RAM13に格納されている。   When the operation practice mode is selected, for example, a display command for displaying the plurality of button objects 71 on the lower liquid crystal monitor 3b is issued from the CPU 11 (S1). Then, the coordinate data indicating the display position H (H1, H2, H3, H4, H5, H6) for displaying each of the plurality of button objects 71 on the lower liquid crystal monitor 3b is recognized by the CPU 11 (S2). The coordinate data indicating the display position H of the button object 71 is defined in advance in the game program and stored in the RAM 13.

そして、複数のボタンオブジェクト71(71a,71b,71c,71d,71e,71f)それぞれの表示位置Hを示す座標データがCPU11に認識されると、これら座標データが示す各ボタンオブジェクト71a,71b,71c,71d,71e,71fの表示位置Hに各ボタンオブジェクトを配置する命令が、CPU11から発行される。すると、各ボタンオブジェクト71a,71b,71c,71d,71e,71fが、各ボタンオブジェクト用の画像データを用いて下部液晶モニタ3bに表示される(S3)。   When the coordinate data indicating the display position H of each of the plurality of button objects 71 (71a, 71b, 71c, 71d, 71e, 71f) is recognized by the CPU 11, the button objects 71a, 71b, 71c indicated by these coordinate data are displayed. , 71d, 71e, 71f, the CPU 11 issues a command to arrange each button object at the display position H. Then, each button object 71a, 71b, 71c, 71d, 71e, 71f is displayed on the lower liquid crystal monitor 3b using the image data for each button object (S3).

具体的には、各ボタンオブジェクト71a,71b,71c,71d,71e,71fの重心位置が、下部液晶モニタ3bにおける各ボタンオブジェクトの表示位置Hに一致するように、各ボタンオブジェクト71a,71b,71c,71d,71e,71fが、画像データを用いて下部液晶モニタ3bに表示される。なお、各ボタンオブジェクト71a,71b,71c,71d,71e,71fに対応する画像データは、RAM13に格納されている。   Specifically, the button objects 71a, 71b, 71c, 71d, 71e, 71f are arranged so that the barycentric positions thereof coincide with the display positions H of the button objects on the lower liquid crystal monitor 3b. , 71d, 71e, 71f are displayed on the lower liquid crystal monitor 3b using the image data. Note that image data corresponding to the button objects 71a, 71b, 71c, 71d, 71e, and 71f is stored in the RAM 13.

続いて、下部液晶モニタ3bに表示された複数のボタンオブジェクト71それぞれの表示領域の内部の座標データが、CPU11に認識される(S4)。具体的には、下部液晶モニタ3bにおいて画像を表示可能な矩形範囲の中央位置(重心位置)を原点とした座標系において、各ボタンオブジェクト71の表示領域の内部の座標データが、CPU11に認識される。なお、ここでCPU11に認識される各ボタンオブジェクト71の表示領域の内部の座標データには、各ボタンオブジェクト71の表示位置Hに対応する座標データも含まれている。   Subsequently, the coordinate data inside the display area of each of the plurality of button objects 71 displayed on the lower liquid crystal monitor 3b is recognized by the CPU 11 (S4). Specifically, the coordinate data inside the display area of each button object 71 is recognized by the CPU 11 in the coordinate system with the origin at the center position (center of gravity position) of the rectangular range in which an image can be displayed on the lower liquid crystal monitor 3b. The Here, the coordinate data inside the display area of each button object 71 recognized by the CPU 11 includes coordinate data corresponding to the display position H of each button object 71.

続いて、ボタンオブジェクト71を選択するためにタッチペンTにより指示される指示領域R(R1,R2,R3)の最大範囲を規定するためのデータが、制御部に認識される(S5)。たとえば、指示領域R(R1,R2,R3)の形状が円形である場合、指示領域R(R1,R2,R3)を段階的に拡大するときの段数の最大値が、最大段数データD_maxとして制御部に認識される。ここでは、最大段数データD_maxが示す値が、数値「3」に設定されている。   Subsequently, data for defining the maximum range of the designated region R (R1, R2, R3) designated by the touch pen T for selecting the button object 71 is recognized by the control unit (S5). For example, when the shape of the indication region R (R1, R2, R3) is a circle, the maximum value of the number of steps when the indication region R (R1, R2, R3) is enlarged stepwise is controlled as the maximum step number data D_max. Recognized by the department. Here, the value indicated by the maximum stage number data D_max is set to a numerical value “3”.

続いて、図4に示すように、複数のボタンオブジェクト71が下部液晶モニタ3bに表示された状態において、プレイヤが、図5に示すように、所望のボタンオブジェクト71aを選択するために下部液晶モニタ3bにタッチペンTを接触させると、下部液晶モニタ3bに接触したタッチペンTの接触位置SPを示す入力信号が、タッチ入力検出回路14aからCPU11へと供給される。そして、この入力信号に基づいて、タッチペンTの接触位置SPを示す座標データが、CPU11に認識される(S6)。   Next, as shown in FIG. 4, in a state where a plurality of button objects 71 are displayed on the lower liquid crystal monitor 3b, the player can select a desired button object 71a as shown in FIG. When the touch pen T is brought into contact with 3b, an input signal indicating the contact position SP of the touch pen T in contact with the lower liquid crystal monitor 3b is supplied from the touch input detection circuit 14a to the CPU 11. Based on this input signal, the coordinate data indicating the contact position SP of the touch pen T is recognized by the CPU 11 (S6).

続いて、タッチペンTの接触位置SPがCPU11に認識されると、この時点toからの時間tを計測する処理がCPU11により実行される。そして、ここで計測された時間(計測時間)tが所定の時間tsになったときに、指示領域R(R1,R2,R3)を拡大する処理がCPU11により実行される(S7)。   Subsequently, when the contact position SP of the touch pen T is recognized by the CPU 11, processing for measuring the time t from this time point to is executed by the CPU 11. Then, when the time (measurement time) t measured here becomes a predetermined time ts, the CPU 11 executes a process of enlarging the designated region R (R1, R2, R3) (S7).

指示領域R(R1,R2,R3)を拡大する処理は、次のようにしてCPU11により実行される。たとえば、指示領域R(R1,R2,R3)の形状が円形である場合、図6に示すように、まず、計測時間tが所定の時間ts1たとえば1/240(sec)に等しくなった場合(t=ts1=1/240)、所定の時間ts1に対応する半径データr1がCPU11に認識される。すると、タッチペンTの接触位置SPを中心として、半径データr1により規定される指示領域R1が、CPU11に認識される。   The process of enlarging the instruction area R (R1, R2, R3) is executed by the CPU 11 as follows. For example, when the shape of the indication region R (R1, R2, R3) is circular, as shown in FIG. 6, first, when the measurement time t becomes equal to a predetermined time ts1, for example 1/240 (sec) ( t = ts1 = 1/240), the radius data r1 corresponding to the predetermined time ts1 is recognized by the CPU 11. Then, the instruction area R1 defined by the radius data r1 is recognized by the CPU 11 with the contact position SP of the touch pen T as the center.

次に、計測時間tが所定の時間ts2たとえば1/120(sec)に等しくなった場合(t=ts2=1/120)、所定の時間ts2に対応する半径データr2(>r1)がCPU11に認識される。すると、タッチペンTの接触位置SPを中心として、半径データr2により規定される指示領域R2が、CPU11に認識される。   Next, when the measurement time t becomes equal to a predetermined time ts2, for example, 1/120 (sec) (t = ts2 = 1/120), radius data r2 (> r1) corresponding to the predetermined time ts2 is sent to the CPU 11. Be recognized. Then, the instruction area R2 defined by the radius data r2 is recognized by the CPU 11 with the contact position SP of the touch pen T as the center.

最後に、計測時間tが所定の時間ts3たとえば1/80(sec)に等しくなった場合(t=ts3=1/80)、所定の時間ts3に対応する半径データr3がCPU11に認識される。すると、タッチペンTの接触位置SPを中心として、半径データr3により規定される指示領域R3が、CPU11に認識される。   Finally, when the measurement time t becomes equal to a predetermined time ts3, for example, 1/80 (sec) (t = ts3 = 1/80), the radius data r3 corresponding to the predetermined time ts3 is recognized by the CPU 11. Then, the instruction area R3 defined by the radius data r3 is recognized by the CPU 11 with the contact position SP of the touch pen T as the center.

このように、計測時間tが、所定の時間tsたとえば1/240(=ts1)(sec)、1/120(=2/240=ts2)(sec)、および1/80(=3/240=ts3)(sec)のいずれか1つの所定の時間ts1,ts2,ts3に等しいとCPU11に判断された場合、指示領域R(R1,R2,R3)を拡大する処理がCPU11により実行される。すなわち、ここでは、タッチペンTを下部液晶モニタ3bに接触させた時点を基準として、指示領域R(R1,R2,R3)を3段階で拡大する処理が、CPU11により実行される。   Thus, the measurement time t is a predetermined time ts, for example 1/240 (= ts1) (sec), 1/120 (= 2/240 = ts2) (sec), and 1/80 (= 3/240 = When the CPU 11 determines that the time is equal to any one of the predetermined times ts1, ts2, and ts3 of ts3) (sec), the CPU 11 executes a process of expanding the instruction area R (R1, R2, R3). That is, here, the CPU 11 executes a process of enlarging the designated region R (R1, R2, R3) in three stages with reference to the time when the touch pen T is brought into contact with the lower liquid crystal monitor 3b.

指示領域R(R1,R2,R3)を拡大する段数は、最大段数データD_maxにより規定されている。ここでは、最大段数データD_maxが示す値が、数値「3」になっている。このため、指示領域R(R1,R2,R3)を拡大するときの各段数を示すデータを段数データnとすると、段数データnは、「1」、「2」、「3(=D_max)」の値をとる。この段数データnおよび最大段数データD_maxを用いると、所定の時間tsを次のように表現することができる。1フレーム時間を1/60(sec)とすると、所定の時間tsは、「n/(60X(D_max+1))、n=1,2,3」式で示すことができる。このように、所定の時間tsの値が、1フレーム時間の値より小さくなるように設定されているので、指定領域Rの拡大は1フレーム時間内で終了する。   The number of stages for expanding the instruction area R (R1, R2, R3) is defined by the maximum stage number data D_max. Here, the value indicated by the maximum stage number data D_max is a numerical value “3”. For this reason, if the data indicating the number of stages when the designated area R (R1, R2, R3) is enlarged is the stage number data n, the stage number data n is “1”, “2”, “3 (= D_max)”. Takes the value of Using this stage number data n and maximum stage number data D_max, the predetermined time ts can be expressed as follows. If one frame time is 1/60 (sec), the predetermined time ts can be expressed by the equation “n / (60X (D_max + 1)), n = 1, 2, 3”. As described above, since the value of the predetermined time ts is set to be smaller than the value of one frame time, the expansion of the designated region R ends within one frame time.

また、指示領域R(R1,R2,R3)を拡大する処理では、タッチペンTを下部液晶モニタ3bに接触させた時点からの時間に応じて指示領域R(R1,R2,R3)の拡大率が小さくなるように、指示領域を規定するための半径データr(r1,r2,r3)(規定データ)が、設定される。これにより、タッチペンTを下部液晶モニタ3bに接触させた時点からの時間に応じて指示領域の拡大率が小さくなるような指示領域R(R1,R2,R3)を、設定することができる。   Further, in the process of enlarging the instruction area R (R1, R2, R3), the enlargement ratio of the instruction area R (R1, R2, R3) depends on the time from when the touch pen T is brought into contact with the lower liquid crystal monitor 3b. Radius data r (r1, r2, r3) (regulation data) for defining the designated area is set so as to be smaller. Thereby, it is possible to set the indication region R (R1, R2, R3) such that the enlargement ratio of the indication region is reduced according to the time from when the touch pen T is brought into contact with the lower liquid crystal monitor 3b.

ここでは、上記の各半径データr1,r2,r3の間に、「r3>r2>r1>0.0」のような関係が成立している。この関係に加えて、上記の各半径データr1,r2,r3の間には、「(r3−r2)>(r2−r1)>r1」のような関係が成立している(図6を参照)。この関係(「(r3−r2)>(r2−r1)>r1」)が成立するように半径データr1,r2,r3を設定することにより、時間に応じて指示領域R(R1,R2,R3)が拡大する程度(時間に応じた拡大率)を小さくすることができる。   Here, a relationship such as “r3> r2> r1> 0.0” is established between the respective radius data r1, r2, r3. In addition to this relationship, a relationship such as “(r3−r2)> (r2−r1)> r1” is established between the radius data r1, r2, and r3 (see FIG. 6). ). By setting the radius data r1, r2, r3 so that this relationship (“(r3-r2)> (r2-r1)> r1”) is established, the indication region R (R1, R2, R3) according to time. ) Can be reduced (expansion rate according to time).

なお、上記の所定の時間tsと半径データr1,r2,r3との対応関係は、ゲームプログラムにおいて予め規定されている。この対応関係を示すテーブルは、RAM13に格納されている。以下では、半径データr1を第1半径データ、半径データr2を第2半径データ、半径データr3を第3半径データ、と記すことがある。また、第1半径データr1、第2半径データr2、および第3半径データr3それぞれに対応する円状の指示領域R(R1,R2,R3)を、第1指示領域R1、第2指示領域R2、第3指示領域R3と記すことがある。さらに、本実施形態で用いられる「指示領域」という文言は、タッチペンTの接触位置SPが示す点を含む文言である。このため、以下では、タッチペンTの接触位置SPが示す点を、第0指示領域と記すことがある。   The correspondence relationship between the predetermined time ts and the radius data r1, r2, r3 is defined in advance in the game program. A table indicating this correspondence relationship is stored in the RAM 13. Hereinafter, the radius data r1 may be referred to as first radius data, the radius data r2 as second radius data, and the radius data r3 as third radius data. In addition, the circular instruction areas R (R1, R2, R3) corresponding to the first radius data r1, the second radius data r2, and the third radius data r3 are designated as the first instruction area R1 and the second instruction area R2, respectively. May be referred to as a third indication region R3. Further, the term “instruction area” used in the present embodiment is a term including a point indicated by the touch position SP of the touch pen T. For this reason, below, the point which the contact position SP of the touch pen T shows may be described as a 0th instruction | indication area | region.

上記のようにして、指示領域R(R1,R2,R3)を拡大する処理がCPU11により実行されると、指示領域R(R1,R2,R3)の内部の座標データが、CPU11に認識される(S8)。たとえば、指示領域R(R1,R2,R3)が上記のように円状に設定された場合、この円状の指示領域R(R1,R2,R3)の内部の座標データが、CPU11に認識される。   As described above, when the CPU 11 executes the process of enlarging the designated area R (R1, R2, R3), the coordinate data inside the designated area R (R1, R2, R3) is recognized by the CPU 11. (S8). For example, when the pointing area R (R1, R2, R3) is set in a circle as described above, the coordinate data inside the circular pointing area R (R1, R2, R3) is recognized by the CPU 11. The

続いて、ボタンオブジェクト71の表示領域の内部の座標データと、指示領域R(R1,R2,R3)の内部の座標データとが一致したか否かが、CPU11により判断される(S9)。たとえば、下部液晶モニタ3bに表示されたボタンオブジェクト71の表示領域の内部の少なくとも1つの座標データと、タッチペンTの接触位置SPを基準として定義された指示領域R(R1,R2,R3)の内部の少なくとも1つの座標データとが一致したか否かが、CPU11により判断される。   Subsequently, the CPU 11 determines whether or not the coordinate data inside the display area of the button object 71 matches the coordinate data inside the instruction area R (R1, R2, R3) (S9). For example, at least one coordinate data inside the display area of the button object 71 displayed on the lower liquid crystal monitor 3b and the inside of the indication area R (R1, R2, R3) defined with reference to the contact position SP of the touch pen T The CPU 11 determines whether or not the at least one coordinate data is consistent.

そして、図7に示すように、1つのボタンオブジェクト71の表示領域の内部の少なくとも1つの座標データと、時間に応じて拡大する指示領域R(R1,R2,R3)の内部の少なくとも1つの座標データとが一致したとCPU11により判断された場合(S9でYes)、複数のボタンオブジェクト71の表示領域の内部の座標データと、指示領域R(R1,R2,R3)の内部の座標データとが同時に一致したか否かが、CPU11により判断される(S10)。そして、複数のボタンオブジェクト71の表示領域の内部の座標データと、指示領域R(R1,R2,R3)の内部の座標データとが同時に一致していないとCPU11により判断された場合(S10でNo)、指示領域R(R1,R2,R3)が1つのボタンオブジェクト71の表示領域に重なったものと判定され、タッチペンTにより選択されたボタンオブジェクト71がCPU11に認識される(S11)。   Then, as shown in FIG. 7, at least one coordinate data inside the display area of one button object 71 and at least one coordinate inside the instruction area R (R1, R2, R3) that expands according to time. When the CPU 11 determines that the data match (Yes in S9), the coordinate data inside the display area of the plurality of button objects 71 and the coordinate data inside the instruction area R (R1, R2, R3) are The CPU 11 determines whether or not they coincide with each other (S10). When the CPU 11 determines that the coordinate data inside the display area of the plurality of button objects 71 and the coordinate data inside the instruction area R (R1, R2, R3) do not coincide with each other at the same time (No in S10) ), It is determined that the instruction area R (R1, R2, R3) overlaps the display area of one button object 71, and the button object 71 selected by the touch pen T is recognized by the CPU 11 (S11).

なお、図7では、ボタンオブジェクト71aの表示領域の内部の少なくとも1つの座標データと、2段階に拡大された指示領域(第2指示領域)R2の内部の少なくとも1つの座標データとが一致した場合の例が示されている。   In FIG. 7, when at least one coordinate data inside the display area of the button object 71a matches at least one coordinate data inside the instruction area (second instruction area) R2 enlarged in two stages. An example of is shown.

具体的には、1つのボタンオブジェクト71の表示領域の内部の少なくとも1つの座標データと、タッチペンTの接触位置SP’(第0指示領域)を示す座標データとが一致した場合にのみ、指示領域がボタンオブジェクト71の表示領域に重なったものと判定され、タッチペンTにより選択された1つのボタンオブジェクト71がCPU11に認識される。この場合は、ボタンオブジェクト71がタッチペンTにより直接的に選択された場合に対応する。   Specifically, the pointing area is only displayed when at least one coordinate data inside the display area of one button object 71 matches the coordinate data indicating the touch position SP ′ (the 0th pointing area) of the touch pen T. Is overlapped with the display area of the button object 71, and one button object 71 selected by the touch pen T is recognized by the CPU 11. This case corresponds to the case where the button object 71 is directly selected by the touch pen T.

また、1つのボタンオブジェクト71の表示領域の内部の少なくとも1つの座標データと、タッチペンTの接触位置SPを中心とした第1半径r1、第2半径r2、および第3半径r3のいずれかにより定義される指示領域R(第1指示領域R1、第2指示領域R2、および第3指示領域R3のいずれか1つの指示領域)の内部の少なくとも1つの座標データとが一致した場合、指示領域R(R1,R2,R3)が1つのボタンオブジェクト71の表示領域に重なったものと判定され、タッチペンTにより選択された1つのボタンオブジェクト71がCPU11に認識される。この場合は、ボタンオブジェクト71が指示領域R(R1,R2,R3)により選択された場合に対応する。   Also defined by at least one coordinate data inside the display area of one button object 71 and one of the first radius r1, the second radius r2, and the third radius r3 with the contact position SP of the touch pen T as the center. If at least one coordinate data inside the designated area R (one designated area of the first designated area R1, the second designated area R2, and the third designated area R3) matches, the designated area R ( R1, R2, R3) are determined to overlap the display area of one button object 71, and one button object 71 selected by the touch pen T is recognized by the CPU 11. This case corresponds to the case where the button object 71 is selected by the instruction area R (R1, R2, R3).

一方で、1つのボタンオブジェクト71の表示領域の内部の少なくとも1つの座標データと、時間に応じて拡大する指示領域R(R1,R2,R3)の内部の少なくとも1つの座標データとが一致しないとCPU11により判断された場合(S9でNo)、段数データnがD_max(=3)に等しいか否かが、CPU7により判断される(S15)。そして、段数データnがD_max(=3)に等しいとCPU7により判断された場合(S15でYes:n=D_max=3)、ボタンオブジェクト71はCPU11に認識されず、後述するステップ12(S12)の処理が実行される。ここで、段数データnがD_max(=3)に等しくないとCPU7により判断された場合(S15でNo:n=1,2、又はn<D_max)、ステップ7(S7)の処理が再実行される。   On the other hand, if at least one coordinate data inside the display area of one button object 71 does not match at least one coordinate data inside the instruction area R (R1, R2, R3) that expands according to time. If determined by the CPU 11 (No in S9), the CPU 7 determines whether or not the stage number data n is equal to D_max (= 3) (S15). When the CPU 7 determines that the stage number data n is equal to D_max (= 3) (Yes in S15: n = D_max = 3), the button object 71 is not recognized by the CPU 11, and the process proceeds to step 12 (S12) described later. Processing is executed. Here, if the CPU 7 determines that the stage number data n is not equal to D_max (= 3) (No in S15: n = 1, 2, or n <D_max), the process of Step 7 (S7) is re-executed. The

また、複数のボタンオブジェクト71の表示領域の内部の座標データと、指示領域R(R1,R2,R3)の内部の座標データとが同時に一致したとCPU11により判断された場合(S10でYes)、ボタンオブジェクト71を選択する処理を中止する命令が、CPU11から発行される(S12)。具体的には、複数のボタンオブジェクト71の表示領域の内部の少なくとも1つの座標データと、タッチペンTの接触位置SPを中心とした第1半径r1、第2半径r2、および第3半径r3のいずれかにより定義される指示領域R(第1指示領域R1、第2指示領域R2、および第3指示領域R3のいずれか1つの指示領域)の内部の少なくとも1つの座標データとが一致した場合、ボタンオブジェクト71を選択する処理を中止する命令が、CPU11から発行される。すると、ボタンオブジェクト71を選択する処理が中止され、ステップ6(S6)の処理が再実行される。   If the CPU 11 determines that the coordinate data inside the display area of the plurality of button objects 71 and the coordinate data inside the instruction area R (R1, R2, R3) coincide with each other at the same time (Yes in S10), A command for canceling the process of selecting the button object 71 is issued from the CPU 11 (S12). Specifically, any one of at least one coordinate data inside the display area of the plurality of button objects 71 and the first radius r1, the second radius r2, and the third radius r3 centered on the contact position SP of the touch pen T is selected. When at least one coordinate data inside the pointing area R defined by (one of the first pointing area R1, the second pointing area R2, and the third pointing area R3) matches the button A command for canceling the process of selecting the object 71 is issued from the CPU 11. Then, the process of selecting the button object 71 is stopped, and the process of step 6 (S6) is re-executed.

続いて、タッチペンTの接触位置SPがCPU11に認識された時点から1フレーム時間が経過したか否かが、CPU11により判断される(S13)。そして、タッチペンTの接触位置SPがCPU11に認識された時点から1フレーム時間が経過したとCPU11により判断された場合(S13でYes)、選択されたオブジェクトに割り当てられた命令が、CPU11により実行される(S14)。たとえば、指示領域R(R1,R2,R3)が重なったボタンオブジェクト71が打撃練習ボタン71aである場合、1フレーム時間内に選択された打撃練習ボタン71aに割り当てられた命令が、1フレーム時間が経過した時にCPU11により実行される。たとえば、打撃練習イベントの実行を開始する命令が、1フレーム時間が経過した時にCPU11により実行される。   Subsequently, the CPU 11 determines whether or not one frame time has elapsed since the time when the contact position SP of the touch pen T was recognized by the CPU 11 (S13). If the CPU 11 determines that one frame time has elapsed since the contact position SP of the touch pen T was recognized by the CPU 11 (Yes in S13), the instruction assigned to the selected object is executed by the CPU 11. (S14). For example, when the button object 71 where the instruction area R (R1, R2, R3) overlaps is the batting practice button 71a, the command assigned to the batting practice button 71a selected within one frame time is one frame time. When the time has elapsed, it is executed by the CPU 11. For example, a command for starting execution of a hitting practice event is executed by the CPU 11 when one frame time has elapsed.

また、ステップ13(S13)の処理は、タッチペンTの接触位置SPがCPU11に認識された時点から1フレーム時間が経過したとCPU11により判断されるまで、CPU11により繰り返し実行される。   Further, the process of step 13 (S13) is repeatedly executed by the CPU 11 until the CPU 11 determines that one frame time has elapsed since the contact position SP of the touch pen T was recognized by the CPU 11.

なお、前記実施形態にはボタンオブジェクト71が移動しない場合の例が示されているが、ボタンオブジェクト71が移動する場合にも、本発明は適用することができる。たとえば、画面が切り替わってボタンオブジェクト71のレイアウトが変更されるようなことがあったときにも、本発明は適用することができる。   In the above embodiment, an example in which the button object 71 does not move is shown, but the present invention can also be applied when the button object 71 moves. For example, the present invention can also be applied when the screen is changed and the layout of the button object 71 is changed.

また、前記実施形態には指示領域Rの最大範囲の大きさを規定しない場合の例が示されているが、上記の指示領域Rの最大範囲R3の具体的な大きさは、以下のように設定することが望ましい。   In the embodiment, an example in which the size of the maximum range of the indication region R is not specified is shown. The specific size of the maximum range R3 of the indication region R is as follows. It is desirable to set.

たとえば、ボタンオブジェクト71が長方形でありボタンオブジェクト71の長辺の長さがL1である場合、指示領域Rの直径がとり得る最大値を略L1/2(=2×r3)にすることにより、円状の指示領域Rの最大範囲R3が規定される。   For example, when the button object 71 is a rectangle and the length of the long side of the button object 71 is L1, the maximum value that the diameter of the indication region R can take is approximately L1 / 2 (= 2 × r3). A maximum range R3 of the circular pointing region R is defined.

また、ボタンオブジェクト71のL1幅のドット数がDTドット(ex. 40ドット)である場合、指示領域Rの最大直径(=2×r3)に対応するドット数をDT/2ドット(ex. 20ドット)にすることにより、円状の指示領域Rの最大範囲R3が規定される。なお、一般的には、モニタ画面の解像度によって1ドットの長さは異なる。しかしながら、上記のようにドット数で指示領域Rの最大範囲R3を定義すれば、モニタ画面の解像度に依存することなく、指示領域Rを規定することができる。   When the number of dots of the L1 width of the button object 71 is DT dots (ex. 40 dots), the number of dots corresponding to the maximum diameter (= 2 × r3) of the indication area R is set to DT / 2 dots (ex. 20). Dot) defines the maximum range R3 of the circular pointing region R. In general, the length of one dot differs depending on the resolution of the monitor screen. However, if the maximum range R3 of the designated area R is defined by the number of dots as described above, the designated area R can be defined without depending on the resolution of the monitor screen.

上記のように、指示領域Rの最大範囲R3を規定することにより、指示領域Rがボタンオブジェクト71から非常に離れた位置に形成されたような場合に、ボタンオブジェクト71が誤って選択されないようにすることができる。また、指示領域Rがボタンオブジェクト71の近傍に形成された場合には、指示領域Rが最大範囲R3に拡大するまでに(R3を含む)、ボタンオブジェクト71を選択することができる。このように、指示領域Rの最大範囲R3を規定することにより、指示領域Rがどのような位置に形成されようとも、ボタンオブジェクト71の選択操作を違和感なく実行することができる。   As described above, by defining the maximum range R3 of the pointing region R, when the pointing region R is formed at a position very far from the button object 71, the button object 71 is not selected by mistake. can do. When the instruction area R is formed in the vicinity of the button object 71, the button object 71 can be selected until the instruction area R is expanded to the maximum range R3 (including R3). As described above, by defining the maximum range R3 of the instruction area R, the selection operation of the button object 71 can be performed without any sense of incompatibility regardless of the position of the instruction area R.

なお、ここでは、オブジェクトが長方形の場合の例を示したが、たとえば、オブジェクト71が円形である場合も、上記と同様に指示領域Rの最大範囲R3を設定することができる。たとえば、オブジェクトの直径がL2である場合、指示領域Rの直径がとり得る最大値を略L2/2(=2×r3)にすることにより、円状の指示領域Rの最大範囲R3が規定される。また、外周に凹凸を有するようなオブジェクトの場合は、その外周に外接するような円を想定する。そして、この円の直径を代表長さに設定すれば、上記と同様に指示領域Rの最大範囲R3を規定することができる。   Here, an example in which the object is a rectangle is shown, but for example, even when the object 71 is a circle, the maximum range R3 of the indication region R can be set in the same manner as described above. For example, when the diameter of the object is L2, the maximum range R3 of the circular pointing area R is defined by setting the maximum value that the diameter of the pointing area R can take to be approximately L2 / 2 (= 2 × r3). The In the case of an object having irregularities on the outer periphery, a circle that circumscribes the outer periphery is assumed. If the diameter of this circle is set to the representative length, the maximum range R3 of the pointing region R can be defined in the same manner as described above.

また、前記実施形態にはオブジェクトがボタンである場合の例が示されているが、オブジェクトがキャラクタである場合にも、本発明は適用することができる。たとえば、野球ゲームにおいて、選手キャラクタをタッチペンTを用いて選択する場合にも、本発明は適用することができる。この場合、選手キャラクタが静止していても移動していても、選手キャラクタをタッチペンTを用いて選択することができる。   Moreover, although the example in which the object is a button is shown in the embodiment, the present invention can also be applied to the case where the object is a character. For example, the present invention can be applied to a case where a player character is selected using the touch pen T in a baseball game. In this case, the player character can be selected using the touch pen T regardless of whether the player character is stationary or moving.

このように、オブジェクトが静止している場合およびオブジェクトが移動する場合の両方に対して本発明を適用することができる理由は、本発明では、1フレーム時間以内で処理が終了するためである。すなわち、オブジェクトが静止しているか移動しているかにかかわらず、本発明では、オブジェクトを指示手段(ex. タッチペンT等)を用いて選択することができる。   As described above, the reason why the present invention can be applied to both the case where the object is stationary and the case where the object moves is that the process is completed within one frame time in the present invention. In other words, regardless of whether the object is stationary or moving, in the present invention, the object can be selected using the instruction means (ex. Touch pen T or the like).

〔第2実施形態〕
次に、たとえば野球ゲームにおけるオブジェクト選択システムの第2実施形態の内容について説明する。また、図9に示すオブジェクト選択システムに関するフローについても同時に説明する。
[Second Embodiment]
Next, for example, the contents of the second embodiment of the object selection system in a baseball game will be described. A flow related to the object selection system shown in FIG.

ここに示す第2実施形態と、上述した第1実施形態との差異は、第1実施形態のステップ13の有無である。すなわち、第2実施形態では、第1実施形態においては実行されるステップ13が実行されない。   The difference between 2nd Embodiment shown here and 1st Embodiment mentioned above is the presence or absence of step 13 of 1st Embodiment. That is, in the second embodiment, step 13 that is executed in the first embodiment is not executed.

第2実施形態では、第1実施形態のステップ13の部分を除いては、第1実施形態と同じ処理が実行される。このため、第1実施形態と同じ処理が実行される部分については、詳細な説明および効果に関する記載を省略する。また、第2実施形態では、第1実施形態に示された他の形態についての記載も省略されるが、第2実施形態においても、第1実施形態に示された他の形態を実現することができる。   In the second embodiment, the same processing as that of the first embodiment is executed except for the step 13 of the first embodiment. For this reason, detailed descriptions and descriptions regarding effects are omitted for portions where the same processing as in the first embodiment is executed. In the second embodiment, the description of other forms shown in the first embodiment is also omitted, but the second embodiment also realizes other forms shown in the first embodiment. Can do.

以下に、オブジェクト選択システムの第2実施形態の具体例を示す。また、第1実施形態と同じ処理が実行されるステップSについては、記号Sに「’(ダッシュ)」が付されている。   Below, the specific example of 2nd Embodiment of an object selection system is shown. Further, for step S in which the same processing as that of the first embodiment is executed, “′ (dash)” is added to the symbol S.

たとえば、野球ゲームにおいて、プレイヤが攻撃時の操作や守備時の操作等を練習するための操作練習モードが選択されると、図4に示すような練習選択画面70が、下部液晶モニタ3bに表示される。   For example, in a baseball game, when an operation practice mode is selected for the player to practice an attack operation or a defensive operation, a practice selection screen 70 as shown in FIG. 4 is displayed on the lower liquid crystal monitor 3b. Is done.

操作練習モードが選択されると、複数のボタンオブジェクト71を下部液晶モニタ3bに表示するための表示命令が、CPU11から発行される(S’1)。すると、複数のボタンオブジェクト71それぞれを下部液晶モニタ3bに表示する表示位置Hを示す座標データが、CPU11に認識される(S’2)。   When the operation practice mode is selected, a display command for displaying a plurality of button objects 71 on the lower liquid crystal monitor 3b is issued from the CPU 11 (S'1). Then, the coordinate data indicating the display position H at which each of the plurality of button objects 71 is displayed on the lower liquid crystal monitor 3b is recognized by the CPU 11 (S'2).

すると、これら座標データが示す各ボタンオブジェクトの表示位置Hにおいて、各ボタンオブジェクト71a,71b,71c,71d,71e,71fが、各ボタンオブジェクト用の画像データを用いて表示される(S’3)。すると、下部液晶モニタ3bに表示された複数のボタンオブジェクト71それぞれの表示領域の内部の座標データが、CPU11に認識される(S’4)。   Then, each button object 71a, 71b, 71c, 71d, 71e, 71f is displayed using the image data for each button object at the display position H of each button object indicated by these coordinate data (S'3). . Then, the coordinate data inside the display area of each of the plurality of button objects 71 displayed on the lower liquid crystal monitor 3b is recognized by the CPU 11 (S'4).

続いて、ボタンオブジェクト71を選択するためにタッチペンTにより指示される指示領域R(R1,R2,R3)の最大範囲を規定するためのデータが、制御部に認識される(S’5)。   Subsequently, data for defining the maximum range of the designated area R (R1, R2, R3) designated by the touch pen T for selecting the button object 71 is recognized by the control unit (S'5).

続いて、プレイヤが、図5に示すように、所望のボタンオブジェクト71aを選択するために下部液晶モニタ3bにタッチペンTを接触させると、タッチペンTの接触位置SPを示す座標データが、CPU11に認識される(S’6)。すると、タッチペンTの接触位置SPがCPU11に認識された時点toからの時間tを計測する処理が、CPU11により実行される。そして、ここで計測された時間(計測時間)tが所定の時間tsになったときに、指示領域R(R1,R2,R3)を拡大する処理がCPU11により実行される(S’7)。   Subsequently, as shown in FIG. 5, when the player brings the touch pen T into contact with the lower liquid crystal monitor 3b in order to select a desired button object 71a, the coordinate data indicating the touch position SP of the touch pen T is recognized by the CPU 11. (S'6). Then, the CPU 11 executes a process of measuring the time t from the time point to when the touch position SP of the touch pen T is recognized by the CPU 11. Then, when the time (measurement time) t measured here becomes a predetermined time ts, the CPU 11 executes a process of enlarging the designated region R (R1, R2, R3) (S'7).

たとえば、計測時間tが、1/240(=ts1)(sec)、1/120(=2/240=ts2)(sec)、および1/80(=3/240=ts3)(sec)のいずれかに等しいとCPU11に判断された場合、指示領域R(R1,R2,R3)を拡大する処理がCPU11により実行される。すなわち、ここでは、タッチペンTを下部液晶モニタ3bに接触させた時点を基準として、指示領域R(R1,R2,R3)を3段階で拡大する処理が、CPU11により実行される。   For example, the measurement time t is any one of 1/240 (= ts1) (sec), 1/120 (= 2/240 = ts2) (sec), and 1/80 (= 3/240 = ts3) (sec). When it is determined by the CPU 11 that they are equal to each other, the CPU 11 executes a process of enlarging the designated area R (R1, R2, R3). That is, here, the CPU 11 executes a process of enlarging the designated region R (R1, R2, R3) in three stages with reference to the time when the touch pen T is brought into contact with the lower liquid crystal monitor 3b.

指示領域R(R1,R2,R3)を拡大する段数は、最大段数データD_maxにより規定されている。ここでは、最大段数データD_maxが示す値が、数値「3」になっている。このため、指示領域R(R1,R2,R3)を拡大するときの各段数を示すデータを段数データnとすると、段数データnは、「1」、「2」、「3(=D_max)」の値をとる。この段数データnおよび最大段数データD_maxを用いると、所定の時間tsを次のように表現することができる。1フレーム時間を1/60(sec)とすると、所定の時間tsは、「n/(60X(D_max+1))、n=1,2,3」式で示すことができる。このように、所定の時間tsの値が、1フレーム時間の値より小さくなるように設定されているので、指定領域Rの拡大は1フレーム時間内で終了する。   The number of stages for expanding the instruction area R (R1, R2, R3) is defined by the maximum stage number data D_max. Here, the value indicated by the maximum stage number data D_max is a numerical value “3”. For this reason, if the data indicating the number of stages when the designated area R (R1, R2, R3) is enlarged is the stage number data n, the stage number data n is “1”, “2”, “3 (= D_max)”. Takes the value of Using this stage number data n and maximum stage number data D_max, the predetermined time ts can be expressed as follows. If one frame time is 1/60 (sec), the predetermined time ts can be expressed by the equation “n / (60X (D_max + 1)), n = 1, 2, 3”. As described above, since the value of the predetermined time ts is set to be smaller than the value of one frame time, the expansion of the designated region R ends within one frame time.

続いて、指示領域R(R1,R2,R3)の内部の座標データが、CPU11に認識される(S’8)。すると、ボタンオブジェクト71の表示領域の内部の座標データと、指示領域R(R1,R2,R3)の内部の座標データとが一致したか否かが、CPU11により判断される(S’9)。   Subsequently, the coordinate data inside the designated area R (R1, R2, R3) is recognized by the CPU 11 (S'8). Then, the CPU 11 determines whether or not the coordinate data inside the display area of the button object 71 matches the coordinate data inside the instruction area R (R1, R2, R3) (S'9).

そして、図7に示すように、1つのボタンオブジェクト71の表示領域の内部の少なくとも1つの座標データと、時間に応じて拡大する指示領域R(R1,R2,R3)の内部の少なくとも1つの座標データとが一致したとCPU11により判断された場合(S’9でYes)、複数のボタンオブジェクト71の表示領域の内部の座標データと、指示領域R(R1,R2,R3)の内部の座標データとが同時に一致したか否かが、CPU11により判断される(S’10)。   Then, as shown in FIG. 7, at least one coordinate data inside the display area of one button object 71 and at least one coordinate inside the instruction area R (R1, R2, R3) that expands according to time. When the CPU 11 determines that the data match (Yes in S′9), the coordinate data inside the display area of the plurality of button objects 71 and the coordinate data inside the instruction area R (R1, R2, R3) Is simultaneously determined by the CPU 11 (S′10).

そして、複数のボタンオブジェクト71の表示領域の内部の座標データと、指示領域R(R1,R2,R3)の内部の座標データとが同時に一致していないとCPU11により判断された場合(S’10でNo)、指示領域R(R1,R2,R3)が1つのボタンオブジェクト71の表示領域に重なったものと判定され、タッチペンTにより選択されたボタンオブジェクト71がCPU11に認識される(S’11)。   When the CPU 11 determines that the coordinate data in the display area of the plurality of button objects 71 and the coordinate data in the instruction area R (R1, R2, R3) do not coincide with each other (S′10 No), it is determined that the instruction area R (R1, R2, R3) overlaps the display area of one button object 71, and the button object 71 selected by the touch pen T is recognized by the CPU 11 (S'11). ).

一方で、1つのボタンオブジェクト71の表示領域の内部の少なくとも1つの座標データと、時間に応じて拡大する指示領域R(R1,R2,R3)の内部の少なくとも1つの座標データとが一致しないとCPU11により判断された場合(S’9でNo)、段数データnがD_max(=3)に等しいか否かが、CPU7により判断される(S’15)。そして、段数データnがD_max(=3)に等しいとCPU7により判断された場合(S’15でYes:n=D_max=3)、ボタンオブジェクト71はCPU11に認識されず、後述するステップ12(S’12)の処理が実行される。ここで、段数データnがD_max(=3)に等しくないとCPU7により判断された場合(S’15でNo:n=1,2、又はn<D_max)、ステップ7(S’7)の処理が再実行される。   On the other hand, if at least one coordinate data inside the display area of one button object 71 does not match at least one coordinate data inside the instruction area R (R1, R2, R3) that expands according to time. If determined by the CPU 11 (No in S′9), the CPU 7 determines whether or not the stage number data n is equal to D_max (= 3) (S′15). When the CPU 7 determines that the stage number data n is equal to D_max (= 3) (Yes in S′15: n = D_max = 3), the button object 71 is not recognized by the CPU 11, and the step 12 (S Processing of '12) is executed. If the CPU 7 determines that the stage number data n is not equal to D_max (= 3) (No in step S′15: n = 1, 2, or n <D_max), the process in step 7 (S′7). Is re-executed.

また、複数のボタンオブジェクト71の表示領域の内部の座標データと、指示領域R(R1,R2,R3)の内部の座標データとが同時に一致したとCPU11により判断された場合(S’10でYes)、ボタンオブジェクト71を選択する処理を中止する命令が、CPU11から発行される(S’12)。すると、ボタンオブジェクト71を選択する処理が中止され、ステップ6(S’6)の処理が再実行される。   When the CPU 11 determines that the coordinate data inside the display area of the plurality of button objects 71 and the coordinate data inside the instruction area R (R1, R2, R3) coincide with each other at the same time (Yes in S′10) ), An instruction to stop the process of selecting the button object 71 is issued from the CPU 11 (S′12). Then, the process of selecting the button object 71 is stopped, and the process of step 6 (S′6) is executed again.

続いて、タッチペンTにより選択されたボタンオブジェクト71がCPU11に認識されると(S’11)、選択されたオブジェクトに割り当てられた命令が、CPU11により実行される(S’14)。   Subsequently, when the button object 71 selected by the touch pen T is recognized by the CPU 11 (S'11), a command assigned to the selected object is executed by the CPU 11 (S'14).

このように、第2実施形態では、タッチペンTによりボタンオブジェクト71が選択されると、選択されたボタンオブジェクト71に割り当てられた命令が、即座に実行される。具体的には、タッチペンTによりボタンオブジェクト71を選択し命令を実行する処理を、1フレーム時間内で確実に終了することができる。すなわち、タッチペンTによりボタンオブジェクト71が選択されると、次なる画像処理が実行される前に(1フレーム時間内に)、ボタンオブジェクト71に割り当てられた命令を、CPU7に認識させることができる。   As described above, in the second embodiment, when the button object 71 is selected with the touch pen T, the command assigned to the selected button object 71 is immediately executed. Specifically, the process of selecting the button object 71 with the touch pen T and executing the command can be reliably ended within one frame time. That is, when the button object 71 is selected with the touch pen T, the CPU 7 can recognize the command assigned to the button object 71 before the next image processing is executed (within one frame time).

〔他の実施形態〕
(a)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての携帯ゲーム機1を用いた場合の例を示したが、コンピュータたとえばゲーム装置は、前記実施形態に限定されず、モニタが別体として構成されたゲーム装置、モニタがゲーム装置本体に一体に構成された業務用ゲーム装置、ゲームプログラムを実行することによってゲーム装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。
[Other Embodiments]
(A) In the above embodiment, an example in which the portable game machine 1 is used as an example of a computer to which a game program can be applied has been shown. However, a computer such as a game device is not limited to the above embodiment, and a monitor is used. The same applies to a game device configured as a separate body, a business game device in which a monitor is integrated with the game device body, a personal computer or a workstation that functions as a game device by executing a game program, and the like. Can do.

(b)本発明には、前述したようなゲームを実行するためのプログラム、ゲームを実行するためのプログラム方法およびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。   (B) The present invention also includes a program for executing the game as described above, a program method for executing the game, and a computer-readable recording medium storing the program. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.

(c)前記実施形態では、入力手段が下部液晶モニタ3bである場合の例を示したが、指示領域R(R1,R2,R3)の基点SPを指示することができれば、入力手段は、どのようなものでも良い。たとえば、入力部4の各種釦、マウス、およびポインタ機能を有するコントローラ等を、入力手段として利用することもできる。   (C) In the above-described embodiment, an example in which the input unit is the lower liquid crystal monitor 3b is shown. However, if the base point SP of the pointing region R (R1, R2, R3) can be indicated, Something like that. For example, various buttons of the input unit 4, a mouse, a controller having a pointer function, and the like can be used as input means.

本発明に係るゲームプログラムを適用しうるコンピュータの一例としての携帯ゲーム機の外観図。The external view of the portable game machine as an example of the computer which can apply the game program which concerns on this invention. 前記携帯ゲーム機の制御に関する内容を説明するための制御ブロック図。The control block diagram for demonstrating the content regarding control of the said portable game machine. 野球ゲームにおいて機能する手段を説明するための機能ブロック図。The functional block diagram for demonstrating the means which functions in a baseball game. 練習選択画面を説明するための図。The figure for demonstrating the practice selection screen. タッチペンの接触位置とボタンとの位置関係を示す図。The figure which shows the positional relationship of the contact position of a touch pen, and a button. 拡大する指示領域を説明するための図。The figure for demonstrating the instruction | indication area | region to expand. 選択領域により選択されるボタンを示す図。The figure which shows the button selected by the selection area. 本野球ゲームにおけるオブジェクト選択システムを説明するためのフローチャート1。The flowchart 1 for demonstrating the object selection system in this baseball game. 本野球ゲームにおけるオブジェクト選択システムを説明するためのフローチャート2。The flowchart 2 for demonstrating the object selection system in this baseball game.

符号の説明Explanation of symbols

1 携帯ゲーム機
3 液晶モニタ
3a 上部液晶モニタ(非タッチパネル式のモニタ)
3b 下部液晶モニタ(タッチパネル式のモニタ)
4 入力部
10 制御装置
11 CPU
13 RAM
50 表示位置認識手段
51 最大領域認識手段
52 オブジェクト表示手段
53 表示領域認識手段
54 指示位置認識手段
55 指示領域設定手段
56 指示領域認識手段
57 領域一致判断手段
58 オブジェクト選択手段
59 命令実行手段
T タッチペン(指示手段)
SP 接触位置(指示位置)
R,R1,R2,R3 指示領域、第1指示領域、第2指示領域、第3指示領域
71 ボタンオブジェクト,
H 表示位置
r1,r2,r3 半径(第1半径、第2半径、第3半径)
t 計測時間
ts,ts1,ts2,ts3 所定の時間
n 段数データ
D_max 最大段数データ
1 Portable game machine 3 LCD monitor 3a Upper LCD monitor (Non-touch panel monitor)
3b Lower LCD monitor (touch panel type monitor)
4 Input unit 10 Control device 11 CPU
13 RAM
DESCRIPTION OF SYMBOLS 50 Display position recognition means 51 Maximum area recognition means 52 Object display means 53 Display area recognition means 54 Instruction position recognition means 55 Instruction area setting means 56 Instruction area recognition means 57 Area coincidence determination means 58 Object selection means 59 Instruction execution means T Touch pen ( Instruction means)
SP contact position (indicated position)
R, R1, R2, R3 indicating area, first indicating area, second indicating area, third indicating area 71 button object,
H display position r1, r2, r3 radius (first radius, second radius, third radius)
t Measurement time ts, ts1, ts2, ts3 Predetermined time n Stage number data D_max Maximum stage number data

Claims (7)

複数のオブジェクトを画像表示部に表示するゲームを実行可能なコンピュータに、
画像表示部に前記オブジェクトを表示する表示位置を示す座標データを、制御部に認識させる表示位置認識機能と、
複数の前記オブジェクトそれぞれの表示位置を示す座標データに基づいて、複数の前記オブジェクトそれぞれを、画像データを用いて画像表示部に表示するオブジェクト表示機能と、
画像表示部に表示された複数の前記オブジェクトそれぞれの表示領域の内部の座標データを、制御部に認識させる表示領域認識機能と、
入力手段からの入力信号に基づいて、前記指示手段が示す指示位置を示す座標データを制御部に認識させる指示位置認識機能と、
前記指示位置を基点として範囲が拡大する指示領域を制御部に設定させる指示領域設定機能と、
前記指示領域の内部の座標データを、制御部に認識させる指示領域認識機能と、
前記オブジェクトの表示領域の内部の前記座標データと、前記指示領域の内部の前記座標データとが一致したか否かを、制御部に判断させる領域一致判断機能と、
前記オブジェクトの表示領域の内部の前記座標データと、前記指示領域の内部の前記座標データとが一致したと制御部により判断された場合に、前記座標データが一致したオブジェクトを、選択されたオブジェクトとして制御部に認識させるオブジェクト選択機能と、
を実現させるためのゲームプログラム。
To a computer capable of executing a game for displaying a plurality of objects on the image display unit,
A display position recognition function for causing the control unit to recognize coordinate data indicating a display position for displaying the object on the image display unit;
An object display function for displaying each of the plurality of objects on an image display unit using image data based on coordinate data indicating display positions of the plurality of objects;
A display region recognition function for causing the control unit to recognize the coordinate data inside the display region of each of the plurality of objects displayed on the image display unit;
An instruction position recognition function for causing the control unit to recognize coordinate data indicating an instruction position indicated by the instruction means, based on an input signal from the input means;
An instruction area setting function for causing the control unit to set an instruction area whose range is enlarged based on the indicated position;
An instruction area recognition function for causing the control unit to recognize the coordinate data inside the instruction area;
An area match determination function for causing the control unit to determine whether or not the coordinate data inside the display area of the object and the coordinate data inside the indication area match;
When the control unit determines that the coordinate data inside the display area of the object matches the coordinate data inside the instruction area, the object with the coordinate data matched is selected as the selected object. An object selection function to be recognized by the control unit;
A game program to make it happen.
前記コンピュータに、
前記指示位置が制御部に認識された時点から1フレーム時間が経過したときに、選択された前記オブジェクトに割り当てられた命令を制御部に実行させる命令実行機能、
をさらに実現させるための請求項1に記載のゲームプログラム。
In the computer,
A command execution function for causing the control unit to execute a command assigned to the selected object when one frame time has elapsed from the time when the indicated position is recognized by the control unit;
The game program according to claim 1 for further realizing the above.
前記指示領域設定機能では、前記指示位置が制御部に認識された時点からの時間に応じて前記指示領域の拡大率が小さくなるように、前記指示領域が制御部に設定される、
請求項1又は2に記載のゲームプログラム。
In the pointing area setting function, the pointing area is set in the control unit so that an enlargement ratio of the pointing area decreases according to a time from when the pointing position is recognized by the control unit.
The game program according to claim 1 or 2.
前記オブジェクト選択機能では、
1つの前記オブジェクトの表示領域の内部の前記座標データと、前記指示領域の内部の前記座標データとが一致したと制御部により判断された場合に、前記座標データが一致したオブジェクトが、選択されたオブジェクトとして制御部に認識され、
複数の前記オブジェクトの表示領域の内部の前記座標データと、前記指示領域の内部の前記座標データとが同時に一致したと制御部により判断された場合に、オブジェクトを選択する処理を中止する命令が制御部から発行される、
請求項1から3のいずれかに記載のゲームプログラム。
In the object selection function,
When the control unit determines that the coordinate data inside the display area of one object and the coordinate data inside the instruction area match, the object with the matching coordinate data is selected. Recognized by the control unit as an object,
When the control unit determines that the coordinate data in the display area of the plurality of objects coincides with the coordinate data in the instruction area at the same time, an instruction to stop the process of selecting the object is controlled Issued by the department,
The game program according to any one of claims 1 to 3.
前記コンピュータに、
前記指示位置を基点として拡大する指示領域の最大範囲を規定するためのデータを、制御部に認識させる最大領域認識機能
をさらに実現させるための請求項1から4のいずれかに記載のゲームプログラム。
In the computer,
The game program according to any one of claims 1 to 4, further realizing a maximum area recognition function for causing a control unit to recognize data for defining a maximum range of an instruction area to be enlarged with the instruction position as a base point.
複数のオブジェクトを画像表示部に表示するゲームを実行可能なゲーム装置であって、
画像表示部に前記オブジェクトを表示する表示位置を示す座標データを、制御部に認識させる表示位置認識手段と、
複数の前記オブジェクトそれぞれの表示位置を示す座標データに基づいて、複数の前記オブジェクトそれぞれを、画像データを用いて画像表示部に表示するオブジェクト表示手段と、
画像表示部に表示された複数の前記オブジェクトそれぞれの表示領域の内部の座標データを、制御部に認識させる表示領域認識手段と、
入力手段からの入力信号に基づいて、前記指示手段が示す指示位置を示す座標データを制御部に認識させる指示位置認識手段と、
前記指示位置を基点として範囲が拡大する指示領域を制御部に設定させる指示領域設定手段と、
前記指示領域の内部の座標データを、制御部に認識させる指示領域認識手段と、
前記オブジェクトの表示領域の内部の前記座標データと、前記指示領域の内部の前記座標データとが一致したか否かを、制御部に判断させる領域一致判断手段と、
前記オブジェクトの表示領域の内部の前記座標データと、前記指示領域の内部の前記座標データとが一致したと制御部により判断された場合に、前記座標データが一致したオブジェクトを、選択されたオブジェクトとして制御部に認識させるオブジェクト選択手段と、
を備えるゲーム装置。
A game device capable of executing a game for displaying a plurality of objects on an image display unit,
Display position recognition means for causing the control unit to recognize coordinate data indicating a display position for displaying the object on the image display unit;
Object display means for displaying each of the plurality of objects on an image display unit using image data based on coordinate data indicating display positions of the plurality of objects;
Display region recognition means for causing the control unit to recognize the coordinate data inside the display region of each of the plurality of objects displayed on the image display unit;
Based on an input signal from the input means, an indication position recognition means for causing the control unit to recognize coordinate data indicating the indication position indicated by the indication means;
An instruction area setting means for causing the control section to set an instruction area whose range is enlarged with the indicated position as a base point;
Instruction area recognition means for causing the control unit to recognize the coordinate data inside the instruction area;
An area matching determination means for causing the control unit to determine whether or not the coordinate data inside the display area of the object and the coordinate data inside the indication area match;
When the control unit determines that the coordinate data inside the display area of the object matches the coordinate data inside the instruction area, the object with the coordinate data matched is selected as the selected object. An object selection means to be recognized by the control unit;
A game device comprising:
複数のオブジェクトを画像表示部に表示するゲームをコンピュータにより制御可能なゲーム制御方法であって、
画像表示部に前記オブジェクトを表示する表示位置を示す座標データを、制御部に認識させる表示位置認識ステップと、
複数の前記オブジェクトそれぞれの表示位置を示す座標データに基づいて、複数の前記オブジェクトそれぞれを、画像データを用いて画像表示部に表示するオブジェクト表示ステップと、
画像表示部に表示された複数の前記オブジェクトそれぞれの表示領域の内部の座標データを、制御部に認識させる表示領域認識ステップと、
入力手段からの入力信号に基づいて、前記指示手段が示す指示位置を示す座標データを制御部に認識させる指示位置認識ステップと、
前記指示位置を基点として範囲が拡大する指示領域を制御部に設定させる指示領域設定ステップと、
前記指示領域の内部の座標データを、制御部に認識させる指示領域認識ステップと、
前記オブジェクトの表示領域の内部の前記座標データと、前記指示領域の内部の前記座標データとが一致したか否かを、制御部に判断させる領域一致判断ステップと、
前記オブジェクトの表示領域の内部の前記座標データと、前記指示領域の内部の前記座標データとが一致したと制御部により判断された場合に、前記座標データが一致したオブジェクトを、選択されたオブジェクトとして制御部に認識させるオブジェクト選択ステップと、
を備えるゲーム制御方法。
A game control method capable of controlling a game for displaying a plurality of objects on an image display unit by a computer,
A display position recognition step for causing the control unit to recognize coordinate data indicating a display position for displaying the object on the image display unit;
An object display step of displaying each of the plurality of objects on an image display unit using image data based on coordinate data indicating display positions of the plurality of objects;
A display region recognition step for causing the control unit to recognize the coordinate data inside the display region of each of the plurality of objects displayed on the image display unit;
An instruction position recognition step for causing the control unit to recognize coordinate data indicating an instruction position indicated by the instruction means based on an input signal from the input means;
An instruction area setting step for causing the control unit to set an instruction area whose range is enlarged based on the indicated position;
An instruction area recognition step for causing the control unit to recognize coordinate data inside the instruction area;
An area matching determination step for causing the control unit to determine whether or not the coordinate data inside the display area of the object matches the coordinate data inside the pointing area;
When the control unit determines that the coordinate data inside the display area of the object matches the coordinate data inside the instruction area, the object with the coordinate data matched is selected as the selected object. An object selection step to be recognized by the control unit;
A game control method comprising:
JP2007310979A 2007-11-30 2007-11-30 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD Active JP4430707B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2007310979A JP4430707B2 (en) 2007-11-30 2007-11-30 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
PCT/JP2008/069133 WO2009069409A1 (en) 2007-11-30 2008-10-22 Game program, game device and game control method
EP08853498A EP2229985A1 (en) 2007-11-30 2008-10-22 Game program, game device and game control method
KR1020107014161A KR101183450B1 (en) 2007-11-30 2008-10-22 Computer readable medium on which game program is recorded, game device and game control method
CN2008801183267A CN101878056A (en) 2007-11-30 2008-10-22 Game program, game device and game control method
TW097143380A TWI398282B (en) 2007-11-30 2008-11-10 Game program, game device and game control method
US12/780,641 US8226483B2 (en) 2007-11-30 2010-05-14 Game program, game device and game control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007310979A JP4430707B2 (en) 2007-11-30 2007-11-30 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2009131494A true JP2009131494A (en) 2009-06-18
JP4430707B2 JP4430707B2 (en) 2010-03-10

Family

ID=40864029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007310979A Active JP4430707B2 (en) 2007-11-30 2007-11-30 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP4430707B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011024856A (en) * 2009-07-28 2011-02-10 Konami Digital Entertainment Co Ltd Game device, game control program, and game control method
JP2011036588A (en) * 2009-08-18 2011-02-24 Konami Digital Entertainment Co Ltd Game device, game control program, and game control method
JP7401805B2 (en) 2018-04-03 2023-12-20 株式会社Mixi Information processing device, image processing range specification method, and image processing range specification program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011024856A (en) * 2009-07-28 2011-02-10 Konami Digital Entertainment Co Ltd Game device, game control program, and game control method
JP2011036588A (en) * 2009-08-18 2011-02-24 Konami Digital Entertainment Co Ltd Game device, game control program, and game control method
JP7401805B2 (en) 2018-04-03 2023-12-20 株式会社Mixi Information processing device, image processing range specification method, and image processing range specification program

Also Published As

Publication number Publication date
JP4430707B2 (en) 2010-03-10

Similar Documents

Publication Publication Date Title
JP4405430B2 (en) GAME PROGRAM AND GAME DEVICE
US9604133B2 (en) Touch-controlled game character motion providing dynamically-positioned virtual control pad
US8146018B2 (en) Gesture-based control of multiple game characters and other animated objects
JP4961112B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
US9229562B2 (en) Information processing apparatus and storage medium for storing information processing program
US8172681B2 (en) Storage medium having stored therein game program and game device
TWI398282B (en) Game program, game device and game control method
KR101718818B1 (en) Game control device, game system, and recording medium
US7893929B2 (en) Game program, game device, and game control method
JP5994019B2 (en) Video game processing apparatus, video game processing method, and video game processing program
WO2006101036A1 (en) Game program, game device, and game method
JP4430707B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2018097649A (en) Program, image control apparatus and image control method
JP4137043B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2010271760A (en) Information processor, processing method and program
JP4137044B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2009131693A (en) Game program and game apparatus
JP4863526B2 (en) GAME PROGRAM AND GAME DEVICE
JP4430708B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP3791691B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME METHOD
JP2007029442A (en) Game program, apparatus and method
JP2009189646A (en) Game program, game device and game control method
JP2006122409A (en) Game program, game apparatus and game method
JP4925228B2 (en) GAME PROGRAM, GAME DEVICE, GAME PROCESSING METHOD, AND GAME SYSTEM
JP2006087497A (en) Game program, game device and game method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121225

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4430707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131225

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250