JP4726965B2 - Input processing program and input processing apparatus - Google Patents

Input processing program and input processing apparatus Download PDF

Info

Publication number
JP4726965B2
JP4726965B2 JP2009011820A JP2009011820A JP4726965B2 JP 4726965 B2 JP4726965 B2 JP 4726965B2 JP 2009011820 A JP2009011820 A JP 2009011820A JP 2009011820 A JP2009011820 A JP 2009011820A JP 4726965 B2 JP4726965 B2 JP 4726965B2
Authority
JP
Japan
Prior art keywords
input
virtual
dimensional space
moving
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009011820A
Other languages
Japanese (ja)
Other versions
JP2009093680A (en
Inventor
秀樹 紺野
嘉孝 味岡
靖 海老澤
潔 水木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2009011820A priority Critical patent/JP4726965B2/en
Publication of JP2009093680A publication Critical patent/JP2009093680A/en
Application granted granted Critical
Publication of JP4726965B2 publication Critical patent/JP4726965B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、入力処理プログラムおよび入力処理装置に関し、より特定的には、仮想3次元空間に対して表示画面上の2次元座標を入力するデバイスを用いて操作する入力処理プログラムおよび入力処理装置に関する。   The present invention relates to an input processing program and an input processing device, and more specifically to an input processing program and an input processing device that operate using a device that inputs a two-dimensional coordinate on a display screen to a virtual three-dimensional space. .

従来、表示画面に表示される仮想3次元空間に対して、当該表示画面上の2次元座標を入力するタッチパネルを用いて操作する技術が開示されている(例えば、特許文献1および2参照)。これらの技術は、いずれも表示画面上に仮想3次元空間を表示し、当該表示画面に関連してタッチパネル等を設ける。そして、ユーザのタッチパネルの押下位置に基づいて3次元空間内のXおよびY座標を決定し、ユーザがタッチパネルを押圧する大きさに基づいて3次元空間内のZ座標(奥行方向)を決定する。   Conventionally, a technique for operating a virtual three-dimensional space displayed on a display screen using a touch panel for inputting two-dimensional coordinates on the display screen has been disclosed (see, for example, Patent Documents 1 and 2). Each of these technologies displays a virtual three-dimensional space on a display screen, and a touch panel or the like is provided in association with the display screen. Then, the X and Y coordinates in the three-dimensional space are determined based on the pressed position of the user's touch panel, and the Z coordinate (depth direction) in the three-dimensional space is determined based on the size with which the user presses the touch panel.

特開平11−7372号公報Japanese Patent Laid-Open No. 11-7372 特開2004−70920号公報JP 2004-70920 A

しかしながら、上述した従来技術では、タッチパネル等の押圧する大きさを検出するために、感圧素子等の押圧検出機能を新たに設ける必要があり、装置自体が複雑となりコスト増加の原因となる。また、ユーザが仮想3次元空間内の奥行方向に対して大きな入力をするとき、タッチパネルを強く押下しなければならないので、タッチパネルに多大な負荷がかかることになる。そのため、タッチパネルが故障しやすくなったり、寿命が短くなったりするといった問題があった。   However, in the above-described prior art, it is necessary to newly provide a pressure detection function such as a pressure sensitive element in order to detect the size of the touch panel or the like to be pressed, which complicates the apparatus itself and causes an increase in cost. Further, when the user makes a large input with respect to the depth direction in the virtual three-dimensional space, the touch panel must be pressed down strongly, so that a great load is applied to the touch panel. For this reason, there has been a problem that the touch panel is liable to break down or the life is shortened.

それ故に、本発明の目的は、表示画面上の2次元座標を入力するデバイスからの入力に基づいて仮想3次元空間に対する座標を求める入力処理プログラムおよび入力処理装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an input processing program and an input processing device that obtain coordinates for a virtual three-dimensional space based on an input from a device that inputs two-dimensional coordinates on a display screen.

上記目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号やステップ番号等は、本発明の理解を助けるために、後述する図面との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。   In order to achieve the above object, the present invention employs the following configuration. Note that the reference numerals, step numbers, and the like in parentheses indicate correspondence with the drawings described later in order to help understanding of the present invention, and do not limit the scope of the present invention.

第1の発明は、入力処理装置(1)のコンピュータ(21)に実行されるプログラムである。入力処理装置は、表示画面(12)と、その表示画面上に対応する2次元座標を入力するポインティングデバイス(13)とを備えている。プログラムは、表示制御ステップ(S57)、2次元座標検出ステップ(S54)、2次元座標変化量算出ステップ(S72)、および3次元座標変化量変換ステップ(S73)をコンピュータに実行させる。表示制御ステップは、表示画面に仮想3次元空間を表示する(図3、図4)。2次元座標検出ステップは、ポインティングデバイスから入力された2次元座標を検出する。2次元座標変化量算出ステップは、所定の算出開始条件(S51でYes、S52でNo)に応じて、2次元座標検出ステップによって検出された2次元座標の単位時間における変化量(ベクトルv)を算出する。3次元座標変化量変換ステップは、2次元座標変化量算出ステップによって算出された変化量を、仮想3次元空間内における3次元座標変化量(ベク
トルV)に変換する。なお、ポインティングデバイスは、表示画面上での2次元座標を指定する入力装置であり、例えば、タッチパネル、マウス、トラックパッド、トラックボールなどで実現される。そして、それぞれの入力装置で用いられる座標系は、タッチパネル座標系や画面座標系である。
The first invention is a program executed by the computer (21) of the input processing device (1). The input processing device includes a display screen (12) and a pointing device (13) for inputting corresponding two-dimensional coordinates on the display screen. The program causes the computer to execute a display control step (S57), a two-dimensional coordinate detection step (S54), a two-dimensional coordinate change calculation step (S72), and a three-dimensional coordinate change conversion step (S73). The display control step displays a virtual three-dimensional space on the display screen (FIGS. 3 and 4). In the two-dimensional coordinate detection step, two-dimensional coordinates input from the pointing device are detected. The two-dimensional coordinate change amount calculating step calculates the change amount (vector v) in the unit time of the two-dimensional coordinates detected by the two-dimensional coordinate detection step according to a predetermined calculation start condition (Yes in S51, No in S52). calculate. The three-dimensional coordinate change amount conversion step converts the change amount calculated by the two-dimensional coordinate change amount calculation step into a three-dimensional coordinate change amount (vector V) in the virtual three-dimensional space. The pointing device is an input device that designates two-dimensional coordinates on the display screen, and is realized by, for example, a touch panel, a mouse, a track pad, or a track ball. A coordinate system used in each input device is a touch panel coordinate system or a screen coordinate system.

第2の発明は、上記第1の発明において、入力状態判別ステップ(S52)を、さらにコンピュータに実行させる。入力状態判別ステップは、ポインティングデバイスからの入力の状態を判別する。2次元座標変化量算出ステップは、入力状態判別ステップがポインティングデバイスからの入力が継続的に行われている状態(S52でYes)から無入力の状態(S52でNo)へ変化したことを判別したことを算出開始条件として、その無入力の状態の直前に2次元座標検出ステップが検出した単位時間における2次元座標の変化量を算出する。   In a second aspect based on the first aspect, the computer further executes an input state determination step (S52). In the input state determination step, the state of input from the pointing device is determined. The two-dimensional coordinate change amount calculating step determines that the input state determining step has changed from a state where the input from the pointing device is continuously performed (Yes in S52) to a state where there is no input (No in S52). As a calculation start condition, the change amount of the two-dimensional coordinate in the unit time detected by the two-dimensional coordinate detection step immediately before the no-input state is calculated.

第3の発明は、上記第2の発明において、表示制御ステップは、仮想3次元空間内に所定の仮想投影面(図5のS3)を設定し(S53)、入力状態判別ステップがポインティングデバイスからの入力が継続的に行われている状態であると判別しているとき、2次元座標検出ステップが検出した2次元座標をその仮想投影面上に投影した位置に所定のオブジェクト(I)を表示する(図3)。表示制御ステップは、3次元座標変化量変換ステップが3次元座標変化量に変換したとき、その3次元座標変化量に基づいてオブジェクトを仮想投影面から離して仮想3次元空間内を移動させて表示する(図4(b))。   In a third aspect based on the second aspect, the display control step sets a predetermined virtual projection plane (S3 in FIG. 5) in the virtual three-dimensional space (S53), and the input state determination step is performed from the pointing device. When it is determined that the input is continuously performed, the predetermined object (I) is displayed at the position where the two-dimensional coordinates detected by the two-dimensional coordinate detection step are projected on the virtual projection plane. (FIG. 3). In the display control step, when the three-dimensional coordinate change amount conversion step converts to a three-dimensional coordinate change amount, the object is moved away from the virtual projection plane and displayed in the virtual three-dimensional space based on the three-dimensional coordinate change amount. (FIG. 4B).

第4の発明は、上記第3の発明において、表示制御ステップは、入力状態判別ステップがポインティングデバイスからの入力が継続的に行われている状態であると判別しているとき、2次元座標検出ステップが検出した2次元座標に基づいて、その仮想投影面に投影するオブジェクトの表示角度(θ)を制御する(S55、図8)。   In a fourth aspect based on the third aspect, when the display control step determines that the input state determination step is a state in which input from the pointing device is continuously performed, two-dimensional coordinate detection is performed. Based on the two-dimensional coordinates detected by the step, the display angle (θ) of the object projected onto the virtual projection plane is controlled (S55, FIG. 8).

第5の発明は、上記第3の発明において、移動軌跡算出ステップ(S59)を、さらにコンピュータに実行させる。移動軌跡算出ステップは、3次元座標変化量変換ステップが変換した3次元座標変化量を仮想3次元空間におけるオブジェクトの初期的な移動ベクトル(V)に設定して、その仮想3次元空間における単位時間毎の移動軌跡を算出する。表示制御ステップは、移動軌跡算出ステップが算出する移動軌跡に基づいて、オブジェクトを仮想投影面から離して仮想3次元空間内を移動させて表示する。   In a fifth aspect based on the third aspect, the computer further executes a movement trajectory calculating step (S59). The movement trajectory calculation step sets the three-dimensional coordinate change amount converted by the three-dimensional coordinate change amount conversion step to the initial movement vector (V) of the object in the virtual three-dimensional space, and unit time in the virtual three-dimensional space Each movement trajectory is calculated. In the display control step, based on the movement locus calculated by the movement locus calculation step, the object is moved away from the virtual projection plane and moved in the virtual three-dimensional space for display.

第6の発明は、上記第5の発明において、表示制御ステップは、入力状態判別ステップがポインティングデバイスからの入力が継続的に行われている状態であると判別しているとき、2次元座標検出ステップが検出した2次元座標に基づいて、その仮想投影面に投影するオブジェクトの表示角度を制御する。移動軌跡算出ステップは、表示角度に応じてオブジェクトの初期的な法線ベクトル(n)を設定して、その仮想3次元空間における単位時間毎の移動軌跡を移動ベクトルおよび法線ベクトルに基づいて算出する。   In a sixth aspect based on the fifth aspect, when the display control step determines that the input state determination step is a state in which input from the pointing device is continuously performed, two-dimensional coordinate detection is performed. Based on the two-dimensional coordinates detected by the step, the display angle of the object projected on the virtual projection plane is controlled. In the movement trajectory calculation step, an initial normal vector (n) of the object is set according to the display angle, and the movement trajectory per unit time in the virtual three-dimensional space is calculated based on the movement vector and the normal vector. To do.

第7の発明は、上記第1の発明において、3次元座標変化量変換ステップは、2次元座標変化量算出ステップによって算出された第1軸および第2軸に対する変化量(vx、vy)に基づいて、その第1軸および第2軸に垂直な第3軸に対する変化量(Vz)を算出して、3次元座標変化量に変換する。   In a seventh aspect based on the first aspect, the three-dimensional coordinate change amount conversion step is based on the change amounts (vx, vy) with respect to the first axis and the second axis calculated by the two-dimensional coordinate change amount calculation step. Then, a change amount (Vz) with respect to the third axis perpendicular to the first axis and the second axis is calculated and converted into a three-dimensional coordinate change amount.

第8の発明は、上記第7の発明において、3次元座標変化量変換ステップは、2次元座標変化量算出ステップによって算出された第1軸に対する変化量をvxおよび第2軸に対する変化量をvyとし、所定の定数をa、b、c、d、e、およびfとしたとき、3次元座標変化量として示されるその第1軸に対する変化量Vx、その第2軸に対する変化量Vy、および第3軸に対する変化量Vzを、   In an eighth aspect based on the seventh aspect, in the three-dimensional coordinate change amount conversion step, the change amount with respect to the first axis and the change amount with respect to the second axis calculated by the two-dimensional coordinate change amount calculation step are indicated as vy. Where the predetermined constants are a, b, c, d, e, and f, the change amount Vx with respect to the first axis, the change amount Vy with respect to the second axis, and the The amount of change Vz for the three axes is

を用いて演算する。 Calculate using.

第9の発明は、上記第8の発明において、定数a、b、c、d、e、およびfは、それぞれオブジェクトの種類に応じてそれぞれ異なる(図7)。   In a ninth aspect based on the eighth aspect, the constants a, b, c, d, e, and f are different depending on the type of the object (FIG. 7).

第10の発明は、入力処理装置のコンピュータに実行されるプログラムである。入力処理装置は、表示画面と、その表示画面上に対応する2次元座標を入力するポインティングデバイスとを備え、その表示画面に仮想3次元空間を表示する。プログラムは、投影面設定ステップ(S53)、2次元座標検出ステップ(S54)、投影面上移動ステップ(S54)、3次元空間内移動ステップ(S59)、および表示制御ステップ(S57)をコンピュータに実行させる。投影面設定ステップは、仮想3次元空間内に仮想投影面を設定する。2次元座標検出ステップは、ポインティングデバイスから入力された2次元座標を検出する。投影面上移動ステップは、2次元座標検出ステップが検出した2次元座標を仮想投影面上に投影することによって、その2次元座標に応じたその仮想投影面上の位置に所定のオブジェクトを移動させる。3次元空間内移動ステップは、所定の入力条件に応じて、オブジェクトを仮想投影面から離れた仮想3次元空間内を移動させる。表示制御ステップは、投影面上移動ステップまたは3次元空間内移動ステップによって移動するオブジェクトを仮想3次元空間内で表現して表示画面に表示する。   A tenth invention is a program executed by a computer of an input processing device. The input processing device includes a display screen and a pointing device that inputs corresponding two-dimensional coordinates on the display screen, and displays a virtual three-dimensional space on the display screen. The program executes a projection plane setting step (S53), a two-dimensional coordinate detection step (S54), a projection plane movement step (S54), a three-dimensional space movement step (S59), and a display control step (S57). Let In the projection plane setting step, a virtual projection plane is set in the virtual three-dimensional space. In the two-dimensional coordinate detection step, two-dimensional coordinates input from the pointing device are detected. The movement step on the projection plane projects the two-dimensional coordinates detected by the two-dimensional coordinate detection step onto the virtual projection plane, thereby moving a predetermined object to a position on the virtual projection plane according to the two-dimensional coordinates. . In the movement step in the three-dimensional space, the object is moved in the virtual three-dimensional space away from the virtual projection plane according to a predetermined input condition. In the display control step, an object that is moved by the movement step on the projection plane or the movement step in the three-dimensional space is expressed in the virtual three-dimensional space and displayed on the display screen.

第11の発明は、表示画面、ポインティングデバイス、表示制御手段、2次元座標検出手段、2次元座標変化量算出手段、および3次元座標変化量変換手段を備える入力処理装置である。ポインティングデバイスは、表示画面上に対応する2次元座標を入力する。表示制御手段は、表示画面に仮想3次元空間を表示する。2次元座標検出手段は、ポインティングデバイスから入力された2次元座標を検出する。2次元座標変化量算出手段は、所定の算出開始条件に応じて、2次元座標検出手段によって検出された2次元座標の単位時間における変化量を算出する。3次元座標変化量変換手段は、2次元座標変化量算出手段によって算出された変化量を、仮想3次元空間内における3次元座標変化量に変換する。   An eleventh invention is an input processing apparatus including a display screen, a pointing device, display control means, two-dimensional coordinate detection means, two-dimensional coordinate change amount calculation means, and three-dimensional coordinate change amount conversion means. The pointing device inputs corresponding two-dimensional coordinates on the display screen. The display control means displays a virtual three-dimensional space on the display screen. The two-dimensional coordinate detection means detects a two-dimensional coordinate input from the pointing device. The two-dimensional coordinate change amount calculation means calculates the change amount in unit time of the two-dimensional coordinates detected by the two-dimensional coordinate detection means in accordance with a predetermined calculation start condition. The three-dimensional coordinate change amount conversion means converts the change amount calculated by the two-dimensional coordinate change amount calculation means into a three-dimensional coordinate change amount in the virtual three-dimensional space.

第12の発明は、表示画面、ポインティングデバイス、投影面設定手段、2次元座標検出手段、投影面上移動手段、3次元空間内移動手段、および表示制御手段を備える入力処理装置である。表示画面は、仮想3次元空間を表示する。ポインティングデバイスは、表示画面上に対応する2次元座標を入力する。投影面設定手段は、仮想3次元空間内に仮想投影面を設定する。2次元座標検出手段は、ポインティングデバイスから入力された2次元座標を検出する。投影面上移動手段は、2次元座標検出手段が検出した2次元座標を仮想投影面上に投影することによって、その2次元座標に応じたその仮想投影面上の位置に所定のオブジェクトを移動させる。3次元空間内移動手段は、所定の入力条件に応じて、オブジェクトを仮想投影面から離れた仮想3次元空間内を移動させる。表示制御手段は、投影面上移動手段または3次元空間内移動手段によって移動するオブジェクトを仮想3次元空間内で表現して表示画面に表示する。   A twelfth aspect of the present invention is an input processing apparatus including a display screen, a pointing device, a projection plane setting unit, a two-dimensional coordinate detection unit, a projection plane moving unit, a three-dimensional space moving unit, and a display control unit. The display screen displays a virtual three-dimensional space. The pointing device inputs corresponding two-dimensional coordinates on the display screen. The projection plane setting means sets a virtual projection plane in the virtual three-dimensional space. The two-dimensional coordinate detection means detects a two-dimensional coordinate input from the pointing device. The movement means on the projection plane projects the two-dimensional coordinates detected by the two-dimensional coordinate detection means onto the virtual projection plane, thereby moving a predetermined object to a position on the virtual projection plane corresponding to the two-dimensional coordinates. . The moving means in the three-dimensional space moves the object in the virtual three-dimensional space away from the virtual projection plane according to a predetermined input condition. The display control means expresses the object moved by the movement means on the projection plane or the movement means in the three-dimensional space in the virtual three-dimensional space and displays it on the display screen.

第13の発明は、上記第11および第12の発明のいずれかにおいて、ポインティングデバイスは、表示画面を覆うタッチパネルである。   In a thirteenth aspect based on any one of the eleventh and twelfth aspects, the pointing device is a touch panel that covers the display screen.

上記第1の発明によれば、所定の算出開始条件に応じて、2次元座標における変化量を3次元座標の変化量に変換するので、第3軸の変化量を得るための押圧検出機能等の特別な入力装置を設けることなく簡単な構成で2次元座標を3次元座標へ変換することができる。また、背景技術のようにユーザからの押圧を検出しないので、タッチパネル等のポインティングデバイスに多大な負担がかかることがなく、故障が多くなったり寿命が短くなったりするといったデバイス信頼性の低下を回避することができる。   According to the first aspect of the invention, since the change amount in the two-dimensional coordinates is converted into the change amount in the three-dimensional coordinates in accordance with a predetermined calculation start condition, the pressure detection function for obtaining the change amount in the third axis, etc. It is possible to convert the two-dimensional coordinates into the three-dimensional coordinates with a simple configuration without providing any special input device. In addition, since it does not detect a user's press as in the background art, it does not impose a heavy burden on the pointing device such as a touch panel, and avoids a decrease in device reliability such as increased failure or shorter life. can do.

上記第2の発明によれば、ポインティングデバイスへの入力が継続的に行われている状態から無入力状態への変化を条件として、無入力の状態の直前に検出された2次元座標に基づいて3次元座標に変換する。したがって、簡単な操作で2次元座標に基づいた入力制御から仮想3次元空間における3次元座標に基づいた入力に適宜切り替えて制御することができる。   According to the second invention, based on the two-dimensional coordinates detected immediately before the no-input state, on condition that the input to the pointing device is continuously performed to the no-input state. Convert to 3D coordinates. Therefore, the input control based on the two-dimensional coordinates can be appropriately switched from the input control based on the two-dimensional coordinates to the input based on the three-dimensional coordinates in the virtual three-dimensional space with a simple operation.

上記第3の発明によれば、表示画面上の2次元座標を入力するポインティングデバイスからの2次元入力座標に応じて仮想投影面上をオブジェクトが移動し、ポインティングデバイスからの入力が無入力になると仮想投影面を離れて仮想3次元空間に当該オブジェクトが移動するような入力処理を実現することができる。例えば、ポインティングデバイスからの入力が継続している間は3次元ゲーム空間に設定された仮想投影面上をアイテムが移動し、ポインティングデバイスからの入力が無入力になるとアイテムが仮想投影面からゲーム空間に投げ入れられるようなゲーム処理を実現できる。   According to the third aspect, when the object moves on the virtual projection surface in accordance with the two-dimensional input coordinates from the pointing device that inputs the two-dimensional coordinates on the display screen, and no input is made from the pointing device. An input process in which the object moves away from the virtual projection plane and moves into the virtual three-dimensional space can be realized. For example, while the input from the pointing device continues, the item moves on the virtual projection plane set in the three-dimensional game space, and when the input from the pointing device becomes no input, the item moves from the virtual projection plane to the game space. Game processing that can be thrown into the game can be realized.

上記第4の発明によれば、ポインティングデバイスから入力される2次元座標に基づいて、オブジェクトの表示角度を制御することができる。   According to the fourth aspect, the display angle of the object can be controlled based on the two-dimensional coordinates input from the pointing device.

上記第5の発明によれば、変換された3次元座標変化量に基づいてオブジェクトの移動軌跡を変化させるので、バリエーションに富んだ移動軌跡を表示することができる。   According to the fifth aspect, since the movement trajectory of the object is changed based on the converted three-dimensional coordinate change amount, it is possible to display a movement trajectory rich in variations.

上記第6の発明によれば、さらに2次元座標に応じて変化するオブジェクトの表示角度から得られる法線ベクトルに基づいてオブジェクトの移動軌跡を変化させるので、ポインティングデバイスにおける指示位置に応じてバリエーションに富んだ移動軌跡を表示することができる。   According to the sixth aspect of the invention, since the movement trajectory of the object is changed based on the normal vector obtained from the display angle of the object that changes according to the two-dimensional coordinates, the variation according to the indicated position on the pointing device can be used. A rich trajectory can be displayed.

上記第7の発明によれば、2次元座標の変化量に基づいて、2次元座標軸を構成する2軸に垂直な第3軸成分を算出するため、2次元座標の変化量から3次元座標の変化量を容易に求めることができる。   According to the seventh aspect of the invention, since the third axis component perpendicular to the two axes constituting the two-dimensional coordinate axis is calculated based on the change amount of the two-dimensional coordinate, The amount of change can be easily obtained.

上記第8の発明によれば、2次元座標の変化量から3次元座標の変化量を求める際、行列式を用いてそれぞれの軸に対する変化量を容易に求めることができる。   According to the eighth aspect, when the change amount of the three-dimensional coordinate is obtained from the change amount of the two-dimensional coordinate, the change amount with respect to each axis can be easily obtained using a determinant.

上記第9の発明によれば、オブジェクトの種類に応じて3次元座標の変化量が求められるため、オブジェクトの仮想3次元空間内での移動制御のバリエーションを増やすことができる。   According to the ninth aspect, since the amount of change in three-dimensional coordinates is determined according to the type of object, variations in movement control of the object in the virtual three-dimensional space can be increased.

上記第10の発明によれば、表示画面上の2次元座標を入力するポインティングデバイスからの入力座標に応じて仮想投影面上をオブジェクトが移動し、所定の入力条件に応じて仮想投影面から仮想3次元空間内に当該オブジェクトが移動するような入力制御を実現できる。   According to the tenth aspect of the invention, the object moves on the virtual projection plane in accordance with the input coordinates from the pointing device that inputs the two-dimensional coordinates on the display screen, and the virtual projection plane is virtualized in accordance with the predetermined input condition. It is possible to realize input control such that the object moves in the three-dimensional space.

また、本発明の入力制御装置によれば、上述した入力制御プログラムと同様の効果を得ることができる。   Moreover, according to the input control device of the present invention, the same effect as the above-described input control program can be obtained.

本発明の一実施形態に係るゲームプログラムを実行するゲーム装置1の外観図1 is an external view of a game apparatus 1 that executes a game program according to an embodiment of the present invention. 図1のゲーム装置1のブロック図Block diagram of game device 1 of FIG. ゲーム空間に投入するためのアイテムIの初期位置を決定する様子を示す第2LCD12の表示画面例Display screen example of the second LCD 12 showing how to determine the initial position of the item I to be inserted into the game space アイテムIをゲーム空間に投げ入れる操作の様子および投げ入れられたアイテムIのゲーム空間内における移動動作の様子を示す第2LCD12の表示画面例Example of a display screen on the second LCD 12 showing an operation of throwing the item I into the game space and a moving operation of the thrown item I in the game space 仮想3次元ゲーム空間および仮想投影面を説明するための概念図Conceptual diagram for explaining a virtual three-dimensional game space and a virtual projection plane ベクトルv(vx、vy)およびベクトルV(Vx、Vy、Vz)を示す概念図Conceptual diagram showing vector v (vx, vy) and vector V (Vx, Vy, Vz) 座標変換の際に用いられる定数a〜fの設定例Example of setting constants a to f used for coordinate conversion アイテムIに初期設定される傾斜角度に応じたアイテムIの画面表示例Screen display example of item I according to the inclination angle initially set to item I アイテムIが仮想投影面を離れて仮想ゲーム空間内を移動する際に設定される移動ベクトルおよび法線ベクトルの概念図Conceptual diagram of movement vector and normal vector set when item I moves away from the virtual projection plane and moves in the virtual game space 本発明のゲームプログラムを実行することによってゲーム装置1が処理する動作を示すフローチャートThe flowchart which shows the operation | movement which the game device 1 processes by running the game program of this invention. 本発明のゲームプログラムを実行することによってゲーム装置1が処理する動作を示すフローチャートThe flowchart which shows the operation | movement which the game device 1 processes by running the game program of this invention.

図面を参照して、本発明の一実施形態に係るゲームプログラムを実行するゲーム装置について説明する。なお、図1は、本発明のゲームプログラムを実行するゲーム装置1の外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。また、以下の説明で用いるゲームプログラムが本発明の入力処理プログラムの一例であり、ゲーム装置1が本発明の入力処理装置の一例である。   A game device that executes a game program according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an external view of a game apparatus 1 that executes the game program of the present invention. Here, a portable game device is shown as an example of the game device 1. The game program used in the following description is an example of the input processing program of the present invention, and the game apparatus 1 is an example of the input processing apparatus of the present invention.

図1において、本実施形態のゲーム装置1は、2つの液晶表示器(LCD)11および12を所定の配置位置となるように、ハウジング18に収納して構成される。具体的には、第1液晶表示器(以下、「LCD」という)11および第2LCD12を互いに上下に配置して収納する場合は、ハウジング18が下部ハウジング18aおよび上部ハウジング18bから構成され、上部ハウジング18bが下部ハウジング18aの上辺の一部で回動自在に支持される。上部ハウジング18bは、第1LCD11の平面形状よりも少し大きな平面形状を有し、一方主面から第1LCD11の表示画面を露出するように開口部が形成される。下部ハウジング18aは、その平面形状が上部ハウジング18bよりも横長に選ばれ、横方向の略中央部に第2LCD12の表示画面を露出する開口部が形成され、第2LCD12を挟む何れか一方にスピーカ15の音抜き孔が形成されるとともに、第2LCD12を挟む左右に操作スイッチ部14が装着される。   In FIG. 1, the game apparatus 1 of the present embodiment is configured by housing two liquid crystal displays (LCD) 11 and 12 in a housing 18 so as to be in a predetermined arrangement position. Specifically, in the case where the first liquid crystal display (hereinafter referred to as “LCD”) 11 and the second LCD 12 are placed one above the other, the housing 18 includes a lower housing 18a and an upper housing 18b. 18b is rotatably supported by a part of the upper side of the lower housing 18a. The upper housing 18b has a planar shape slightly larger than the planar shape of the first LCD 11, and an opening is formed so as to expose the display screen of the first LCD 11 from one main surface. The lower housing 18a has a planar shape that is longer than that of the upper housing 18b, an opening that exposes the display screen of the second LCD 12 is formed in a substantially central portion in the horizontal direction, and the speaker 15 is sandwiched between either of the two LCDs 12. The sound switch hole 14 is formed, and the operation switch unit 14 is mounted on the left and right sides of the second LCD 12.

操作スイッチ部14は、第2LCD12の右横における下部ハウジング18aの一方主面に装着される動作スイッチ(Aボタン)14aおよび動作スイッチ(Bボタン)14bと、第2LCD12の左横における下部ハウジング18aの一方主面に装着される方向指示スイッチ(十字キー)14cと、スタートスイッチ14dと、セレクトスイッチ14eと、側面スイッチ14fおよび14gとを含む。動作スイッチ14aおよび14bは、例えばサッカーゲーム等のスポーツゲームにおいてはパスやシュートを行う等の指示、アクションゲームにおいてはジャンプ、パンチ、武器を動かす等の指示、ロールプレイングゲーム(RPG)やシミュレーションRPGにおいてはアイテムの取得、武器またはコマンドの選択決定等の指示入力に使用される。方向指示スイッチ14cは、プレイヤによって操作スイッチ部14を用いて操作可能なプレイヤオブジェクト(またはプレイヤキャラクタ)の移動方向を指示したり、カーソルの移動方向を指示したりする等のゲーム画面における方向指示に用いられる。側面スイッチ(Lボタン)14fおよび側面スイッチ(Rボタン)14gは、下部ハウジング18aにおける上部面(上部側面)の左右に設けられる。また、必要に応じて、動作スイッチをさらに追加してもかまわない。   The operation switch unit 14 includes an operation switch (A button) 14a and an operation switch (B button) 14b mounted on one main surface of the lower housing 18a on the right side of the second LCD 12, and a lower housing 18a on the left side of the second LCD 12. On the other hand, it includes a direction indicating switch (cross key) 14c mounted on the main surface, a start switch 14d, a select switch 14e, and side switches 14f and 14g. The operation switches 14a and 14b are, for example, instructions such as passing and shooting in a sports game such as a soccer game, instructions such as jumping, punching and moving a weapon in an action game, role playing games (RPG) and simulation RPG. Is used to input instructions for obtaining items, selecting weapons or commands, etc. The direction indicating switch 14c is used to indicate a direction on the game screen, such as instructing the moving direction of a player object (or player character) that can be operated by the player using the operation switch unit 14, or instructing the moving direction of the cursor. Used. The side switch (L button) 14f and the side switch (R button) 14g are provided on the left and right of the upper surface (upper side surface) of the lower housing 18a. Further, if necessary, an operation switch may be further added.

また、第2LCD12の上面には、本発明の入力装置の一例としてタッチパネル13(図1における破線領域)が装着される。タッチパネル13は、例えば、抵抗膜方式、光学式(赤外線方式)、静電容量結合式の何れの種類でもよく、その上面をスタイラス16(または指でも可)で押圧操作、移動操作、または撫でる操作をしたとき、スタイラス16の座標位置を検出して座標データを出力する2次元ポインティングデバイスである。   Further, on the upper surface of the second LCD 12, a touch panel 13 (broken area in FIG. 1) is mounted as an example of the input device of the present invention. The touch panel 13 may be, for example, any type of resistive film type, optical type (infrared type), and capacitive coupling type, and the upper surface of the touch panel 13 is pressed, moved, or stroked with a stylus 16 (or a finger). This is a two-dimensional pointing device that detects the coordinate position of the stylus 16 and outputs coordinate data.

上部ハウジング18bの側面近傍には、必要に応じてタッチパネル13を操作するスタイラス16を収納するための収納孔(図1における二点破線領域)が形成される。この収納孔には、スタイラス16が収納される。下部ハウジング18aの側面の一部には、ゲームプログラムを記憶したメモリ(例えば、ROM)を内蔵したゲームカートリッジ17(以下、単にカートリッジ17と記載する)を着脱自在に装着するためのカートリッジ挿入部(図1における一点破線領域)が形成される。カートリッジ17は、ゲームプログラムを記憶する情報記憶媒体であり、例えば、ROMまたはフラッシュメモリのような不揮発性半導体メモリが用いられる。カートリッジ挿入部の内部には、カートリッジ17と電気的に接続するためのコネクタ(図2参照)が内蔵される。さらに、下部ハウジング18a
(または上部ハウジング18bでも可)には、CPU等の各種電子部品を実装した電子回路基板が収納される。なお、ゲームプログラムを記憶する情報記憶媒体としては、上記不揮発性半導体メモリに限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。
In the vicinity of the side surface of the upper housing 18b, a storage hole (a two-dot broken line region in FIG. 1) for storing the stylus 16 that operates the touch panel 13 as necessary is formed. The stylus 16 is stored in the storage hole. In a part of the side surface of the lower housing 18a, a cartridge insertion portion (for inserting a game cartridge 17 (hereinafter simply referred to as a cartridge 17) having a built-in memory (for example, ROM) storing a game program in a detachable manner. A one-dot broken line region in FIG. 1) is formed. The cartridge 17 is an information storage medium for storing a game program, and for example, a nonvolatile semiconductor memory such as a ROM or a flash memory is used. A connector (see FIG. 2) for electrical connection with the cartridge 17 is built in the cartridge insertion portion. Further, the lower housing 18a
An electronic circuit board on which various electronic components such as a CPU are mounted is accommodated in (or may be the upper housing 18b). The information storage medium for storing the game program is not limited to the non-volatile semiconductor memory, but may be a CD-ROM, a DVD, or an optical disk storage medium similar to them.

図2は、ゲーム装置1のブロック図である。図2において、ハウジング18に収納される電子回路基板20には、CPUコア21が実装される。CPUコア21には、所定のバスを介して、コネクタ28が接続されるとともに、入出力インターフェース(I/F)回路27、第1グラフィック処理ユニット(第1GPU)24、第2グラフィック処理ユニット(第2GPU)26、WRAM22、およびLCDコントローラ29が接続される。コネクタ28には、カートリッジ17が着脱自在に接続される。カートリッジ17は、ゲームプログラムを格納するための記憶媒体であり、具体的には、ゲームプログラムを記憶するROM171とバックアップデータを書き換え可能に記憶するRAM172とを搭載する。カートリッジ17のROM171に記憶されたゲームプログラムは、WRAM22にロードされ、当該WRAM22にロードされたゲームプログラムがCPUコア21によって実行される。CPUコア21は、ゲームプログラムを実行して得られる一時的なデータや画像を生成するためのデータをWRAM22に記憶する。I/F回路27には、操作スイッチ部14およびタッチパネル13が接続されるとともに、スピーカ15が接続される。   FIG. 2 is a block diagram of the game apparatus 1. In FIG. 2, a CPU core 21 is mounted on an electronic circuit board 20 accommodated in a housing 18. A connector 28 is connected to the CPU core 21 via a predetermined bus, and an input / output interface (I / F) circuit 27, a first graphic processing unit (first GPU) 24, and a second graphic processing unit (first graphic processor unit). 2GPU) 26, WRAM 22, and LCD controller 29 are connected. The cartridge 17 is detachably connected to the connector 28. The cartridge 17 is a storage medium for storing a game program. Specifically, the cartridge 17 includes a ROM 171 for storing the game program and a RAM 172 for storing backup data in a rewritable manner. The game program stored in the ROM 171 of the cartridge 17 is loaded into the WRAM 22, and the game program loaded into the WRAM 22 is executed by the CPU core 21. The CPU core 21 stores temporary data obtained by executing the game program and data for generating an image in the WRAM 22. The I / F circuit 27 is connected to the operation switch unit 14 and the touch panel 13 and to the speaker 15.

第1GPU24には、第1ビデオRAM(第1VRAM)23が接続され、第2GPU26には、第2ビデオRAM(第2VRAM)25が接続される。第1GPU24は、CPUコア21からの指示に応じて、WRAM22に記憶されている、画像を生成するためのデータに基づいて第1のゲーム画像を生成し、第1VRAM23に描画(格納)する。第2GPU26は、CPUコア21からの指示に応じて、WRAM22に記憶されている、画像を生成するためのデータに基づいて第2のゲーム画像を生成し、第2VRAM25に描画(格納)する。第1VRAM23および第2VRAM25はLCDコントローラ29に接続される。   A first video RAM (first VRAM) 23 is connected to the first GPU 24, and a second video RAM (second VRAM) 25 is connected to the second GPU 26. In response to an instruction from the CPU core 21, the first GPU 24 generates a first game image based on data for generating an image stored in the WRAM 22 and draws (stores) it in the first VRAM 23. In response to an instruction from the CPU core 21, the second GPU 26 generates a second game image based on data for generating an image stored in the WRAM 22, and draws (stores) it in the second VRAM 25. The first VRAM 23 and the second VRAM 25 are connected to the LCD controller 29.

LCDコントローラ29は、レジスタ291を含む。レジスタ291は、CPUコア21からの指示に応じて0または1の値を記憶する。LCDコントローラ29は、レジスタ291の値が0の場合は、第1VRAM23に描画されたゲーム画像を第1LCD11に出力し、第2VRAM25に描画されたゲーム画像を第2LCD12に出力する。また、レジスタ291の値が1の場合は、第1VRAM23に描画されたゲーム画像を第2LCD12に出力し、第2VRAM25に描画されたゲーム画像を第1LCD11に出力する。   The LCD controller 29 includes a register 291. The register 291 stores a value of 0 or 1 according to an instruction from the CPU core 21. When the value of the register 291 is 0, the LCD controller 29 outputs the game image drawn in the first VRAM 23 to the first LCD 11 and outputs the game image drawn in the second VRAM 25 to the second LCD 12. When the value of the register 291 is 1, the game image drawn in the first VRAM 23 is output to the second LCD 12, and the game image drawn in the second VRAM 25 is output to the first LCD 11.

I/F回路27は、操作スイッチ部14、タッチパネル13、およびスピーカ15などの外部入出力装置とCPUコア21との間のデータの受け渡しを行う回路である。タッチパネル13(タッチパネル用のデバイスドライバを含む)は、第2VRAM25の座標系に対応する座標系を有し、スタイラス16によって入力(指示)された位置に対応する位置座標のデータを出力するものである。なお、本実施例では、第2LCD12の表示画面の解像度は256dot×192dotであり、タッチパネル13の検出精度も第2LCD12の表示画面に対応した256dot×192dotとして説明するが、タッチパネル13の検出精度は第2LCD12の表示画面の解像度よりも低いものであってもよいし、高いものであってもよい。   The I / F circuit 27 is a circuit that transfers data between the CPU core 21 and an external input / output device such as the operation switch unit 14, the touch panel 13, and the speaker 15. The touch panel 13 (including a touch panel device driver) has a coordinate system corresponding to the coordinate system of the second VRAM 25 and outputs position coordinate data corresponding to the position input (instructed) by the stylus 16. . In this embodiment, the resolution of the display screen of the second LCD 12 is 256 dots × 192 dots, and the detection accuracy of the touch panel 13 is described as 256 dots × 192 dots corresponding to the display screen of the second LCD 12, but the detection accuracy of the touch panel 13 is the first. The resolution of the display screen of the 2LCD 12 may be lower or higher.

以下、図3および図4を参照して、上記ゲーム装置1によって実行されるゲームプログラムによるゲーム処理の流れを、具体的な表示画面例を参照しながら説明する。なお、本実施例では、ゲーム装置1によって実行されるゲームがゲーム空間にアイテムを投げ入れ
るゲームの場合について説明するが、本発明はこのようなゲームに限定されるものではない。なお、図3は、ゲーム空間に投入するためのアイテムIの初期位置を決定する様子を示す第2LCD12の表示画面例である。図4(a)は、アイテムIをゲーム空間に投げ入れる操作の様子を示す第2LCD12の表示画面例である。図4(b)は、投げ入れられたアイテムIのゲーム空間内における移動動作の様子を示す第2LCD12の表示画面例である。
Hereinafter, with reference to FIG. 3 and FIG. 4, the flow of the game process by the game program executed by the game apparatus 1 will be described with reference to a specific display screen example. In addition, although a present Example demonstrates the case where the game performed by the game device 1 is a game which throws an item into game space, this invention is not limited to such a game. FIG. 3 is an example of a display screen on the second LCD 12 showing a state in which the initial position of the item I to be inserted into the game space is determined. FIG. 4A is an example of a display screen on the second LCD 12 showing an operation of throwing the item I into the game space. FIG. 4B is an example of a display screen on the second LCD 12 showing the state of movement of the thrown item I in the game space.

図3において、第2LCD12には仮想3次元ゲーム空間の様子が表示され、当該ゲーム空間に投入されるアイテムI(図3ではフライングディスクが示されている)が表示される。後述により明らかとなるが、第2LCD12には所定のカメラ視点に基づいた視体積に応じたゲーム空間が表示され、アイテムIは、当該視体積内に設定された仮想投影面に投影されている。プレイヤは、タッチパネル13を用いて第2LCD12に表示されたアイテムIの位置をタッチ操作して、ゲーム空間内においてアイテムIを移動させることができる。具体的には、プレイヤは、タッチパネル13を用いて第2LCD12に表示されたアイテムIをドラッグするタッチ操作(第2LCD12上でアイテムIと重なったタッチパネル13をタッチ操作し、そのままの状態でタッチ操作位置を移動させる)を行うと、タッチパネル13からの入力座標に応じた仮想投影面の位置にアイテムIが移動する。例えば、図3では、プレイヤがアイテムIを図示A方向に移動させた一例を示している。つまり、プレイヤは、アイテムIに対してドラッグするタッチ操作を行うことによって、アイテムIを仮想投影面上で移動させることができる。   In FIG. 3, the state of the virtual three-dimensional game space is displayed on the second LCD 12, and an item I (a flying disc is shown in FIG. 3) to be inserted into the game space is displayed. As will be described later, a game space corresponding to the viewing volume based on a predetermined camera viewpoint is displayed on the second LCD 12, and the item I is projected onto a virtual projection plane set in the viewing volume. The player can move the item I in the game space by touching the position of the item I displayed on the second LCD 12 using the touch panel 13. Specifically, the player performs a touch operation for dragging the item I displayed on the second LCD 12 using the touch panel 13 (the touch operation on the touch panel 13 overlapping the item I on the second LCD 12 is performed, and the touch operation position is left as it is. Is moved), the item I moves to the position of the virtual projection plane corresponding to the input coordinates from the touch panel 13. For example, FIG. 3 shows an example in which the player moves the item I in the direction A in the figure. That is, the player can move the item I on the virtual projection plane by performing a touch operation of dragging the item I.

プレイヤがアイテムIをドラッグするタッチ操作を行った後、タッチパネル13に対するタッチ操作を終了(つまり、タッチ操作しているスタイラス16等をタッチパネル13から離す)した場合、アイテムIが上記仮想投影面からゲーム空間内に投げ入れられる。図4(a)に示すように、プレイヤがアイテムIを図示B方向にドラッグするタッチ操作を行い、図示C点で当該タッチ操作を終了してスタイラス16等をタッチパネル13から離したとする。この場合、タッチ操作を終了する直前のタッチパネル13からの2次元座標情報に基づいて、アイテムIが上記仮想投影面からゲーム空間内に投げ入れられる。図4(b)に示すように、図示C点でタッチ操作を終了する直前のタッチパネル13による2次元座標情報(ベクトルB)に基づいて、仮想3次元ゲーム空間に設定された3次元座標情報(移動ベクトルD)が算出され、当該移動ベクトルDに基づいてアイテムIが仮想投影面を離れてゲーム空間内を移動する。   After the player performs the touch operation of dragging the item I, when the touch operation on the touch panel 13 is terminated (that is, the touched stylus 16 or the like is released from the touch panel 13), the item I is played from the virtual projection plane. It is thrown into the space. As shown in FIG. 4A, it is assumed that the player performs a touch operation of dragging the item I in the B direction in the figure, ends the touch operation at the point C in the figure, and releases the stylus 16 and the like from the touch panel 13. In this case, based on the two-dimensional coordinate information from the touch panel 13 immediately before the end of the touch operation, the item I is thrown into the game space from the virtual projection plane. As shown in FIG. 4B, based on the two-dimensional coordinate information (vector B) by the touch panel 13 immediately before the touch operation at the point C shown in the figure, the three-dimensional coordinate information (vector B) set in the virtual three-dimensional game space ( A movement vector D) is calculated, and based on the movement vector D, the item I leaves the virtual projection plane and moves in the game space.

次に、図5を参照して、第2LCD12に表示される仮想3次元ゲーム空間および仮想投影面について説明する。なお、図5は、仮想3次元ゲーム空間および仮想投影面を説明するための概念図である。   Next, the virtual three-dimensional game space and the virtual projection plane displayed on the second LCD 12 will be described with reference to FIG. FIG. 5 is a conceptual diagram for explaining the virtual three-dimensional game space and the virtual projection plane.

図5において、カメラ視点Pを基準として手前側クリップ面S1および奥側クリップ面S2が設定される。そして、第2LCD12には、仮想3次元ゲーム空間のうち、手前側クリップ面S1および奥側クリップ面S2で挟まれた視体積に設定される空間が表示される。仮想投影面S3は、上記視体積内に設定され、例えば手前側クリップ面S1に対して平行に配置される。そして、手前側クリップ面S1においてタッチパネル13のタッチパネル座標系が設定され、タッチパネル13からの入力座標が仮想投影面S3に投影される。なお、説明を簡単にするためにタッチパネル座標系が設定される手前側クリップ面S1と仮想投影面S3とが互いに平行の平面とするが、手前側クリップ面S1と仮想投影面S3とが平行でなくても入力座標の投影を同様に行うことができることは言うまでもない。また、仮想投影面S3が平面でなく球面等であっても入力座標の投影を同様に行うことができることは言うまでもない。   In FIG. 5, the near-side clip surface S1 and the back-side clip surface S2 are set with the camera viewpoint P as a reference. Then, the second LCD 12 displays a space set in the visual volume sandwiched between the near-side clip surface S1 and the back-side clip surface S2 in the virtual three-dimensional game space. The virtual projection plane S3 is set within the viewing volume, and is arranged in parallel with, for example, the near-side clip plane S1. Then, the touch panel coordinate system of the touch panel 13 is set on the near-side clip plane S1, and the input coordinates from the touch panel 13 are projected onto the virtual projection plane S3. In order to simplify the explanation, the near-side clip surface S1 and the virtual projection surface S3 on which the touch panel coordinate system is set are parallel to each other, but the near-side clip surface S1 and the virtual projection surface S3 are parallel to each other. Needless to say, the projection of the input coordinates can be performed in the same manner even without them. It goes without saying that the input coordinates can be similarly projected even if the virtual projection surface S3 is not a flat surface but a spherical surface or the like.

次に、図6および図7を参照して、2次元座標で示されるタッチパネル座標系から3次
元座標で示されるゲーム空間座標系への座標変換について説明する。図6(a)は、タッチパネル13に設定されたタッチパネル座標系に設定されるベクトルv(vx、vy)を示す概念図である。図6(b)は、仮想3次元ゲーム空間に設定された3次元座標に設定されるベクトルV(Vx、Vy、Vz)を示す概念図である。図7は、座標変換の際に用いられる定数a〜fの設定例である。
Next, with reference to FIGS. 6 and 7, coordinate conversion from a touch panel coordinate system indicated by two-dimensional coordinates to a game space coordinate system indicated by three-dimensional coordinates will be described. FIG. 6A is a conceptual diagram showing a vector v (vx, vy) set in the touch panel coordinate system set in the touch panel 13. FIG. 6B is a conceptual diagram showing a vector V (Vx, Vy, Vz) set to the three-dimensional coordinates set in the virtual three-dimensional game space. FIG. 7 is an example of setting constants a to f used for coordinate conversion.

図6(a)において、タッチパネル13に対してタッチパネル座標系における点q1(x1、y1)から点q2(x2、y2)までタッチ操作されたとき、点q1からq2まで結ぶベクトルv(vx、vy)が得られる。ここで、
vx=x2−x1
vy=y2−y1
である。
In FIG. 6A, when a touch operation is performed on the touch panel 13 from a point q1 (x1, y1) to a point q2 (x2, y2) in the touch panel coordinate system, a vector v (vx, vy) connecting the points q1 to q2 is operated. ) Is obtained. here,
vx = x2-x1
vy = y2-y1
It is.

そして、本実施例では、プレイヤがタッチパネル13に対して所定条件と一致する操作を行った際、当該操作を行う直前に設定された上記2次元ベクトルv(vx、vy)を座標変換して図6(b)に示すような3次元ベクトルV(Vx、Vy、Vz)を算出する。ここで、2次元ベクトルv(vx、vy)から3次元ベクトルV(Vx、Vy、Vz)への座標変換は、   In the present embodiment, when the player performs an operation on the touch panel 13 that matches the predetermined condition, the two-dimensional vector v (vx, vy) set immediately before the operation is coordinate-transformed. A three-dimensional vector V (Vx, Vy, Vz) as shown in FIG. Here, the coordinate transformation from the two-dimensional vector v (vx, vy) to the three-dimensional vector V (Vx, Vy, Vz) is

によって行われる。上記式に用いられている定数a〜fは、図7に示すようにゲーム空間に投入するアイテム毎に設定されている。例えば、アイテムIがフライングディスクの場合、定数a=1.0、b=0、c=0、d=0.5、e=0、f=2.0に設定されており、座標変換後ベクトルV(Vx、Vy、Vz)は、Vx=vx、Vy=0.5vy、Vz=2vyによって算出される。このように、本実施例の座標変換では、2次元座標系で設定される2点間の移動量(ベクトルv)として示される2軸それぞれに対する数値を用いて、3次元座標系で設定される移動量(ベクトルV)の3軸それぞれに対する数値が算出される。また、ゲーム空間に投入するアイテム毎に座標変換する定数が異なるため、座標変換においてアイテム毎の特性を表すことができる。 Is done by. The constants a to f used in the above formula are set for each item to be input into the game space as shown in FIG. For example, when the item I is a flying disc, constants a = 1.0, b = 0, c = 0, d = 0.5, e = 0, f = 2.0 are set, and the vector after coordinate conversion is set. V (Vx, Vy, Vz) is calculated by Vx = vx, Vy = 0.5 vy, and Vz = 2 vy. As described above, in the coordinate conversion of this embodiment, the value is set in the three-dimensional coordinate system using the numerical values for the two axes shown as the movement amount (vector v) between the two points set in the two-dimensional coordinate system. Numerical values for the three axes of the movement amount (vector V) are calculated. In addition, since the constant for coordinate conversion is different for each item put into the game space, the characteristics for each item can be expressed in the coordinate conversion.

次に、図8および図9を用いて、アイテムIが仮想投影面を離れて仮想ゲーム空間内を移動する際の移動軌跡の算出について説明する。なお、図8は、アイテムIに初期設定される傾斜角度に応じたアイテムIの画面表示例である。図9は、アイテムIが仮想投影面を離れて仮想ゲーム空間内を移動する際に設定される移動ベクトルおよび法線ベクトルの概念図である。   Next, the calculation of the movement trajectory when the item I leaves the virtual projection plane and moves in the virtual game space will be described with reference to FIGS. FIG. 8 is a screen display example of the item I corresponding to the inclination angle that is initially set for the item I. FIG. 9 is a conceptual diagram of movement vectors and normal vectors that are set when the item I leaves the virtual projection plane and moves in the virtual game space.

図8において、上述したようにプレイヤがタッチパネル13を用いて第2LCD12に表示されたアイテムIをドラッグするタッチ操作を行うと、タッチパネル13からの入力座標に応じた仮想投影面の位置にアイテムIが移動する。そして、タッチパネル13に対する図示xm方向(図8における横方向)の位置に応じて、アイテムIに初期設定される傾斜角度θが設定される。具体的には、タッチパネル13の中央をxm=0として、右方向を+xm、左方向を−xmとする。そして、傾斜角度θが
θ=jxm+k(j、kは定数)
で求められる。なお、タッチパネル13に対して縦方向となる図8における上方向を傾斜角度θ=0°とする。そして、第2LCD12には、傾斜角度θにアイテムIの法線方向を合わせて表示される。すなわち、アイテムIは、タッチパネル13に対する横方向の位
置に応じてその法線方向を傾斜させて表示される。そして、初期設定されたアイテムIの傾斜角度θに基づいて、法線ベクトルn=(sinθ、cosθ、0)が初期設定される。
In FIG. 8, when the player performs a touch operation by dragging the item I displayed on the second LCD 12 using the touch panel 13 as described above, the item I is placed at the position of the virtual projection plane corresponding to the input coordinates from the touch panel 13. Moving. Then, the inclination angle θ that is initially set for the item I is set according to the position in the illustrated xm direction (lateral direction in FIG. 8) with respect to the touch panel 13. Specifically, the center of the touch panel 13 is xm = 0, the right direction is + xm, and the left direction is -xm. And the inclination angle θ is θ = jxm + k (j and k are constants)
Is required. In addition, the upward direction in FIG. Then, the second LCD 12 is displayed with the normal direction of the item I aligned with the inclination angle θ. That is, the item I is displayed with its normal direction inclined according to the position in the lateral direction with respect to the touch panel 13. Then, the normal vector n = (sin θ, cos θ, 0) is initialized based on the initially set inclination angle θ of the item I.

上述したように、アイテムIが仮想投影面を離れて3次元ゲーム空間内に投げ入れる操作をされた後、当該アイテムIは、ゲーム空間を移動ベクトルおよび法線ベクトルに基づいて移動する。図9において、アイテムIに設定される移動ベクトルおよび法線ベクトルは、ゲーム処理を行う1フレーム毎に算出される。具体的には、新たなフレーム(i+1)における法線ベクトルn(i+1)は、直前のフレーム(i)で設定された法線ベクトルn(i)、移動ベクトルV(i)、および定数αを用いて、   As described above, after the item I leaves the virtual projection plane and is thrown into the three-dimensional game space, the item I moves in the game space based on the movement vector and the normal vector. In FIG. 9, the movement vector and normal vector set for item I are calculated for each frame in which the game process is performed. Specifically, the normal vector n (i + 1) in the new frame (i + 1) includes the normal vector n (i), the movement vector V (i), and the constant α set in the previous frame (i). make use of,

で算出される。また、新たなフレーム(i+1)における移動ベクトルV(i+1)は、直前のフレーム(i)で設定された法線ベクトルn(i)、移動ベクトルV(i)、重力ベクトルg、および定数βを用いて、 Is calculated by In addition, the movement vector V (i + 1) in the new frame (i + 1) includes the normal vector n (i), the movement vector V (i), the gravity vector g, and the constant β set in the immediately preceding frame (i). make use of,

で算出される。 Is calculated by

次に、図10および図11を参照して、本発明のゲームプログラムによってゲーム装置1で実行されるタッチパネル13から入力される情報に基づいた処理について説明する。なお、図10および図11は、当該ゲームプログラムを実行することによってゲーム装置1が処理する動作を示すフローチャートである。なお、これらの処理を実行するためのプログラムは、ROM171に格納されたゲームプログラムに含まれており、ゲーム装置1の電源がオンになったときに、ROM171からWRAM22に読み出されて、CPUコア21によって実行される。   Next, with reference to FIG. 10 and FIG. 11, processing based on information input from the touch panel 13 executed on the game apparatus 1 by the game program of the present invention will be described. FIG. 10 and FIG. 11 are flowcharts showing operations performed by the game apparatus 1 by executing the game program. A program for executing these processes is included in the game program stored in the ROM 171 and is read from the ROM 171 to the WRAM 22 when the power of the game apparatus 1 is turned on. 21 is executed.

まず、ゲーム装置1の電源(図示せず)がONされると、CPUコア21によってブートプログラム(図示せず)が実行され、これによりカートリッジ17に格納されているゲームプログラムがWRAM22にロードされる。当該ロードされたゲームプログラムがCPUコア21に実行されることによって、図10および図11に示すステップ(図10および図11では「S」と略称する)が実行される。なお、上記ゲームプログラムを実行することによって、当該ゲームプログラムに応じたゲーム画像などが第1LCD11および第2LCD12に描画されるが、ゲーム内容についての詳細な説明を省略し、ここではタッチパネル13から入力される情報に基づいてアイテムが移動する処理について詳述する。   First, when a power source (not shown) of the game apparatus 1 is turned on, a boot program (not shown) is executed by the CPU core 21, and thereby a game program stored in the cartridge 17 is loaded into the WRAM 22. . When the loaded game program is executed by the CPU core 21, the steps shown in FIGS. 10 and 11 (abbreviated as “S” in FIGS. 10 and 11) are executed. By executing the game program, a game image or the like corresponding to the game program is drawn on the first LCD 11 and the second LCD 12, but a detailed description of the game content is omitted, and is input from the touch panel 13 here. A process for moving an item based on the information is described in detail.

図10において、CPUコア21がゲーム処理を開始すると各種の初期設定をした後、ゲームを開始する。そして、CPUコア21は、アイテム指示フラグがオンしているか否かを判断する(ステップ51)。そして、CPUコア21は、アイテム指示フラグがオンであれば処理を次のステップ52に進め、アイテム指示フラグがオフであれば処理を次の
ステップ58に進める。ここで、アイテム指示フラグは、プレイヤがタッチパネル13を用いてアイテムI(図3参照)をタッチしているか否かを区別するフラグであり、プレイヤがアイテムIをタッチしているときにオンに設定される。
In FIG. 10, when the CPU core 21 starts the game process, the game is started after various initial settings are made. Then, the CPU core 21 determines whether or not the item instruction flag is on (step 51). Then, the CPU core 21 proceeds to the next step 52 if the item instruction flag is on, and proceeds to the next step 58 if the item instruction flag is off. Here, the item instruction flag is a flag for distinguishing whether or not the player is touching the item I (see FIG. 3) using the touch panel 13, and is set to ON when the player is touching the item I. Is done.

ステップ52において、CPUコア21は、タッチパネル13から入力があるか否かを判断する。そして、CPUコア21は、タッチパネル13から入力がある場合に処理を次のステップ53に進め、タッチパネル13からの入力がない場合に処理を次のステップ71に進める。   In step 52, the CPU core 21 determines whether or not there is an input from the touch panel 13. Then, the CPU core 21 proceeds to the next step 53 when there is an input from the touch panel 13, and proceeds to the next step 71 when there is no input from the touch panel 13.

ステップ53において、CPUコア21は、仮想3次元ゲーム空間内に仮想投影面S3(図9参照)を設定し、処理を次のステップに進める。なお、仮想投影面S3については、上述したとおりであるので、ここでは詳細な説明を省略する。   In step 53, the CPU core 21 sets a virtual projection plane S3 (see FIG. 9) in the virtual three-dimensional game space, and advances the processing to the next step. Since the virtual projection plane S3 is as described above, detailed description thereof is omitted here.

次に、CPUコア21は、タッチパネル13からの入力座標を検出し、検出した座標に対応する仮想投影面S3上の2次元座標位置に、アイテムIの表示位置を合わせる(ステップ54;図3)。そして、CPUコア21は、入力座標のx座標値(タッチパネル13の横方向の座標;図8に示すxm方向)に基づいて、アイテムIの傾き角度θを算出する(ステップ55;図8)。そして、CPUコア21は、上記ステップ55で算出された傾き角度θに基づいて、アイテムIの初期設定における法線ベクトルnを算出する(ステップ56)。ここで、CPUコア21は、アイテムIの法線ベクトルnをn=(sinθ、cosθ、0)で算出する。そして、CPUコア21は、ステップ55で算出された傾き角度θに応じてアイテムIを傾斜させて、第2LCD12に対するアイテム表示制御処理を行い(ステップ57;図8)、ゲームを継続する場合(ステップ63でNo)に上記ステップ51に戻って処理を繰り返す。これらステップ51〜57をCPUコア21が繰り返すことによって、プレイヤのタッチパネル13のタッチ操作に応じてアイテムIが仮想投影面S3上を移動する。   Next, the CPU core 21 detects the input coordinates from the touch panel 13, and matches the display position of the item I with the two-dimensional coordinate position on the virtual projection plane S3 corresponding to the detected coordinates (step 54; FIG. 3). . Then, the CPU core 21 calculates the inclination angle θ of the item I based on the x coordinate value of the input coordinates (the horizontal coordinate of the touch panel 13; the xm direction shown in FIG. 8) (step 55; FIG. 8). Then, the CPU core 21 calculates the normal vector n in the initial setting of the item I based on the inclination angle θ calculated in step 55 (step 56). Here, the CPU core 21 calculates the normal vector n of the item I by n = (sin θ, cos θ, 0). Then, the CPU core 21 performs the item display control process for the second LCD 12 by tilting the item I according to the tilt angle θ calculated in step 55 (step 57; FIG. 8), and continues the game (step) The process returns to step 51 and the process is repeated. When the CPU core 21 repeats these steps 51 to 57, the item I moves on the virtual projection plane S3 in accordance with the touch operation of the touch panel 13 by the player.

一方、図11を参照して、アイテム指示フラグがオン(ステップ51でYes)でタッチパネル13からの入力がない(ステップ52でNo)の場合の処理について説明する。ステップ52でタッチパネル13からの入力がないと判断した場合、CPUコア21は、直前の2フレームにおいてタッチパネル13からの入力があったか否かを判断する(ステップ71)。そして、直前の2フレームにおいてタッチパネル13からの入力があった場合、CPUコア21は、処理を次のステップ72に進める。一方、直前の2フレームの何れかにおいてタッチパネル13からの入力がなかった場合、CPUコア21は、処理を次のステップ63に進める。   On the other hand, with reference to FIG. 11, a process when the item instruction flag is on (Yes in Step 51) and there is no input from the touch panel 13 (No in Step 52) will be described. When determining in step 52 that there is no input from the touch panel 13, the CPU core 21 determines whether or not there is an input from the touch panel 13 in the previous two frames (step 71). If there is an input from the touch panel 13 in the previous two frames, the CPU core 21 advances the processing to the next step 72. On the other hand, if there is no input from the touch panel 13 in any of the previous two frames, the CPU core 21 advances the processing to the next step 63.

ステップ72において、CPUコア21は、直前の2フレームにおいてタッチパネル13からの入力されたそれぞれの入力座標を用いて、2フレーム間の座標変化量を算出する。具体的には、直前の2フレームにおける入力座標が点q1(x1、y1)および点q2(x2、y2)の場合、座標変化量として点q1からq2まで結ぶベクトルv(vx、vy)を算出する。ここで、
vx=x2−x1
vy=y2−y1
である。そして、CPUコア21は、処理を次のステップに進める。
In step 72, the CPU core 21 calculates the coordinate change amount between the two frames using the respective input coordinates inputted from the touch panel 13 in the immediately preceding two frames. Specifically, when the input coordinates in the previous two frames are the point q1 (x1, y1) and the point q2 (x2, y2), a vector v (vx, vy) connecting the points q1 to q2 is calculated as the coordinate change amount. To do. here,
vx = x2-x1
vy = y2-y1
It is. Then, the CPU core 21 advances the processing to the next step.

次に、CPUコア21は、上記ステップ72で求めた座標変化量(ベクトルv)に基づいて、アイテムIに対する仮想3次元ゲーム空間内の移動速度(移動ベクトルV)を算出し(ステップ73)、処理を次のステップに進める。ステップ73においては、上述した2次元座標系で設定される2点間の移動量(ベクトルv)として示される2軸それぞれに対する数値を用いて、3次元座標系で設定される移動量(ベクトルV)の3軸それぞれに
対する数値を算出する座標変換が用いられる。ここで、座標変換に用いられる定数a〜fは、上述したようにアイテムIの種類に応じて設定される。
Next, the CPU core 21 calculates a moving speed (movement vector V) in the virtual three-dimensional game space for the item I based on the coordinate change amount (vector v) obtained in step 72 (step 73). The process proceeds to the next step. In step 73, using the numerical values for the two axes shown as the movement amount (vector v) between two points set in the two-dimensional coordinate system described above, the movement amount (vector V) set in the three-dimensional coordinate system. ) Is used to calculate numerical values for each of the three axes. Here, the constants a to f used for coordinate transformation are set according to the type of item I as described above.

次に、CPUコア21は、アイテム指示フラグをオフにして(ステップ74)、処理をステップ57に進める。これらステップ71〜74をCPUコア21が実行することによって、2次元座標系で設定される2点間の移動量が3次元座標系で設定される移動量(ベクトルV)に座標変換される。   Next, the CPU core 21 turns off the item instruction flag (step 74), and advances the processing to step 57. When the CPU core 21 executes these steps 71 to 74, the movement amount between two points set in the two-dimensional coordinate system is coordinate-converted into the movement amount (vector V) set in the three-dimensional coordinate system.

一方、図10に戻って、アイテム指示フラグがオフ(ステップ51でNo)の場合の処理について説明する。ステップ51でアイテム指示フラグがオフと判断した場合、CPUコア21は、アイテムIが仮想投影面を離れて3次元ゲーム空間内を移動中か否かを判断する(ステップ58)。ここで、CPUコア21は、例えばアイテムIに移動ベクトルVが設定されている場合にアイテムIが3次元ゲーム空間内を移動中であると判断する。そして、CPUコア21は、アイテムIがゲーム空間内を移動中である場合、処理を次のステップ59に進める。一方、CPUコア21は、アイテムIがゲーム空間内を移動していない場合(例えば、プレイヤがタッチパネル13に最初にタッチしたときや、全くタッチパネル13に触れていないとき等)、処理を次のステップ60に進める。   On the other hand, returning to FIG. 10, the processing when the item instruction flag is off (No in step 51) will be described. If it is determined in step 51 that the item instruction flag is OFF, the CPU core 21 determines whether or not the item I is moving in the three-dimensional game space leaving the virtual projection plane (step 58). Here, the CPU core 21 determines that the item I is moving in the three-dimensional game space when the movement vector V is set for the item I, for example. If the item I is moving in the game space, the CPU core 21 advances the process to the next step 59. On the other hand, when the item I is not moving in the game space (for example, when the player first touches the touch panel 13 or when the player does not touch the touch panel 13 at all), the CPU core 21 performs the next step. Proceed to 60.

ステップ59において、CPUコア21は、3次元ゲーム空間内のアイテムIの移動軌跡を算出する。CPUコア21は、アイテムIの移動軌跡の算出にあたって、上述したように直前のフレームにおいて算出された法線ベクトルnおよび移動ベクトルVを用いて、新たなフレームの法線ベクトルnおよび移動ベクトルVを算出する(図9参照)。そして、CPUコア21は、ステップ59で算出された法線ベクトルnおよび移動ベクトルVに応じてアイテムIを移動させて、第2LCD12に対するアイテム表示制御処理を行い(ステップ57;図4(b))、ゲームを継続する場合(ステップ63でNo)に上記ステップ51に戻って処理を繰り返す。これらステップ51、58、59、および57をCPUコア21が繰り返すことによって、仮想投影面を離れて仮想ゲーム空間内を移動するアイテムIが表現される。   In step 59, the CPU core 21 calculates the movement locus of the item I in the three-dimensional game space. When calculating the movement trajectory of the item I, the CPU core 21 uses the normal vector n and the movement vector V calculated in the immediately preceding frame as described above to calculate the normal vector n and the movement vector V of the new frame. Calculate (see FIG. 9). Then, the CPU core 21 moves the item I according to the normal vector n and the movement vector V calculated in step 59, and performs an item display control process for the second LCD 12 (step 57; FIG. 4B). When the game is continued (No in step 63), the process returns to step 51 and the process is repeated. When the CPU core 21 repeats these steps 51, 58, 59, and 57, the item I that moves away from the virtual projection plane and moves in the virtual game space is expressed.

一方、ステップ60において、CPUコア21は、タッチパネル13から入力があるか否かを判断する。そして、CPUコア21は、タッチパネル13から入力がある場合に処理を次のステップ61に進め、タッチパネル13からの入力がない場合に処理を次のステップ63に進める。   On the other hand, in step 60, the CPU core 21 determines whether or not there is an input from the touch panel 13. Then, the CPU core 21 proceeds to the next step 61 when there is an input from the touch panel 13, and proceeds to the next step 63 when there is no input from the touch panel 13.

ステップ61において、CPUコア21は、プレイヤが第2LCD12上でアイテムIと重なったタッチパネル13をタッチ操作したか否かを判断する。そして、CPUコア21は、プレイヤがアイテムIをタッチ操作している場合、アイテム指示フラグをオンして(ステップ62)、処理をステップ63に進める。一方、CPUコア21は、プレイヤがアイテムIをタッチ操作していない場合、そのまま処理をステップ63に進める。   In step 61, the CPU core 21 determines whether or not the player has touched the touch panel 13 that overlaps the item I on the second LCD 12. Then, when the player is touching the item I, the CPU core 21 turns on the item instruction flag (step 62) and advances the process to step 63. On the other hand, if the player has not touched the item I, the CPU core 21 proceeds to step 63 as it is.

ステップ63では、CPUコア21は、ゲームを継続するか否かを判断する。そして、CPUコア21は、ゲームを継続する場合に上記ステップ51に戻って処理を繰り返し、ゲームを終了する場合に当該サブルーチンによる処理を終了する。なお、上記ステップ51〜63の処理がゲーム処理を行う単位時間(例えば、1フレーム)毎に繰り返される。   In step 63, the CPU core 21 determines whether or not to continue the game. Then, the CPU core 21 returns to step 51 to repeat the process when continuing the game, and terminates the processing by the subroutine when ending the game. In addition, the process of the said steps 51-63 is repeated for every unit time (for example, 1 frame) which performs a game process.

なお、上述した説明では、仮想3次元ゲーム空間に対する移動ベクトルVの算出を、プレイヤがタッチパネル13からスタイラス16等を離す(ステップ52でNo)ことを条件として行ったが、他の条件に応じて算出を行ってもかまわない。例えば、プレイヤが操作スイッチ部14(例えば動作スイッチ(Aボタン)14a)を押下することを条件として、移動ベクトルVの算出を行ってもかまわない。   In the above description, the movement vector V with respect to the virtual three-dimensional game space is calculated on the condition that the player releases the stylus 16 and the like from the touch panel 13 (No in step 52). However, depending on other conditions Calculation may be performed. For example, the movement vector V may be calculated on the condition that the player presses the operation switch unit 14 (for example, the operation switch (A button) 14a).

また、上述した説明では、仮想投影面S3を手前側クリップ面S1に対して平行に配置した平面として説明したが、仮想投影面S3と手前側クリップ面S1とは平行でなくてもかまわない。仮想投影面S3が手前側クリップ面S1に対して斜めの平面であっても、入力座標の投影を同様に行って仮想投影面S3上の2次元座標(X軸、Y軸)を設定することができる。この場合、仮想投影面S3に垂直な方向を第3軸(Z軸)として、仮想3次元ゲーム空間に対する移動ベクトルVを上述した座標変換を用いて同様に算出することができる。   In the above description, the virtual projection plane S3 is described as a plane arranged in parallel with the near-side clip plane S1, but the virtual projection plane S3 and the near-side clip plane S1 may not be parallel. Even if the virtual projection plane S3 is an oblique plane with respect to the near-side clip plane S1, the input coordinates are similarly projected to set the two-dimensional coordinates (X axis, Y axis) on the virtual projection plane S3. Can do. In this case, the movement vector V with respect to the virtual three-dimensional game space can be similarly calculated using the coordinate transformation described above, with the direction perpendicular to the virtual projection plane S3 as the third axis (Z axis).

このように、本発明のゲーム装置によれば、表示画面上の2次元座標を入力するタッチパネルからの入力座標に応じて仮想投影面上をアイテムが移動し、所定の条件(タッチパネルから離す操作)に基づいて仮想投影面から仮想3次元ゲーム空間に当該アイテムが投げ入れられるゲームを実現できる。また、仮想投影面上に設定されている2次元座標の変化量(ベクトルv)に基づいて、当該仮想投影面に垂直な成分を算出するため、2次元座標の変化量から3次元座標の変化量(ベクトルV)を容易に求めることができる。したがって。従来技術のように押圧検出機能を設けることなく簡単な構成で2次元座標から3次元座標への変換を行うことができる。また、押圧を検出しないので、タッチパネル等の入力手段に多大な負担がかかることがなく、故障が多くなったり寿命が短くなったりするといったデバイス信頼性の低下を回避することができる。   As described above, according to the game device of the present invention, the item moves on the virtual projection plane in accordance with the input coordinates from the touch panel for inputting the two-dimensional coordinates on the display screen, and the predetermined condition (operation to release the touch panel) Based on the above, it is possible to realize a game in which the item is thrown into the virtual three-dimensional game space from the virtual projection plane. Further, since the component perpendicular to the virtual projection plane is calculated based on the change amount (vector v) of the two-dimensional coordinates set on the virtual projection plane, the change of the three-dimensional coordinates from the change amount of the two-dimensional coordinates. The quantity (vector V) can be easily determined. Therefore. Conversion from two-dimensional coordinates to three-dimensional coordinates can be performed with a simple configuration without providing a pressure detection function as in the prior art. In addition, since pressing is not detected, a great burden is not imposed on input means such as a touch panel, and a decrease in device reliability such as an increase in failure or a shortened life can be avoided.

なお、上記実施例では、表示画面上の2次元座標を入力する入力装置としてタッチパネルを用いたが、他のポインティングデバイスを用いてもかまわない。ここで、ポインティングデバイスは、表示画面上での入力位置や座標を指定する入力装置であり、例えば、マウス、トラックパッド、トラックボールなどを入力装置として使用し、入力装置から出力される出力値から計算された画面座標系の情報を用いれば、本発明を同様に実現することができる。なお、マウス等のポインティングデバイスの場合、タッチ状態と非タッチ状態とをクリックボタンのオンオフに対応させ、マウス等から出力される出力値から座標を計算する処理をゲーム装置等で行えばよい。   In the above embodiment, the touch panel is used as the input device for inputting the two-dimensional coordinates on the display screen, but other pointing devices may be used. Here, the pointing device is an input device that specifies an input position and coordinates on the display screen. For example, a mouse, a trackpad, a trackball, or the like is used as an input device, and an output value output from the input device is used. If the information of the calculated screen coordinate system is used, the present invention can be similarly realized. Note that in the case of a pointing device such as a mouse, the game device or the like may perform processing for calculating coordinates from output values output from the mouse or the like in correspondence with the touch button and the non-touch button on / off.

また、上記実施例では、ゲーム装置1にタッチパネル13が一体的に設けられているが、ゲーム装置とタッチパネルとを別体にして構成しても、本発明を実現できることは言うまでもない。また、上記実施例では表示器を2つ設けたが、表示器は1つであってもかまわない。すなわち、上記実施例において、第1LCD11を設けず単に第2LCD12のみを設けるようにしてもよい。また、上記実施例において、第2LCD12を設けず第1LCD11の上面にタッチパネル13を設けても良い。   Moreover, in the said Example, although the touchscreen 13 was integrally provided in the game device 1, it cannot be overemphasized that even if it comprises a game device and a touchscreen separately, this invention can be implement | achieved. In the above embodiment, two displays are provided, but one display may be used. That is, in the above embodiment, the first LCD 11 may not be provided, and only the second LCD 12 may be provided. In the above embodiment, the touch panel 13 may be provided on the upper surface of the first LCD 11 without providing the second LCD 12.

また、上記実施例では、ゲーム装置1にタッチパネル13が一体的に設けられているが、タッチパネルを入力装置の1つとする一般的なパーソナルコンピュータなどの情報処理装置でもかまわない。この場合、この情報処理装置のコンピュータが実行するプログラムは、典型的にゲームに用いられるゲームプログラムに限らず、上述した方式で得られた2次元座標値が上記情報処理装置に対する操作処理に用いられる汎用的な入力処理プログラムである。   Further, in the above embodiment, the touch panel 13 is integrally provided on the game apparatus 1, but an information processing apparatus such as a general personal computer having the touch panel as one of input devices may be used. In this case, the program executed by the computer of the information processing apparatus is not limited to a game program typically used for a game, and two-dimensional coordinate values obtained by the above-described method are used for operation processing on the information processing apparatus. It is a general-purpose input processing program.

本発明の入力処理プログラムおよび入力処理装置は、簡単な構成で2次元座標から3次元座標への変換を行うことができ、表示画面上の2次元座標を入力するポインティングデバイスを用いて操作するゲームや入力処理等に適用できる。   INDUSTRIAL APPLICABILITY The input processing program and the input processing apparatus of the present invention can perform conversion from two-dimensional coordinates to three-dimensional coordinates with a simple configuration, and are operated using a pointing device that inputs two-dimensional coordinates on a display screen. And input processing.

1…ゲーム装置
11…第1LCD
12…第2LCD
13…タッチパネル
14…操作スイッチ部
15…スピーカ
16…スタイラス
17…カートリッジ
171…ROM
172…RAM
18…ハウジング
20…電子回路基板
21…CPUコア
22…WRAM
23…第1VRAM
24…第1GPU
25…第2VRAM
26…第2GPU
27…I/F回路
28…コネクタ
29…LCDコントローラ
291…レジスタ
1 ... Game device 11 ... 1st LCD
12 ... Second LCD
13 ... Touch panel 14 ... Operation switch 15 ... Speaker 16 ... Stylus 17 ... Cartridge 171 ... ROM
172 ... RAM
18 ... Housing 20 ... Electronic circuit board 21 ... CPU core 22 ... WRAM
23. First VRAM
24 ... 1st GPU
25. Second VRAM
26 ... 2nd GPU
27 ... I / F circuit 28 ... Connector 29 ... LCD controller 291 ... Register

Claims (13)

表示画面と、当該表示画面に対する座標を入力するポインティングデバイスとを備える入力処理装置のコンピュータに実行されるプログラムであって、
前記コンピュータに、
前記表示画面に仮想3次元空間を表示する表示制御ステップ、
前記ポインティングデバイスからの入力座標を検出する入力座標検出ステップ、
前記ポインティングデバイスからの入力が継続的に行われているとき、前記入力座標検出ステップによって検出された入力座標に基づいて、オブジェクトを所定の仮想面上で移動させる仮想面上移動ステップ、および
前記ポインティングデバイスからの入力が継続的に行われている状態から非入力の状態へ変化したとき、前記入力座標に対応する前記仮想面上の位置を始点として前記オブジェクトを前記仮想面から離れて前記仮想3次元空間内を移動させる3次元空間内移動ステップを実行させる、入力処理プログラム。
A display screen, a program executed in the computer of the input processor and a pointing device for inputting the coordinates for the display screen,
In the computer,
A display control step of displaying a virtual three-dimensional space on the display screen;
An input coordinate detection step for detecting input coordinates from the pointing device;
A virtual surface moving step for moving the object on a predetermined virtual surface based on the input coordinates detected by the input coordinate detecting step when the input from the pointing device is continuously performed; and
When the input from the pointing device is continuously changed to a non-input state, the object is moved away from the virtual plane starting from a position on the virtual plane corresponding to the input coordinates. An input processing program for executing a movement step in a three-dimensional space for moving in a virtual three-dimensional space .
記ポインティングデバイスからの入力が継続的に行われている状態から入力の状態へ変化したとき、当該入力の状態の直前に前記入力座標検出ステップが検出した入力座標の変化を算出する直前入力変化値算出ステップを、さらに前記コンピュータに実行させ
前記3次元空間内移動ステップは、前記直前入力変化値に基づいて前記オブジェクトを前記仮想3次元空間内で移動させる、請求項1に記載の入力処理プログラム。
When the input from the previous SL pointing device is changed from the state of being continuously performed to the non-input state, calculates the change in value of the input coordinates the input position detection step has detected immediately before the non-input state Further causing the computer to execute a previous input change value calculation step ,
The input processing program according to claim 1 , wherein the moving step in the three-dimensional space moves the object in the virtual three-dimensional space based on the previous input change value .
前記3次元空間内移動ステップは、前記直前入力変化値に基づいて前記オブジェクトの前記仮想3次元空間における移動方向を決定する、請求項2に記載の入力処理プログラム。The input processing program according to claim 2, wherein the moving step in the three-dimensional space determines a moving direction of the object in the virtual three-dimensional space based on the immediately previous input change value. 前記3次元空間内移動ステップは、前記直前入力変化値に基づいて前記オブジェクトの前記仮想3次元空間における移動速度を決定する、請求項2に記載の入力処理プログラム。The input processing program according to claim 2, wherein the moving step in the three-dimensional space determines a moving speed of the object in the virtual three-dimensional space based on the previous input change value. 前記3次元空間内移動ステップは、前記直前入力変化値算出ステップによって算出された前記仮想面上の第1方向および第2方向についての変化値に基づいて、当該仮想面に垂直な第3方向に対する変化値を算出し、各変化値に基づいて前記オブジェクトを前記仮想3次元空間内で移動させる、請求項2に記載の入力処理プログラム。The step of moving in the three-dimensional space is based on change values for the first direction and the second direction on the virtual surface calculated by the immediately previous input change value calculation step, with respect to a third direction perpendicular to the virtual surface. The input processing program according to claim 2, wherein a change value is calculated and the object is moved in the virtual three-dimensional space based on each change value. 前記3次元空間内移動ステップは、前記入力座標に基づいて前記オブジェクトの前記仮想3次元空間における移動方向を決定する、請求項2に記載の入力処理プログラム。The input processing program according to claim 2, wherein the moving step in the three-dimensional space determines a moving direction of the object in the virtual three-dimensional space based on the input coordinates. 表示画面と、A display screen;
前記表示画面に対する座標を入力するポインティングデバイスと、A pointing device for inputting coordinates for the display screen;
前記表示画面に仮想3次元空間を表示する表示制御手段と、Display control means for displaying a virtual three-dimensional space on the display screen;
前記ポインティングデバイスからの入力座標を検出する入力座標検出手段と、Input coordinate detection means for detecting input coordinates from the pointing device;
前記ポインティングデバイスからの入力が継続的に行われているとき、前記入力座標検出手段によって検出された入力座標に基づいて、オブジェクトを所定の仮想面上で移動させる仮想面上移動手段と、A virtual surface moving means for moving the object on a predetermined virtual surface based on the input coordinates detected by the input coordinate detecting means when the input from the pointing device is continuously performed;
前記ポインティングデバイスからの入力が継続的に行われている状態から非入力の状態へ変化したとき、前記入力座標に対応する前記仮想面上の位置を始点として前記オブジェクトを前記仮想面から離れて前記仮想3次元空間内を移動させる3次元空間内移動手段とを備える、入力処理装置。When the input from the pointing device is continuously changed to a non-input state, the object is moved away from the virtual plane starting from a position on the virtual plane corresponding to the input coordinates. An input processing apparatus comprising: a moving means in a three-dimensional space for moving in a virtual three-dimensional space.
前記ポインティングデバイスからの入力が継続的に行われている状態から非入力の状態へ変化したとき、当該非入力の状態の直前に前記入力座標検出手段が検出した入力座標の変化値を算出する直前入力変化値算出手段を、さらに備え、Immediately before calculating a change value of the input coordinate detected by the input coordinate detection means immediately before the non-input state when the input from the pointing device is continuously changed to a non-input state An input change value calculation means is further provided,
前記3次元空間内移動手段は、前記直前入力変化値に基づいて前記オブジェクトを前記仮想3次元空間内で移動させる、請求項7に記載の入力処理装置。The input processing apparatus according to claim 7, wherein the moving means in the three-dimensional space moves the object in the virtual three-dimensional space based on the immediately previous input change value.
前記3次元空間内移動手段は、前記直前入力変化値に基づいて前記オブジェクトの前記仮想3次元空間における移動方向を決定する、請求項8に記載の入力処理装置。The input processing apparatus according to claim 8, wherein the moving means in the three-dimensional space determines a moving direction of the object in the virtual three-dimensional space based on the previous input change value. 前記3次元空間内移動手段は、前記直前入力変化値に基づいて前記オブジェクトの前記仮想3次元空間における移動速度を決定する、請求項8に記載の入力処理装置。The input processing apparatus according to claim 8, wherein the moving means in the three-dimensional space determines a moving speed of the object in the virtual three-dimensional space based on the previous input change value. 前記3次元空間内移動手段は、前記直前入力変化値算出手段によって算出された前記仮想面上の第1方向および第2方向についての変化値に基づいて、当該仮想面に垂直な第3方向に対する変化値を算出し、各変化値に基づいて前記オブジェクトを前記仮想3次元空間内で移動させる、請求項8に記載の入力処理装置。The moving means in the three-dimensional space is based on the change values for the first direction and the second direction on the virtual plane calculated by the immediately previous input change value calculation means, with respect to a third direction perpendicular to the virtual plane. The input processing apparatus according to claim 8, wherein a change value is calculated, and the object is moved in the virtual three-dimensional space based on each change value. 前記3次元空間内移動手段は、前記入力座標に基づいて前記オブジェクトの前記仮想3次元空間における移動方向を決定する、請求項8に記載の入力処理装置。The input processing apparatus according to claim 8, wherein the moving means in the three-dimensional space determines a moving direction of the object in the virtual three-dimensional space based on the input coordinates. 表示画面に対する座標を入力する座標入力ステップと、A coordinate input step for inputting coordinates for the display screen;
前記表示画面に仮想3次元空間を表示する表示制御ステップと、A display control step of displaying a virtual three-dimensional space on the display screen;
前記座標入力ステップで入力された入力座標を検出する入力座標検出ステップと、An input coordinate detection step for detecting the input coordinates input in the coordinate input step;
前記座標入力ステップにおける入力が継続的に行われているとき、前記入力座標検出ステップによって検出された入力座標に基づいて、オブジェクトを所定の仮想面上で移動させる仮想面上移動ステップと、When the input in the coordinate input step is continuously performed, based on the input coordinates detected by the input coordinate detection step, an on-virtual surface moving step for moving the object on a predetermined virtual surface;
前記座標入力ステップにおける入力が継続的に行われている状態から非入力の状態へ変化したとき、前記入力座標に対応する前記仮想面上の位置を始点として前記オブジェクトを前記仮想面から離れて前記仮想3次元空間内を移動させる3次元空間内移動ステップとを含む、入力処理方法。When the input in the coordinate input step is changed from a continuously performed state to a non-input state, the object is moved away from the virtual surface with the position on the virtual surface corresponding to the input coordinates as a starting point. An input processing method comprising: a moving step in a three-dimensional space for moving in a virtual three-dimensional space.
JP2009011820A 2009-01-22 2009-01-22 Input processing program and input processing apparatus Active JP4726965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009011820A JP4726965B2 (en) 2009-01-22 2009-01-22 Input processing program and input processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009011820A JP4726965B2 (en) 2009-01-22 2009-01-22 Input processing program and input processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008167401A Division JP4302767B2 (en) 2008-06-26 2008-06-26 Input processing program and input processing apparatus

Publications (2)

Publication Number Publication Date
JP2009093680A JP2009093680A (en) 2009-04-30
JP4726965B2 true JP4726965B2 (en) 2011-07-20

Family

ID=40665533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009011820A Active JP4726965B2 (en) 2009-01-22 2009-01-22 Input processing program and input processing apparatus

Country Status (1)

Country Link
JP (1) JP4726965B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8799788B2 (en) * 2011-06-02 2014-08-05 Disney Enterprises, Inc. Providing a single instance of a virtual space represented in either two dimensions or three dimensions via separate client computing devices

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232010A (en) * 1998-02-18 1999-08-27 Dainippon Screen Mfg Co Ltd Method and device for three-dimensional instruction
JP4109745B2 (en) * 1998-03-24 2008-07-02 株式会社レクサー・リサーチ Object moving arrangement apparatus and method in three-dimensional space display system
JPH11353080A (en) * 1998-06-09 1999-12-24 Takatoshi Yokoyama Three-dimensional image display method, recording medium recorded with program therefor, storage medium recorded with image arrangement data, and three-dimensional image display device
JP2002163103A (en) * 2000-11-29 2002-06-07 Mitsubishi Electric Corp Portable information terminal and menu display method
JP3761165B2 (en) * 2002-05-13 2006-03-29 株式会社モバイルコンピューティングテクノロジーズ Display control device, portable information terminal device, program, and display control method

Also Published As

Publication number Publication date
JP2009093680A (en) 2009-04-30

Similar Documents

Publication Publication Date Title
EP2518612B1 (en) Storage medium having input processing program stored thereon and input processing device
US8574077B2 (en) Storage medium having game program stored thereon, game apparatus, input device, and storage medium having program stored thereon
JP3734819B1 (en) GAME PROGRAM, GAME DEVICE, AND INPUT DEVICE
JP3734820B1 (en) GAME PROGRAM, GAME DEVICE, AND INPUT DEVICE
JP3833228B2 (en) GAME DEVICE AND GAME PROGRAM
US7794327B2 (en) Game apparatus and storage medium
US20060052165A1 (en) Storage medium having stored thereon game program, game machine, and input device
JP4897411B2 (en) Information processing program and information processing apparatus
US20070075967A1 (en) Image processing apparatus, storage medium having image processing program stored thereon, game apparatus and storage medium having game program stored thereon
US8926427B2 (en) Video game with screen flip and dual sets of collision data
JP4726965B2 (en) Input processing program and input processing apparatus
JP4302767B2 (en) Input processing program and input processing apparatus
JP4724758B2 (en) Input processing program and input processing apparatus
JP4724740B2 (en) Input processing program and input processing apparatus
JP4730975B2 (en) Input processing program and input processing apparatus
JP5354820B2 (en) Input processing program and input processing apparatus
JP5363524B2 (en) Input processing program and input processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110412

R150 Certificate of patent or registration of utility model

Ref document number: 4726965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250