JP2019114271A - Information processing apparatus, information processing method, and game device - Google Patents

Information processing apparatus, information processing method, and game device Download PDF

Info

Publication number
JP2019114271A
JP2019114271A JP2019020463A JP2019020463A JP2019114271A JP 2019114271 A JP2019114271 A JP 2019114271A JP 2019020463 A JP2019020463 A JP 2019020463A JP 2019020463 A JP2019020463 A JP 2019020463A JP 2019114271 A JP2019114271 A JP 2019114271A
Authority
JP
Japan
Prior art keywords
coordinates
input
touch
unit
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019020463A
Other languages
Japanese (ja)
Other versions
JP6715361B2 (en
Inventor
悠一 丹沢
Yuichi Tanzawa
悠一 丹沢
大輔 宮田
Daisuke Miyata
大輔 宮田
祥正 浅尾
Yoshimasa Asao
祥正 浅尾
哲郎 内田
Tetsuo Uchida
哲郎 内田
和哉 富居
Kazuya Tomii
和哉 富居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2019020463A priority Critical patent/JP6715361B2/en
Publication of JP2019114271A publication Critical patent/JP2019114271A/en
Application granted granted Critical
Publication of JP6715361B2 publication Critical patent/JP6715361B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a technique which can effectively distinguish an input operation to designate an arbitrary area on a display screen from an operation of touch or click input to designate one point or an operation to slide a finger while continuing input to the one point, thereby preventing an incorrect operation by a user.SOLUTION: On the basis of coordinates of initial two points P1 and P2 which are simultaneously input in a coordinate input unit, coordinates of a first intermediate point M1 which are obtained from the coordinates of the initial two points are determined, and on the basis of coordinates of last two points P3 and P4 which have been detected immediately before the coordinates of the two points are no longer simultaneously input, coordinates of a second intermediate point M2 which are obtained from the coordinates of the last two points are determined. Then, a region R on a display screen of a display unit is determined on the basis of the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2.SELECTED DRAWING: Figure 3

Description

本発明は,表示画面上における領域を指定することが可能な情報処理装置,情報処理方法,及びゲーム装置に関する。具体的に説明すると,本発明は,表示画面上における領域を指定することにより,例えば指定した領域に含まれる一又は複数のオブジェクトを選択する処理を行うことのできる情報処理装置等に関するものである。   The present invention relates to an information processing apparatus capable of designating an area on a display screen, an information processing method, and a game apparatus. Specifically, the present invention relates to an information processing apparatus or the like capable of performing processing for selecting one or more objects included in a designated area, for example, by designating an area on a display screen. .

従来から,タッチスクリーンやマウスポインタのようなポインティングデバイスを利用して,表示画面上の入力位置をスライドすることにより矩形の領域を指定する技術がよく知られている。このように,表示画面上で矩形の領域を指定することで,指定した領域に含まれる一又は複数のオブジェクトを選択したり,指定した領域内の画像を拡大,切り取り又は編集することが可能になる。このような従来の技術では,一般的に,ポインティングデバイスによって表示画面上の一点をタッチ入力(又はクリック入力)し,画面のタッチ入力を継続したままタッチ位置をスライド(スワイプ)させて,その後タッチ入力をリリースすることにより,最初のタッチ位置と最後のタッチ位置を繋ぐ線分を対角線とする矩形の領域を指定することとしている。   2. Description of the Related Art Conventionally, there is well known a technique of designating a rectangular area by sliding an input position on a display screen using a pointing device such as a touch screen or a mouse pointer. Thus, by designating a rectangular area on the display screen, it is possible to select one or more objects included in the designated area, and to enlarge, cut or edit an image in the designated area. Become. In such conventional techniques, generally, one point on the display screen is touch input (or click input) by the pointing device, and the touch position is slid (swipe) while the touch input on the screen is continued, and then the touch is performed. By releasing the input, a rectangular area whose diagonal is a line connecting the first touch position and the last touch position is specified.

また,タッチパネルディスプレイを利用して画面上の複数のオブジェクトを利用する技術として,例えば特許文献1に開示されたものが知られている。特許文献1に開示された技術は,複数のオブジェクトを表示可能なモニタに重ねて配置されたタッチパネルディスプレイがタッチ操作された際のタッチ状態を検出し,検出されたタッチ状態に応じて,オブジェクトを選択する範囲を規定する選択エリアの大きさを決定するとともに,タッチ位置を基準に選択エリアを設定し,設定された選択エリアに少なくとも一部が重なるオブジェクトを選択候補とする。   Further, as a technique of utilizing a plurality of objects on a screen using a touch panel display, for example, the one disclosed in Patent Document 1 is known. The technology disclosed in Patent Document 1 detects a touch state when a touch panel display placed on a monitor capable of displaying a plurality of objects is touch-operated, and detects an object according to the detected touch state. While determining the size of the selection area that defines the range to be selected, the selection area is set based on the touch position, and an object at least partially overlapping the set selection area is selected as a selection candidate.

特開2010−20608号公報Unexamined-Japanese-Patent No. 2010-20608

ところで,近年,タッチパネルディスプレイを大型化することができるようになり,その用途も多様化しつつある。例えば,タッチパネルディスプレイにゲーム画像を表示し,ユーザがタッチパネルを指でタッチ操作することで,ゲーム進行に関する入力操作を行うことができるゲーム装置も開発されている。特に,ゲーム装置に大型のタッチパネルディスプレイを搭載して,アクションゲームを実行することにより,ユーザに対し臨場感の高いゲームを提供することができる。   By the way, in recent years, it has become possible to increase the size of touch panel displays, and their applications are being diversified. For example, a game device has also been developed which can perform an input operation related to game progress by displaying a game image on a touch panel display and the user touching the touch panel with a finger. In particular, by mounting a large touch panel display on the game device and executing the action game, it is possible to provide the user with a highly realistic game.

このような大型のタッチパネルディスプレイによりアクションゲームが提供される場合,ユーザはせわしなくタッチ操作を行うことが必要となる。タッチパネルディスプレイのタッチ操作の手法としては,例えば,タッチパネルディスプレイの画面の一点をタッチする動作や,画面を指でなぞる動作,画面を指で弾く動作等が存在する。これらの操作には,それぞれ別々のコマンド(命令)が割り振られており,ユーザは,これらの操作手法を選択しながら種々のコマンドを繰り返し入力することで,ゲームを進めていく。特に,表示画面上に表示された複数のオブジェクトを選択しながらゲームを進行するようなゲーム装置においては,オブジェクトを選択するにあたり,一のオブジェクトの選択を望む場合にはそのオブジェクトが表示された画面上の一点をタッチし,複数のオブジェクトの選択を望む場合にはそれぞれのオブジェクトが表示された画面上をタッチしていくこともある。   When an action game is provided by such a large touch panel display, it is necessary for the user to perform a touch operation without hesitation. Examples of the touch operation method of the touch panel display include an operation of touching a point on the screen of the touch panel display, an operation of tracing the screen with a finger, and an operation of flipping the screen with a finger. Different commands (instructions) are allocated to these operations, respectively, and the user advances the game by repeatedly inputting various commands while selecting these operation methods. In particular, in a game device which advances a game while selecting a plurality of objects displayed on a display screen, a screen on which the object is displayed when it is desired to select one object in selecting the objects When it is desired to select a plurality of objects by touching one point on the screen, the user may touch the screen on which the respective objects are displayed.

ここで,画面上に表示されているオブジェクトの中から多数のオブジェクトを選択することを希望するような場合に,選択を希望するオブジェクトを1つずつタッチすることは煩雑であり,ゲームの操作性を損なうものであった。そこで,上記特許文献1に開示された技術のように,タッチパネルディスプレイに対する一点のタッチ状態が継続している場合に,ユーザの手指が画面上をスライドした軌跡に基づいて選択エリアを決定し,その選択エリアに含まれるオブジェクトを選択する技術も提案されている。   Here, when it is desired to select a large number of objects from among the objects displayed on the screen, it is cumbersome to touch the objects desired to be selected one by one, and the operability of the game It was a loss of Therefore, as in the technology disclosed in Patent Document 1 above, when the touch state at one point on the touch panel display continues, the selection area is determined based on the locus of the user's finger sliding on the screen, and A technique for selecting an object included in the selection area has also been proposed.

しかしながら,特許文献1に開示された技術では,一のオブジェクトを選択する操作も,複数のオブジェクトを選択する操作も,基本的に一本の指のタッチ状態に基づいて行われる。このように,一のオブジェクトを選択する操作と複数のオブジェクトを選択する操作が,一本の指のタッチ状態が継続しているか否かという点のみによって区別されていると,ユーザがタッチ操作を誤り易いという問題があった。すなわち,ユーザが一のオブジェクトの選択を意図しているにも関わらず,誤ってタッチパネルディスプレイに対する継続したタッチ状態が検知されてしまったような場合に,意図しない他のオブジェクトが選択されてしまうという問題がある。反対に,ユーザが複数のオブジェクトの選択を意図しているにも関わらず,誤ってタッチパネルディスプレイに対する継続したタッチ状態が検知されなかったような場合には,一のオブジェクトのみが選択されるという問題がある。さらに,タッチパネルディスプレイの画面を一本の指でなぞる動作(スライドさせる動作)に対し別のコマンドが割り振られているような場合には,ユーザによって誤操作が行われる可能性はより高まる。   However, in the technology disclosed in Patent Document 1, the operation of selecting one object and the operation of selecting a plurality of objects are basically performed based on the touch state of one finger. As described above, when the operation of selecting one object and the operation of selecting a plurality of objects are distinguished only by whether or not the touch state of one finger is continued, the user performs the touch operation. There was a problem that it was easy to make mistakes. That is, even if the user intends to select one object, if another user continues to detect a continued touch on the touch panel display, an unintended other object is selected. There's a problem. On the contrary, even if the user intends to select a plurality of objects, only one object is selected if the continuous touch state on the touch panel display is not detected by mistake There is. Furthermore, in the case where another command is assigned to an operation (sliding operation) of tracing the screen of the touch panel display with one finger, the possibility of erroneous operation by the user is further increased.

そこで,現在では,表示画面上の任意領域を指定する入力操作を,一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することにより,ユーザによる誤操作を防止する技術が求められている。特に,大型のタッチパネルディスプレイをせわしなくタッチすることが必要なゲーム装置を想定すると,表示画面上の広い範囲の任意領域を,片手で容易に指定することのできる入力操作に関する技術が求められている。   Therefore, at present, the input operation for designating an arbitrary area on the display screen is effectively distinguished from the operation for touch or click input for designating one point, and the operation for sliding while continuing the input for one point, There is a need for a technique for preventing user misoperation. In particular, in the case of a game device which needs to touch a large touch panel display smoothly, there is a need for a technique related to an input operation which can easily designate a wide range of arbitrary area on the display screen with one hand.

そこで,本発明の発明者は,上記の従来発明の問題点を解決する手段について鋭意検討した結果,座標入力部に最初に同時に入力されている2点の座標から求められる中間座標と,座標入力部に最後に同時に入力されている2点の座標から求められる中間座標とに基づいて,表示画面上の所定領域を確定することにより,表示画面上の任意領域を指定する入力操作を,一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができるという知見を得た。しかも,上記操作手法によれば,表示画面上の広い範囲の領域を,片手で容易に指定することができるという知見を得た。そして,本発明者は,上記知見に基づけば,従来技術の課題を解決できることに想到し,本発明を完成させた。
具体的に,本発明は以下の構成を有する。
Therefore, the inventor of the present invention has intensively studied the means for solving the above-mentioned problems of the conventional invention, and as a result, it is possible to obtain intermediate coordinates obtained from the coordinates of two points initially simultaneously input to the coordinate input unit and coordinate input. An input operation for specifying an arbitrary area on the display screen is established by determining a predetermined area on the display screen based on the intermediate coordinates obtained from the coordinates of two points simultaneously input to the unit at the same time. We found that it was possible to distinguish effectively from the operation of specifying touch or click input, and the operation of sliding while continuing the input of one point. Moreover, according to the above-described operation method, it has been found that a wide range of area on the display screen can be easily designated with one hand. Then, the present inventors considered that the problems of the prior art could be solved based on the above findings, and completed the present invention.
Specifically, the present invention has the following configuration.

本発明の第1の側面は,情報処理装置に関する。
本発明の情報処理装置は,画像を表示可能な表示部1と,表示部1の表示画面上における座標を入力するための座標入力部2と,座標入力部2に入力された座標に基づいて表示部1の表示画面上における領域Rを指定する領域指定部3と,を有する。
この領域指定部3は,まず,座標入力部に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する。
また,領域指定部3は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する。
そして,領域指定部3は,第1中間点M1の座標と第2中間点M2の座標に基づいて,表示部1の表示画面上における領域Rを確定する。
A first aspect of the present invention relates to an information processing apparatus.
The information processing apparatus of the present invention is based on the display unit 1 capable of displaying an image, the coordinate input unit 2 for inputting coordinates on the display screen of the display unit 1, and the coordinates input to the coordinate input unit 2. And a region designation unit 3 for designating a region R on the display screen of the display unit 1.
The area designation unit 3 first determines the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points based on the coordinates of the first two points simultaneously input to the coordinate input unit.
Also, based on the coordinates of the last two points detected immediately before the coordinates of the two points are not simultaneously input, the region designation unit 3 determines the coordinates of the second midpoint M2 obtained from the coordinates of the last two points. Do.
Then, the area designation unit 3 determines the area R on the display screen of the display unit 1 based on the coordinates of the first middle point M1 and the coordinates of the second middle point M2.

上記構成のように,本発明の情報処理装置は,最初に同時に入力された2点の座標から1点の第1中間座標を求め,最後に同時に入力された2点の座標から1点の第2中間座標を求めることにより,第1中間座標と第2中間座標とに基づいて表示画面上の領域を確定する。このように,本発明は,表示画面上の領域を指定する入力操作として,座標入力部に対し2点の座標を同時に入力する操作を求めるものであるため,表示画面上の任意領域を指定する入力操作を,例えば一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができる。従って,本発明によれば,ユーザによる誤操作を防止できる。
さらに,本発明は,例えばタッチパネルディスプレイを想定した場合には,二本の指のタッチ位置から第1中間座標を得て,二本の指がスライドした後にリリースされたタッチ位置から第2中間座標を得て,これらの第1中間座標及び第2中間座標に基づいて表示画面上の領域を確定する。このため,ユーザは,表示画面上の広い範囲の任意領域を,片手で容易に指定することができる。
このように,本発明は,表示部と座標入力部を備えた情報処理装置の新しい操作手法を提案するものである。本発明よれば,情報処理装置の操作性を向上させることができる。
As in the above configuration, the information processing apparatus of the present invention obtains the first intermediate coordinates of one point from the coordinates of two points simultaneously input at the same time, and the first information of the first point from the coordinates of two points simultaneously input at the last 2 Determine the area on the display screen based on the first intermediate coordinate and the second intermediate coordinate by obtaining the intermediate coordinate. As described above, since the present invention obtains an operation of simultaneously inputting the coordinates of two points to the coordinate input unit as an input operation of specifying an area on the display screen, an arbitrary area on the display screen is specified. The input operation can be effectively distinguished from, for example, an operation of touch or click input for designating one point, and an operation of sliding while continuing the input of one point. Therefore, according to the present invention, an erroneous operation by the user can be prevented.
Furthermore, in the case where a touch panel display is assumed, for example, the first intermediate coordinates are obtained from the touch positions of two fingers, and the second intermediate coordinates are obtained from the touch position released after the two fingers slide. And determine an area on the display screen based on these first and second intermediate coordinates. Therefore, the user can easily designate a wide range of arbitrary area on the display screen with one hand.
Thus, the present invention proposes a new operation method of an information processing apparatus provided with a display unit and a coordinate input unit. According to the present invention, the operability of the information processing apparatus can be improved.

本発明の情報処理装置において,表示部1は,表示画面上に複数のオブジェクトOを表示可能であることとしてもよい。この場合,本発明の情報処理装置は,領域指定部3により指定された領域Rに,少なくとも一部が含まれる一又は複数のオブジェクトOを選択するオブジェクト選択部4を,さらに有することが好ましい。   In the information processing apparatus of the present invention, the display unit 1 may be capable of displaying a plurality of objects O on the display screen. In this case, the information processing apparatus of the present invention preferably further includes an object selection unit 4 for selecting one or more objects O at least a part of which is included in the region R designated by the region designation unit 3.

上記構成のように,本発明の領域指定部によって表示画面上の領域を指定することの用途として,指定された領域内に含まれる一又は複数のオブジェクトを選択することが考えられる。例えば,画面上に表示された一のオブジェクトを選択する場合には,従来通り,ポインティングデバイスにより,所望のオブジェクトが表示された部分をタッチ又はクリック入力すればよい。そして,画面上に表示された複数のオブジェクトを選択する場合には,本発明の操作手法に従って,第1中間座標と第2中間座標に基づいて所定の領域を決定し,その所定の領域に所望のオブジェクトが含まれるようにすればよい。これにより,ユーザは,一のオブジェクトを選択する操作と複数のオブジェクトを選択する操作とを容易に区別できるようになる。   As in the above configuration, as one application of designating an area on the display screen by the area designation unit of the present invention, it is conceivable to select one or more objects contained in the designated area. For example, in the case of selecting one object displayed on the screen, it is sufficient to touch or click a portion where the desired object is displayed with a pointing device, as in the prior art. Then, when a plurality of objects displayed on the screen are selected, a predetermined area is determined based on the first intermediate coordinates and the second intermediate coordinates according to the operation method of the present invention, and the desired area is desired. Should be included. This enables the user to easily distinguish between the operation of selecting one object and the operation of selecting a plurality of objects.

本発明の情報処理装置において,表示部1と座標入力部2は,座標入力部2が表示部1の前面に重ね合わされることによりタッチパネルディスプレイ10を形成していることが好ましい。タッチパネルディスプレイ10とは,座標入力部2にユーザの手指等が接触した点を,表示部1の画面上における座標として検出する装置である。   In the information processing apparatus of the present invention, the display unit 1 and the coordinate input unit 2 preferably form the touch panel display 10 by superimposing the coordinate input unit 2 on the front surface of the display unit 1. The touch panel display 10 is a device that detects a point at which the user's finger or the like contacts the coordinate input unit 2 as coordinates on the screen of the display unit 1.

上記構成のように,表示部と座標入力部によってタッチパネルディスプレイを形成することにより,ユーザは直感的な操作によって,表示画面上の所定領域を指定できるようになる。   By forming the touch panel display by the display unit and the coordinate input unit as in the above configuration, the user can specify a predetermined area on the display screen by an intuitive operation.

本発明において,上記した領域Rは,例えば,第1中間点M1と第2中間点M2を繋ぐ線分を対角線とする多角形の領域であるか,第1中間点M1と第2中間点M2を繋ぐ線分を直径とする円形の領域であるか,若しくは,第1中間点M1と第2中間点M2を繋ぐ線分を長径又は短径とする楕円形の領域とすることができる。   In the present invention, the above-mentioned area R is, for example, an area of a polygon having a line segment connecting the first middle point M1 and the second middle point M2 as a diagonal, or the first middle point M1 and the second middle point M2 It is possible to use a circular area whose diameter is a line connecting the two or an elliptical area whose long axis or short axis is a line connecting the first middle point M1 and the second middle point M2.

本発明の第2の側面は,上記第1の側面に係る情報処理装置により実行される情報処理方法に関する。
すなわち,本発明の情報処理方法は,表示部1の表示画面上における座標を入力するための座標入力部2により検出された座標に基づいて,表示部1の表示画面上における領域を指定する。
本発明の情報処理方法では,まず,座標入力部2に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する工程を行う。
次に,本発明の情報処理方法は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する工程を行う。
そして,本発明の情報処理方法は,第1中間点M1の座標と第2中間点M2の座標に基づいて,表示部1の表示画面上における領域Rを確定する工程を行う。
A second aspect of the present invention relates to an information processing method executed by the information processing apparatus according to the first aspect.
That is, in the information processing method of the present invention, an area on the display screen of the display unit 1 is designated based on the coordinates detected by the coordinate input unit 2 for inputting the coordinates on the display screen of the display unit 1.
In the information processing method of the present invention, first, based on the coordinates of the first two points simultaneously input to the coordinate input unit 2, a step of determining the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points I do.
Next, according to the information processing method of the present invention, the second intermediate point M2 obtained from the coordinates of the last two points is calculated based on the coordinates of the last two points detected immediately before the coordinates of the two points are not simultaneously input. Perform the process of determining the coordinates.
Then, the information processing method according to the present invention performs the step of determining the area R on the display screen of the display unit 1 based on the coordinates of the first midpoint M1 and the coordinates of the second midpoint M2.

本発明の第3の側面は,ゲーム装置に関する。
本発明のゲーム装置は,タッチパネルディスプレイ100と,カードリーダ200と,カードリーダ200により読み取られた情報をタッチパネルディスプレイ100に表示してゲームを進行するゲーム本体部300と,を備える
タッチパネルディスプレイ100は,画像を表示可能なディスプレイ110と,ディスプレイ110の前面に重ね合わされの表示画面上における座標を入力するためのタッチスクリーン120と,を有する。
カードリーダ200は,所定のカード情報を有するコードが印刷されたカードが載置されるパネル210と,パネル210に載置されたカードのコードを読み取り,カード情報を検出するイメージセンサ230と,を有する。
また,ゲーム本体部300は,カード情報と関連付けてオブジェクトOに関する情報が記憶されるゲーム情報記憶部380と,カードリーダ200のイメージセンサ230により検出されたカード情報に基づいてゲーム情報記憶部380からオブジェクトOに関する情報を読み出し,読み出したオブジェクトOの画像をタッチパネルディスプレイ100のディスプレイ110に表示する制御を行う画像処理部330と,ゲーム処理部320と,を有する。
ここで,ゲーム処理部320は,まず,タッチパネルディスプレイ100のタッチスクリーン120に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する。また,ゲーム処理部320は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する。また,ゲーム処理部320は,第1中間点M1の座標と第2中間点M2の座標に基づいて,ディスプレイ110の表示画面上における領域Rを指定する。そして,ゲーム処理部320は,指定された領域Rに,少なくとも一部が含まれるように画像が表示されている一又は複数のオブジェクトOを選択して,ゲームを進行する。
A third aspect of the present invention relates to a game device.
The game device of the present invention includes a touch panel display 100, a card reader 200, and a game main unit 300 for displaying information read by the card reader 200 on the touch panel display 100 to advance a game. A display 110 capable of displaying an image, and a touch screen 120 superimposed on the front of the display 110 for inputting coordinates on the display screen.
The card reader 200 includes a panel 210 on which a card on which a code having predetermined card information is printed is placed, and an image sensor 230 which reads the code of the card placed on the panel 210 and detects the card information. Have.
In addition, the game main unit 300 is based on the game information storage unit 380 based on the game information storage unit 380 in which information on the object O is stored in association with the card information and the card information detected by the image sensor 230 of the card reader 200. The game processing unit 320 includes an image processing unit 330 that reads information related to the object O and controls the display 110 of the touch panel display 100 to display the read image of the object O.
Here, the game processing unit 320 firstly uses the coordinates of the first two points simultaneously input to the touch screen 120 of the touch panel display 100, and determines the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points. Decide. In addition, the game processing unit 320 determines the coordinates of the second midpoint M2 obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the coordinates of the two points are not simultaneously input. Do. Further, the game processing unit 320 designates the region R on the display screen of the display 110 based on the coordinates of the first middle point M1 and the coordinates of the second middle point M2. Then, the game processing unit 320 proceeds with the game by selecting one or more objects O on which an image is displayed so that at least a part is included in the designated area R.

上記構成のように,本発明のゲーム装置は,カードリーダとタッチパネルディスプレイを実装しており,これらの操作を組み合わせてゲームを進行していくものである。例えば,ゲームのユーザは,一方の手でカードリーダに載置されたカードの操作を行ってタッチパネルディスプレイに一又は複数のオブジェクトを表示させ,他方の手でタッチパネルディスプレイのタッチ操作を行うことで表示されたオブジェクトの選択を行う。このように,タッチパネルディスプレイを片手で操作してオブジェクトの選択を行わなければならないゲーム装置においては,上記したオブジェクト選択操作を採用することで,ゲームの操作性を向上させることができる。   As described above, the game device according to the present invention has a card reader and a touch panel display mounted thereon, and advances the game by combining these operations. For example, the user of the game operates the card placed on the card reader with one hand to display one or more objects on the touch panel display, and performs the touch operation on the touch panel display with the other hand. Select selected objects. As described above, in the game device which must select the object by operating the touch panel display with one hand, the operability of the game can be improved by adopting the object selection operation described above.

本発明は,最初に同時に入力された2点の座標から1点の第1中間座標を求め,最後に同時に入力された2点の座標から1点の第2中間座標を求めることにより,第1中間座標と第2中間座標とに基づいて表示画面上の領域を確定する。このように,本発明は,表示画面上の領域を指定する入力操作として,座標入力部に対し2点の座標を同時に入力する操作を求めるものである。このため,本発明によれば,表示画面上の領域を指定する入力操作を,例えば一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができる。   According to the present invention, the first intermediate coordinates of one point are obtained from the coordinates of two points simultaneously input at the same time, and the second intermediate coordinates of one point are obtained from the coordinates of two points simultaneously input last. An area on the display screen is determined based on the intermediate coordinates and the second intermediate coordinates. As described above, according to the present invention, as an input operation for specifying an area on a display screen, an operation for simultaneously inputting the coordinates of two points to the coordinate input unit is obtained. Therefore, according to the present invention, the input operation for specifying the area on the display screen is effectively distinguished from, for example, the operation of touch or click input for specifying one point or the operation of sliding while continuing the one point input. can do.

さらに,本発明は,例えばタッチパネルディスプレイを想定した場合には,二本の指のタッチ位置から第1中間座標を得て,二本の指がスライドした後にリリースされたタッチ位置から第2中間座標を得て,これらの第1中間座標及び第2中間座標に基づいて表示画面上の領域を確定することができる。このため,本発明によれば,ユーザは,表示画面上の広い範囲の領域を,片手で容易に指定することができる。   Furthermore, in the case where a touch panel display is assumed, for example, the first intermediate coordinates are obtained from the touch positions of two fingers, and the second intermediate coordinates are obtained from the touch position released after the two fingers slide. The area on the display screen can be determined based on these first and second intermediate coordinates. Therefore, according to the present invention, the user can easily designate a wide area on the display screen with one hand.

図1は,本発明に係る情報処理装置の機能ブロック図を示している。FIG. 1 shows a functional block diagram of an information processing apparatus according to the present invention. 図2は,本発明に係る情報処理装置により実行される処理のフローを示している。FIG. 2 shows the flow of processing executed by the information processing apparatus according to the present invention. 図3は,オブジェクト選択操作の概要を示した模式図である。FIG. 3 is a schematic view showing an outline of the object selection operation. 図4は,2点の座標から求められる第1中間点及び第2中間点の例を示している。FIG. 4 shows an example of the first midpoint and the second midpoint obtained from the coordinates of two points. 図5は,第1中間点及び第2中間点の座標から求められる領域の例を示している。FIG. 5 shows an example of a region obtained from the coordinates of the first midpoint and the second midpoint. 図6は,本発明に係るゲーム装置の構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of a game device according to the present invention. 図7は,本発明に係るゲーム装置の外観の例を示す斜視図である。FIG. 7 is a perspective view showing an example of the appearance of the game apparatus according to the present invention. 図8は,複数のカードが載置されたカードリーダを模式的に示している。FIG. 8 schematically shows a card reader on which a plurality of cards are placed. 図9は,本発明に係るゲーム装置の外観の例を示す斜視図である。FIG. 9 is a perspective view showing an example of the appearance of the game apparatus according to the present invention. 図10は,本発明に係るゲーム装置により実行されるゲームの一例を説明するための図である。FIG. 10 is a view for explaining an example of a game executed by the game device according to the present invention. 図11は,本発明に係るゲーム装置により実行されるゲームの一例を説明するための図である。FIG. 11 is a view for explaining an example of a game executed by the game device according to the present invention.

以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。   Hereinafter, an embodiment of the present invention will be described using the drawings. The present invention is not limited to the embodiments described below, and includes those appropriately modified by the person skilled in the art from the following embodiments within the obvious scope.

(1.情報処理装置及び情報処理方法)
まず,本発明に係る情報処理装置の基本構成について説明する。本発明の情報処理装置は,表示画面上の所定領域を指定することができ,指定した所定領域について種々の情報処理を行うことが可能である。例えば,本発明の情報処理装置は,指定した表示画面上の所定領域に含まれる一又は複数のオブジェクトを選択し,選択したオブジェクトの位置を移動させたりする等,選択したオブジェクトについて任意の命令を行うことができる。また,例えば,本発明の情報処理装置は,表示画面上の所定領域に含まれる画像を指定し,領域内の画像を拡大して表示したり,領域内の画像の切り取りを行う等の編集処理を行うこともできる。ただし,本発明により指定された所定領域の用途は,これらのものに限定されない。
以下では,本発明の情報処理装置ついて,指定した表示画面上の所定領域に含まれる一又は複数のオブジェクトを選択する実施形態を例に説明を行う。
(1. Information processing apparatus and information processing method)
First, the basic configuration of the information processing apparatus according to the present invention will be described. The information processing apparatus of the present invention can designate a predetermined area on the display screen, and can perform various information processing on the designated predetermined area. For example, the information processing apparatus according to the present invention selects one or more objects included in a predetermined area on the specified display screen, moves the position of the selected object, or performs an arbitrary instruction on the selected object. It can be carried out. Further, for example, the information processing apparatus according to the present invention designates an image included in a predetermined area on the display screen, and enlarges and displays an image in the area, or performs an editing process such as clipping an image in the area You can also do However, the application of the predetermined area designated by the present invention is not limited to these.
Hereinafter, an information processing apparatus according to an embodiment of the present invention will be described by way of an embodiment in which one or more objects included in a predetermined area on a designated display screen are selected.

図1は,本発明の情報処理装置の基本的な機能構成を示したブロック図である。図1に示されるように,本発明の情報処理装置は,タッチパネルディスプレイ10と,制御部20と,記憶部30とを有している。   FIG. 1 is a block diagram showing a basic functional configuration of the information processing apparatus of the present invention. As shown in FIG. 1, the information processing apparatus of the present invention includes a touch panel display 10, a control unit 20, and a storage unit 30.

タッチパネルディスプレイ10は,各種画像データをユーザが視認できる画像として表示し,かつユーザによって表示画面がタッチされた座標を検出可能な構成を有している。具体的に説明すると,タッチパネルディスプレイ10は,画像を表示できる表示部1の前面に,透明材料で形成された座標入力部2を配設して形成されている。表示部1は,例えばLCD(Liquid Crystal Display;液晶ディスプレイ)やOELD(Organic Electro LuminescenceDisplay;有機ELディスプレイ)のような表示装置である。表示部1は,制御部20からの入力信号に応じて,ユーザが情報処理装置を使用するにあたって必要とされる各種情報を静止画や動画として出力表示する。また,座標入力部2は,公知の静電容量方式,電磁誘導方式,赤外線走査方式,抵抗膜方式又は超音波表面弾性波方式などにより,ユーザの手指が接触したことを検知し,その座標情報を得ることができる。表示部1と座標入力部2の位置関係は互いにリンクしており,座標入力部2は,表示部1に表示された表示画面上におけるタッチ位置の座標情報を取得できる。これにより,座標入力部2は,ユーザの指が接触したことを検知し,ユーザの指が接触した表示部1の画面上の座標情報を得ることができる。例えば,座標入力部2は,ユーザが複数点をタッチした場合に,それらの複数点における座標情報を取得可能な,いわゆるマルチタッチに対応している。   The touch panel display 10 is configured to display various image data as an image that can be viewed by the user, and to detect coordinates at which the display screen is touched by the user. Specifically, the touch panel display 10 is formed by arranging the coordinate input unit 2 formed of a transparent material on the front surface of the display unit 1 capable of displaying an image. The display unit 1 is a display device such as, for example, an LCD (Liquid Crystal Display) or an OELD (Organic Electro Luminescence Display). The display unit 1 outputs and displays various information necessary for the user to use the information processing apparatus as a still image or a moving image in response to an input signal from the control unit 20. The coordinate input unit 2 detects the contact of the user's finger with a known capacitance method, electromagnetic induction method, infrared scanning method, resistive film method, ultrasonic surface acoustic wave method or the like, and the coordinate information thereof You can get The positional relationship between the display unit 1 and the coordinate input unit 2 is linked to each other, and the coordinate input unit 2 can acquire coordinate information of the touch position on the display screen displayed on the display unit 1. As a result, the coordinate input unit 2 can detect that the user's finger is touched, and can obtain coordinate information on the screen of the display unit 1 that the user's finger has touched. For example, the coordinate input unit 2 corresponds to a so-called multi-touch capable of acquiring coordinate information at a plurality of points when the user touches a plurality of points.

本発明による操作手法によれば,ユーザは,表示画面上の広い範囲の領域を片手で容易に指定することができる。このため,本発明の情報処理装置は,比較的大型のタッチパネルディスプレイ10を搭載できる。例えば,タッチパネルディスプレイ10は,10インチ〜75インチ,16インチ〜40インチ,又は20インチ〜38インチのディスプレイであることが好ましい。   According to the operation method according to the present invention, the user can easily designate a wide area on the display screen with one hand. Therefore, the information processing apparatus of the present invention can mount the touch panel display 10 of relatively large size. For example, the touch panel display 10 is preferably a 10 inch to 75 inch, 16 inch to 40 inch, or 20 inch to 38 inch display.

ただし,本発明において,表示部1と座標入力部2は,両者が一体に構成されたタッチパネルディスプレイとして機能するものに限定されない。例えば,表示部1と座標入力部2は,それぞれ別々のハードウェアとして機能するものであってもよい。この場合,表示部1としては,例えばLCDやOELDのような通常の表示装置を用いればよい。また,座標入力部2は,マウスやタッチタブレットのような表示部1とは別途設けられるポインティングデバイスであってもよい。   However, in the present invention, the display unit 1 and the coordinate input unit 2 are not limited to those functioning as a touch panel display in which both are integrally configured. For example, the display unit 1 and the coordinate input unit 2 may function as separate hardware. In this case, as the display unit 1, for example, a normal display device such as an LCD or OELD may be used. The coordinate input unit 2 may be a pointing device provided separately from the display unit 1 such as a mouse or a touch tablet.

制御部20は,記憶部30に記憶されている制御プログラムを読み出して実行することにより,情報処理装置全体の動作を制御する。制御部20は,例えば,CPU(Central Processing Unit)やGPU(Graphics Processing Unit)により,その機能が達成される。制御部20は,記憶部30からオブジェクトの画像データを含む情報を読み出して,オブジェクトの画像を生成し,タッチパネルディスプレイ10に表示させる。また,制御部20は,タッチパネルディスプレイ10により検出されたタッチ位置の座標情報を記憶部30に記憶させる。制御部20は,タッチパネルディスプレイ10に入力された座標情報に基づいて,表示画面上における所定領域を指定する演算を行うことができる。また,制御部20は,タッチパネルディスプレイ10に表示されているオブジェクトの位置情報及びタッチパネルディスプレイ10入力された座標情報を解析することで,オブジェクトが選択されたか否かを判断できる。   The control unit 20 reads out and executes the control program stored in the storage unit 30 to control the overall operation of the information processing apparatus. The control unit 20 achieves its function by, for example, a central processing unit (CPU) or a graphics processing unit (GPU). The control unit 20 reads information including image data of an object from the storage unit 30, generates an image of the object, and causes the touch panel display 10 to display the image. The control unit 20 also causes the storage unit 30 to store coordinate information of the touch position detected by the touch panel display 10. The control unit 20 can perform an operation of designating a predetermined area on the display screen based on the coordinate information input to the touch panel display 10. In addition, the control unit 20 can determine whether or not an object is selected by analyzing the position information of the object displayed on the touch panel display 10 and the coordinate information input to the touch panel display 10.

図1に示されるように,制御部20は,その機能的な観点から領域指定部3とオブジェクト選択部4を有する。領域指定部3は,記憶部30に記憶されている制御プログラムに従って,タッチパネルディスプレイ10の表示画面上における選択領域を指定する機能を持つ。また,オブジェクト選択部4は,タッチパネルディスプレイ10により検出されたタッチ位置がオブジェクトと重なっている場合や,領域指定部3により指定された選択領域にオブジェクトが含まれている場合に,それらのオブジェクトを選択する機能を持つ。詳しい説明は後述する。   As shown in FIG. 1, the control unit 20 has an area designation unit 3 and an object selection unit 4 from the functional viewpoint. Region designation unit 3 has a function of designating a selected region on the display screen of touch panel display 10 in accordance with the control program stored in storage unit 30. In addition, when the touch position detected by the touch panel display 10 overlaps with the object, or when the selection area designated by the area designation unit 3 includes an object, the object selection unit 4 Has a function to select. The detailed description will be described later.

記憶部30は,本発明の情報処理装置による処理に必要とされる制御プログラムを含む種々の情報を記憶する。記憶部30は,ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置により実現できる。RAMとしては,例えばVRAM(Video RAM),DRAM(Dynamic RAM)又はSRAM(Static RAM)等を例に挙げることができる。記憶部30は,その機能的な観点からオブジェクト記憶部5と座標記憶部6を有する。オブジェクト記憶部5は,タッチパネルディスプレイ10に表示されるオブジェクトについて,その画像データ(オブジェクトの頂点座標,頂点テクスチャ座標,又は輝度データ等)を含む情報を記憶している。座標記憶部6は,タッチパネルディスプレイ10の座標入力部2により取得された座標情報を記憶する。座標記憶部6は,制御部20によって座標情報の読み書きがなされるものであり,例えばRAMの作業領域により実現される。   The storage unit 30 stores various information including a control program required for processing by the information processing apparatus of the present invention. The storage unit 30 can be realized by a storage device such as a read only memory (ROM) or a random access memory (RAM). As the RAM, for example, a VRAM (Video RAM), a DRAM (Dynamic RAM), an SRAM (Static RAM) or the like can be mentioned as an example. The storage unit 30 has an object storage unit 5 and a coordinate storage unit 6 from the functional viewpoint. The object storage unit 5 stores, for an object displayed on the touch panel display 10, information including image data (vertex coordinates of the object, vertex texture coordinates, luminance data, etc.). The coordinate storage unit 6 stores coordinate information acquired by the coordinate input unit 2 of the touch panel display 10. The coordinate storage unit 6 is used by the control unit 20 to read and write coordinate information, and is realized by, for example, a work area of the RAM.

続いて,図2を参照して,本発明の情報処理装置により実行される情報処理のフローについて説明する。すなわち,情報処理装置の制御部20は,記憶部30に記憶されている制御プログラムを読み出し,読み出した制御プログラムに従って,図2に示された処理を実行する。ここでは,制御部20が,タッチパネルディスプレイ10に表示されたオブジェクトのうち,一又は複数のオブジェクトを選択するまでの処理を具体的に示している。また,図3は,情報処理装置により実行されるオブジェクト選択の処理を示した模式図である。   Subsequently, a flow of information processing executed by the information processing apparatus of the present invention will be described with reference to FIG. That is, the control unit 20 of the information processing apparatus reads the control program stored in the storage unit 30, and executes the process shown in FIG. 2 in accordance with the read control program. Here, the process until the control unit 20 selects one or more objects among the objects displayed on the touch panel display 10 is specifically shown. FIG. 3 is a schematic view showing the process of object selection performed by the information processing apparatus.

ステップS1は,タッチパネルディスプレイ10の座標入力部2によりタッチ入力が検出されていないタッチ入力待機状態である。図3に示されるように,この段階において,タッチパネルディスプレイ10の表示部1には,オブジェクト記憶部5から読み出された複数のオブジェクトO(O1〜O5)が表示されている。当然,複数のオブジェクトO(O1〜O5)は,制御部20により制御されて表示部1の画面上を移動しているものであってもよいし,静止しているものであってもよい。また,表示部1の画面上には,オブジェクトOの他に背景画像等が表示されていてもよい。   Step S1 is a touch input standby state in which a touch input is not detected by the coordinate input unit 2 of the touch panel display 10. As shown in FIG. 3, at this stage, the display unit 1 of the touch panel display 10 displays a plurality of objects O (O 1 to O 5) read from the object storage unit 5. Naturally, the plurality of objects O (O1 to O5) may be controlled by the control unit 20 to move on the screen of the display unit 1 or may be stationary. In addition to the object O, a background image or the like may be displayed on the screen of the display unit 1.

ステップS2において,タッチパネルディスプレイ10の座標入力部2により,第1点目のタッチ入力が検出される。図3に示されるように,第1点目のタッチ点P1は,例えばユーザの人差し指が座標入力部2に接触した点である。座標入力部2により第1点目のタッチ点P1の入力が検出されると,制御部20は第1点目のタッチ点P1の座標情報を取得し,取得した座標情報を座標記憶部6に一時的に記憶する。   In step S2, the coordinate input unit 2 of the touch panel display 10 detects a touch input at a first point. As shown in FIG. 3, the first touch point P1 is, for example, a point at which the index finger of the user touches the coordinate input unit 2. When the input of the first touch point P1 is detected by the coordinate input unit 2, the control unit 20 acquires coordinate information of the first touch point P1, and the acquired coordinate information is stored in the coordinate storage unit 6. Temporarily store.

ステップS3において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力が継続しているか否かを判断する。第1点目のタッチ入力が継続していると判断した場合にはステップS4へと進み,第1点目のタッチ入力が継続していないと判断した場合にはステップS17へと進む。   In step S <b> 3, the control unit 20 determines, based on the information detected by the coordinate input unit 2, whether or not the first point touch input is continuing. If it is determined that the first point touch input is continued, the process proceeds to step S4, and if it is determined that the first point touch input is not continued, the process proceeds to step S17.

ステップS4において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力が継続している間に第2点目のタッチ入力が行われたか否かを判断する。図3に示されるように,第2点目のタッチ点P2は,例えばユーザの親指が座標入力部2に接触した点である。座標入力部2により第2点目のタッチ点P2の入力が検出されると,制御部20は第2点目のタッチ点P2の座標情報を取得し,取得した座標情報を座標記憶部6に一時的に記憶する。第1点目のタッチ入力が継続している間に第2点目のタッチ入力が行われたと判断した場合にはステップS5へと進み,第2点目のタッチ入力が行われなかったと判断した場合にはステップS17へと進む。なお,タッチ入力待機状態(ステップS1)において,第1点目のタッチ入力と第2点目のタッチ入力が同時に検出された場合には,ステップS2〜ステップS4までの処理を同時に行なってステップS5へと進むこともできる。   In step S4, based on the information detected by the coordinate input unit 2, the control unit 20 determines whether the second point touch input is performed while the first point touch input continues. to decide. As shown in FIG. 3, the second touch point P 2 is, for example, a point at which the user's thumb touches the coordinate input unit 2. When the input of the second touch point P2 is detected by the coordinate input unit 2, the control unit 20 acquires coordinate information of the second touch point P2, and the acquired coordinate information is stored in the coordinate storage unit 6. Temporarily store. If it is determined that the second touch input is performed while the first touch input continues, the process proceeds to step S5, and it is determined that the second touch input is not performed. In the case, the process proceeds to step S17. When the touch input at the first point and the touch input at the second point are simultaneously detected in the touch input standby state (step S1), the processing from step S2 to step S4 is performed simultaneously, and step S5 is performed. You can go ahead.

ステップS5において,制御部20は,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報を座標記憶部6から読み出し,これらの座標情報に基づいて第1中間点M1の座標を算出する。図3に示された例において,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2の丁度中間の位置に設定されている。すなわち,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上において,第1点目のタッチ点P1と第2点目のタッチ点P2との距離が等しくなる位置に設定されている。ただし,第1中間点M1を設定する位置は,上記のものに限定されず,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報に基づいて設定可能な位置であればどのような位置であってもよい。例えば,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上において,第1点目のタッチ点P1と第2点目のタッチ点P2との距離が,6:4となるような位置に設定されても良い。なお,第1点目のタッチ点P1と第2点目のタッチ点P2との距離の比率は任意に設定できる。その他,種々の条件に応じて,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報に基づいて第1中間点の座標を設定できる。   In step S5, the control unit 20 reads the coordinate information of the first touch point P1 and the second touch point P2 from the coordinate storage unit 6, and based on the coordinate information, the control unit 20 determines the first intermediate point M1. Calculate the coordinates. In the example shown in FIG. 3, the first intermediate point M1 is set to a position just between the first touch point P1 and the second touch point P2. That is, the first intermediate point M1 is a first touch point P1 and a second touch point P2 on a line connecting the first touch point P1 and the second touch point P2. It is set to the position where distance with and becomes equal. However, the position where the first intermediate point M1 is set is not limited to the above, and may be a position that can be set based on coordinate information of the first touch point P1 and the second touch point P2. Any position may be used. For example, the first intermediate point M1 is a first touch point P1 and a second touch point P2 on a line connecting the first touch point P1 and the second touch point P2. And may be set to a position such that the distance between The ratio of the distance between the first touch point P1 and the second touch point P2 can be set arbitrarily. In addition, the coordinates of the first intermediate point can be set based on coordinate information of the first touch point P1 and the second touch point P2 according to various conditions.

また,図4には,別の条件により設定された第1中間点M1の例が示されている。図4の例において,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2が底角に位置する二等辺三角形の頂角の位置に設けられている。すなわち,図4に示されるように,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分から,二等辺三角形の高さhの分だけ離れた位置に設定される。このように,第1中間点M1を,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分から所定距離hだけ離れた位置に設定することで,ユーザが,タッチパネルディスプレイ10に表示される第1中間点M1の位置を目視し易くなるという利点がある。つまり,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上に第1中間点M1を設定すると,第1中間点M1は,視る角度によってはユーザの手に隠れてしまい目視しにくくなるという問題がある。この点,図4に示される位置に第1中間点M1を設定することで,第1中間点M1がユーザの手に隠れることを防止でき,ユーザは第1中間点M1の位置を把握し易くなる。   Further, FIG. 4 shows an example of the first middle point M1 set under another condition. In the example of FIG. 4, the first intermediate point M1 is provided at the apex of an isosceles triangle in which the touch point P1 at the first point and the touch point P2 at the second point are located at base angles. That is, as shown in FIG. 4, the first intermediate point M1 is separated from the line connecting the first touch point P1 and the second touch point P2 by the height h of the isosceles triangle. It is set to the In this manner, the user can set the first intermediate point M1 to a position separated by a predetermined distance h from the line connecting the first touch point P1 and the second touch point P2, thereby enabling the user to There is an advantage that the position of the first midpoint M1 displayed at 10 can be easily visually checked. That is, if the first middle point M1 is set on the line segment connecting the first touch point P1 and the second touch point P2, the first middle point M1 may be a user's hand depending on the viewing angle. There is a problem that it is difficult to see because it is hidden. In this respect, by setting the first intermediate point M1 at the position shown in FIG. 4, the first intermediate point M1 can be prevented from being hidden by the user's hand, and the user can easily grasp the position of the first intermediate point M1. Become.

ステップS5において算出された第1中間点M1の座標は,座標記憶部6に一時的に記憶される。第1中間点M1の座標の算出が完了すると,ステップS6へ進む。   The coordinates of the first intermediate point M1 calculated in step S5 are temporarily stored in the coordinate storage unit 6. When the calculation of the coordinates of the first intermediate point M1 is completed, the process proceeds to step S6.

ステップS6において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力と第2点目のタッチ入力が継続しているか否かを判断する。第1点目及び第2点目のタッチ入力が継続していると判断した場合にはステップS7へと進み,第1点目及び第2点目のタッチ入力の両方又はいずれか一方が継続していないと判断した場合にはステップS17へと進む。   In step S6, the control unit 20 determines, based on the information detected by the coordinate input unit 2, whether the first touch input and the second touch input are continued. If it is determined that the first and second touch inputs continue, the process proceeds to step S7, and both or any one of the first and second touch inputs continues. If it is determined that it is not, the process proceeds to step S17.

ステップS7において,制御部20は,第1点目及び第2点目のタッチ入力が継続した状態で,2点のタッチ入力がスライドしたか否かを判断する。タッチ入力のスライドとは,タッチ入力の検出された座標が連続的に変位することを意味する。要するに,ステップS7では,ユーザの二本の指(例えば人差し指と親指)がタッチパネルディスプレイ10の座標入力部2に接した状態のまま,画面上のなぞるように移動したか否かを判断する。制御部20は,座標入力部2により連続的に検出される座標情報に基づいて,2点のタッチ入力がスライドしたことを判断できる。2点のタッチ入力がスライドすることにより連続的に検出される座標情報は,座標情報記憶部6に随時記憶される。2点のタッチ入力がスライドしたと判断した場合にはステップS8へと進み,第1点目及び第2点目のタッチ入力の両方又はいずれか一方がスライドしていないと判断した場合にはステップS17へと進む。   In step S7, the control unit 20 determines whether or not the two-point touch input has slid while the first and second touch inputs continue. The slide of the touch input means that the detected coordinates of the touch input are displaced continuously. In short, in step S7, it is determined whether or not the user's two fingers (for example, the index finger and the thumb) move so as to trace on the screen while in contact with the coordinate input unit 2 of the touch panel display 10. The control unit 20 can determine that the touch input at two points has slid based on the coordinate information continuously detected by the coordinate input unit 2. The coordinate information continuously detected by sliding the two touch inputs is stored in the coordinate information storage unit 6 as needed. If it is determined that the two touch inputs slide, the process proceeds to step S8, and if it is determined that the first and / or second touch inputs do not slide. Go to S17.

ステップS8において,制御部20は,2点のタッチ入力がスライドすることにより連続的に検出された座標情報を座標情報記憶部6から読み出し,2点のタッチ点の座標情報に基づいて第2中間点候補の座標を随時算出する。
「第2中間点」とは,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる点である。「第2中間点候補」とは,上記第2中間点となり得る点である。
図3において,符号P3は,第1点目のタッチ点P1から継続したスライド入力がリリースされる直前に,座標入力部6により検出された第3点目のタッチ点(人差し指のリリース点)を示し,符号P4は,第2点目のタッチ点P2から継続したスライド入力がリリースされる直前に,座標入力部6により検出された第4点目のタッチ点(親指のリリース点)を示している。「第2中間点M2」の座標は,第3点目のタッチ点の座標と,第4点目のタッチ点の座標から求めることができる。第2中間点M2の座標を算出するための条件は,第1中間点M1の座標を算出するための条件と同じものとすればよい。
他方,図3において,符号P3´は,第1点目のタッチ点P1からのスライド入力が継続している途中の点を示し,符号P4´は,第2点目のタッチ点P2からのスライド入力が継続している途中の点を示している。これらの途中の点(P3´,P4´)は複数存在し,スライド入力が継続することで,途中の点(P3´,P4´)の座標は連続的に座標情報記憶部6に記憶されている。この途中の点(P3´,P4´)に基づいて,「第2中間点候補M2´」の座標が連続的に算出される。第2中間点候補M2´の座標を算出するための条件は,第2中間点M2の座標を算出するための条件と同じものである。算出された第2中間点候補M2´の座標は,座標記憶部6に随時記憶される。第2中間点候補M2´の座標が算出されると,ステップS9へと進む。
In step S8, the control unit 20 reads from the coordinate information storage unit 6 the coordinate information continuously detected by sliding of the two touch inputs, and the second intermediate based on the coordinate information of the two touch points. Coordinates of point candidates are calculated as needed.
The “second midpoint” is a point obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the coordinates of the two points are not simultaneously input. The “second intermediate point candidate” is a point that can be the second intermediate point.
In FIG. 3, the code P3 indicates the third touch point (the release point of the forefinger) detected by the coordinate input unit 6 immediately before the slide input continued from the first touch point P1 is released. The symbol P4 indicates the fourth touch point (thumb release point) detected by the coordinate input unit 6 immediately before the continuous slide input from the second touch point P2 is released. There is. The coordinates of the “second middle point M2” can be obtained from the coordinates of the touch point at the third point and the coordinates of the touch point at the fourth point. The conditions for calculating the coordinates of the second intermediate point M2 may be the same as the conditions for calculating the coordinates of the first intermediate point M1.
On the other hand, in FIG. 3, the code P3 'indicates a point during the slide input continuing from the first touch point P1, and the code P4' indicates a slide from the second touch point P2. Indicates a point in the middle of continuing the input. A plurality of these midway points (P3 ', P4') exist, and by continuing the slide input, the coordinates of the midway points (P3 ', P4') are continuously stored in the coordinate information storage unit 6 There is. The coordinates of the “second intermediate point candidate M2 ′” are continuously calculated based on the points (P3 ′, P4 ′) in the middle. The conditions for calculating the coordinates of the second intermediate point candidate M2 ′ are the same as the conditions for calculating the coordinates of the second intermediate point M2. The coordinates of the calculated second intermediate point candidate M 2 ′ are stored in the coordinate storage unit 6 as needed. When the coordinates of the second intermediate point candidate M2 'are calculated, the process proceeds to step S9.

ステップS9において,制御部20の領域指定部3は,上説した第1中間点M1の座標と,第2中間点候補M2´の座標に基づいて,選択領域候補A´を算出する。選択領域候補A´は,後述する選択領域Aとなり得る領域である。選択領域候補R´は,例えば第1中間点M1と第2中間点候補M2´を繋ぐ線分を対角線とする矩形の領域である。選択領域候補R´は,2点のタッチ入力がスライドし,第2中間点候補M2´の座標が変化するに伴って,その形状及び面積が変化する。このため,選択領域候補R´は,第2中間点候補M2´の座標の変化に応じて,連続的に算出される。選択領域候補R´が算出されると,ステップS10へと進む。   In step S9, the area designation unit 3 of the control unit 20 calculates the selection area candidate A ′ based on the coordinates of the first middle point M1 and the coordinates of the second middle point candidate M2 ′ described above. The selection area candidate A ′ is an area that can be a selection area A described later. The selection area candidate R ′ is, for example, a rectangular area having a line segment connecting the first middle point M1 and the second middle point candidate M2 ′ as a diagonal. The shape and the area of the selection region candidate R ′ change as the coordinates of the second intermediate point candidate M2 ′ change as the touch input at two points slides. Therefore, the selection region candidate R 'is continuously calculated according to the change of the coordinates of the second intermediate point candidate M2'. When the selected region candidate R 'is calculated, the process proceeds to step S10.

ステップS10において,制御部20は,ステップS9において算出した選択領域候補R´をタッチパネルディスプレイ10に表示する。上述の通り,選択領域候補R´は連続的に算出されるものであるため,選択領域候補R´が算出された都度タッチパネルディスプレイ10に表示していく。これにより,ユーザは,タッチパネルディスプレイ10の表示によって選択領域候補R´を確認できるため,選択領域候補R´内に選択を希望するオブジェクトが含まれるようにタッチ位置を調節することができる。選択領域候補R´が表示されると,ステップS11へと進む。   In step S10, the control unit 20 displays the selected area candidate R 'calculated in step S9 on the touch panel display 10. As described above, since the selection area candidate R 'is continuously calculated, the selection area candidate R' is displayed on the touch panel display 10 each time the selection area candidate R 'is calculated. As a result, the user can confirm the selection area candidate R ′ by the display on the touch panel display 10, and can adjust the touch position so that the object desired to be selected is included in the selection area candidate R ′. When the selection area candidate R 'is displayed, the process proceeds to step S11.

ステップS11において,制御部20は,第1点目のタッチ点P1及び第2点目のタッチ点P2から継続したスライド入力が,リリースされたか否かを判断する。すなわち,制御部20は,座標入力部2により,第1点目のタッチ点P1及び第2点目のタッチ点P2から継続していたタッチ入力が検出されなくなったときに,スライド入力がリリースされたと判断すればよい。スライド入力がリリースされたと判断された場合,ステップS12へと進む。他方,スライド入力がリリースされずに継続していると判断した場合には,スライド入力のリリースが検知されるまで,ステップS8〜ステップS10の処理を繰り返し行う。   In step S11, the control unit 20 determines whether the slide input continued from the first touch point P1 and the second touch point P2 is released. That is, the control unit 20 releases the slide input when the coordinate input unit 2 no longer detects the touch input continuing from the first touch point P1 and the second touch point P2. You should judge that If it is determined that the slide input has been released, the process proceeds to step S12. On the other hand, when it is determined that the slide input is continued without being released, the processes of steps S8 to S10 are repeated until the release of the slide input is detected.

ステップS12において,制御部20は,第2中間点M2の座標を確定する。すなわち,まず,制御部20は,図3に示されるように,ステップS11においてスライド入力がリリースされる直前に座標入力部2により検知された点を,第3点目のタッチ点P3及び第4点目のタッチ点P4と認定する。なお,第3点目のタッチ点P3は,第1点目のタッチ点P1から継続したスライド入力がリリースされる直前に座標入力部6により検出されたタッチ点である。また,第4点目のタッチ点P4は,第2点目のタッチ点P2から継続したスライド入力がリリースされる直前に,座標入力部6により検出されたタッチ点である。そして,制御部20は,第3点目のタッチ点P3の座標及び第4点目のタッチ点P4の座標に基づいて,第2中間点M2の座標を算出する。第2中間点M2の座標を算出するための条件は,第1中間点M1の座標を算出するための条件と同じものとすればよい。第2中間点M2の座標は,座標記憶部6に記憶される。第2中間点M2の座標が求まると,ステップS13へ進む。   In step S12, the control unit 20 determines the coordinates of the second midpoint M2. That is, first, as shown in FIG. 3, the control unit 20 detects the point detected by the coordinate input unit 2 immediately before the slide input is released in step S11, as the third touch point P3 and the fourth touch point P3. The touch point P4 is identified as the point. The third touch point P3 is a touch point detected by the coordinate input unit 6 immediately before the slide input continued from the first touch point P1 is released. The fourth touch point P4 is a touch point detected by the coordinate input unit 6 immediately before the slide input continued from the second touch point P2 is released. Then, the control unit 20 calculates the coordinates of the second intermediate point M2 based on the coordinates of the third touch point P3 and the coordinates of the fourth touch point P4. The conditions for calculating the coordinates of the second intermediate point M2 may be the same as the conditions for calculating the coordinates of the first intermediate point M1. The coordinates of the second intermediate point M2 are stored in the coordinate storage unit 6. When the coordinates of the second midpoint M2 are obtained, the process proceeds to step S13.

ステップS13において,制御部20の領域指定部3は,上説した第1中間点M1の座標と第2中間点M2の座標に基づいて,タッチパネルディスプレイ10の表示画面上の選択領域Rを確定する。図3に示された例おいて,選択領域Rは,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とし,かつ,表示画面のY軸に平行な二辺とX軸に平行な二辺により周囲を画定される矩形(四角形)の領域となっている。選択領域Rが指定されると,選択領域Rをなす形状の各頂点の座標が記憶部30に記憶される。   In step S13, the area designation unit 3 of the control unit 20 determines the selection area R on the display screen of the touch panel display 10 based on the coordinates of the first midpoint M1 and the coordinates of the second midpoint M2 described above. . In the example shown in FIG. 3, the selection region R has two sides parallel to the Y axis of the display screen, with a line segment D connecting the coordinates of the first middle point M1 and the second middle point M2 as a diagonal. It is an area of a rectangle (square) defined by two sides parallel to the X axis. When the selection area R is designated, the coordinates of each vertex of the shape forming the selection area R are stored in the storage unit 30.

ただし,選択領域Rの形状は,上記のものに限定されず,第1中間点M1と第2中間点M2の2点の座標に基づいて決定できる形状であればよい。図5には,第1中間点M1と第2中間点M2の2点の座標に基づいて決定可能な選択領域Rの形状の例が示されている。
図5(a)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とする多角形の領域となっている。具体的に説明すると,図5(a)の例では,選択領域Aが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とし,かつ,第1中間点M1からX軸方向に延びる辺と,第2中間点M2からX軸方向に延びる辺が,平行である六角形となっている。
また,図5(b)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを直径とする正円形の領域となっている。
さらに,図5(c)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを長径とする楕円形の領域となっている。この場合,楕円形の領域の短径の長さは,一定の値としてもよいし,長径と比例する値としてもよい。また,図示は省略するが,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを短径とする楕円形の領域であってもよい。
このように,選択領域Rの形状は,その用途に応じて適宜設定することができる。
However, the shape of the selection region R is not limited to the above, and may be a shape that can be determined based on the coordinates of two points of the first middle point M1 and the second middle point M2. FIG. 5 shows an example of the shape of the selection area R which can be determined based on the coordinates of two points of the first middle point M1 and the second middle point M2.
In the example shown in FIG. 5A, the selection area R is an area of a polygon having a line segment D connecting the coordinates of the first middle point M1 and the second middle point M2 as a diagonal. Specifically, in the example of FIG. 5A, the selection area A has a line segment D connecting the coordinates of the first midpoint M1 and the second midpoint M2 as a diagonal, and from the first midpoint M1 A side extending in the X-axis direction and a side extending in the X-axis direction from the second intermediate point M2 are parallel hexagonal.
Further, in the example shown in FIG. 5B, the selection area R is a circular area having a diameter of a line segment D connecting the coordinates of the first middle point M1 and the second middle point M2.
Furthermore, in the example shown in FIG. 5C, the selection region R is an elliptical region having a major axis the line segment D connecting the coordinates of the first midpoint M1 and the second midpoint M2. In this case, the length of the minor axis of the elliptical area may be a constant value or a value proportional to the major axis. Moreover, although illustration is abbreviate | omitted, the selection area | region R may be an elliptical area | region which makes the minor axis the line segment D which connects the coordinate of the 1st middle point M1, and the 2nd middle point M2.
Thus, the shape of the selection area R can be appropriately set according to the application.

ステップS14において,制御部20は確定された選択領域Rを,タッチパネルディスプレイ10に表示する。これにより,ユーザは,タッチパネルディスプレイ10の表示によって選択領域Rを確認できる。   In step S14, the control unit 20 displays the determined selection area R on the touch panel display 10. Thereby, the user can confirm the selection area R by the display of the touch panel display 10.

ステップS15において,制御部20のオブジェクト選択部4は,表示画面上の選択領域R内にオブジェクトが存在するか否かを判断する。画面上に表示されている複数のオブジェクトOが存在する位置は制御部20によって把握されている。このため,表示画面上の選択領域Rをなす形状の各頂点座標と,オブジェクトOが存在する座標を参照することにより,選択領域R内にオブジェクトOが含まれるか否かを判断できる。図3に示された例において,タッチパネルディスプレイ10の画面上には,オブジェクトO1〜O5が表示されている。このうち,オブジェクO1〜03は,その全体又は一部が選択領域R内に含まれる。他方,オブジェクO4,05は,その全体が選択領域R外に位置している。このため,制御部20のオブジェクト選択部4は,複数のオブジェクトO1〜O5のうち,オブジェクO1〜03が選択領域R内に含まれると判断する。表示画面上の選択領域R内にオブジェクトが存在する場合には,ステップS16へ進む。
一方,選択領域R内にいずれのオブジェクトも含まれない場合には,ステップS1へ戻り,再びタッチ入力待機状態となる。
In step S15, the object selection unit 4 of the control unit 20 determines whether an object exists in the selection area R on the display screen. The position where the plurality of objects O displayed on the screen exist is grasped by the control unit 20. Therefore, whether or not the object O is included in the selection area R can be determined by referring to the vertex coordinates of the shape forming the selection area R on the display screen and the coordinates at which the object O exists. In the example shown in FIG. 3, objects O1 to O5 are displayed on the screen of the touch panel display 10. Among them, all or part of the objects O 1-03 are included in the selection region R. On the other hand, the object O4, 05 is located outside the selection region R in its entirety. Therefore, the object selecting unit 4 of the control unit 20 determines that the objects O1 to 03 are included in the selection region R among the plurality of objects O1 to O5. If there is an object in the selection area R on the display screen, the process proceeds to step S16.
On the other hand, when no object is included in the selection area R, the process returns to step S1 and the touch input standby state is established again.

ステップS16において,制御部20のオブジェクト選択部4は,選択領域R内に含まれると判断した一又は複数のオブジェクトを選択する。選択されたオブジェクトに関する情報(各オブジェクトの識別番号等)は,記憶部30の作業領域に一時記憶される。   In step S16, the object selection unit 4 of the control unit 20 selects one or more objects determined to be included in the selection area R. Information on the selected object (such as the identification number of each object) is temporarily stored in the work area of the storage unit 30.

また,図2に示されるように,第1点目のタッチ入力が継続している間に,第2点目のタッチ入力がされなかったか,若しくは第2点目のタッチ入力がされたものの2点同時のスライド入力がされなかった場合に,ステップS17へと進む。この場合,ステップS17では,従来通り,第1点目のタッチ点P1に,表示画面上のオブジェクトが位置しているか否かを判断する。ここでは,第1点目のタッチ点P1の座標と,表示画面上にオブジェクトが存在する座標を参照し,両座標が一致した場合に,ステップS16へと進む。
ステップS16において,制御部20のオブジェクト選択部4は,第1点目のタッチ点P1と座標が一致した一のオブジェクトを選択する。選択されたオブジェクトに関する情報は,記憶部30の作業領域に一時記憶される。
Also, as shown in FIG. 2, while the first touch input is continuing, the second touch input may not have been made, or the second touch input may have been made 2 If the point simultaneous slide input is not performed, the process proceeds to step S17. In this case, in step S17, it is determined whether the object on the display screen is positioned at the first touch point P1 as in the prior art. Here, the coordinates of the first touch point P1 and the coordinates at which the object is present on the display screen are referred to, and when both coordinates coincide, the process proceeds to step S16.
In step S16, the object selection unit 4 of the control unit 20 selects one object whose coordinates coincide with the first touch point P1. Information on the selected object is temporarily stored in the work area of the storage unit 30.

上記のようにして,制御部20は,タッチパネルディスプレイ10に表示されたオブジェクトのうち,一又は複数のオブジェクトを選択する処理を行う。制御部20によりオブジェクトが選択された場合,例えば,オブジェクトが選択された状態でドラッグ操作を行うことで,オブジェクトの表示画面上における位置を移動させる等,公知となっている種々の情報処理を行うことができる。   As described above, the control unit 20 performs a process of selecting one or more objects among the objects displayed on the touch panel display 10. When an object is selected by the control unit 20, for example, performing known drag processing such as moving the position of the object on the display screen by performing a drag operation in a state where the object is selected be able to.

(2.ゲーム装置)
続いて,本発明の実施形態に係るゲーム装置について説明する。本発明のゲーム装置は,基本的に,タッチパネルディスプレイを備える。そして,ゲーム装置は,タッチパネルディスプレイに表示される一又は複数のオブジェクトを,上述した方法によって選択し,選択したオブジェクトに対し種々の命令を付与することで,ゲームを進めることが可能である。
(2. Game device)
Subsequently, a game device according to an embodiment of the present invention will be described. The game device of the present invention basically comprises a touch panel display. Then, the game apparatus can advance the game by selecting one or more objects displayed on the touch panel display by the above-described method and giving various instructions to the selected objects.

[ゲーム装置の構成例]
図6は,ゲーム装置の構成例を示すブロック図である。このブロック図で表される実施形態は,特にアーケード型のゲーム装置として好適に利用することができる。図7は,ゲーム装置の筐体の外観例を示す斜視図である。
[Configuration Example of Game Device]
FIG. 6 is a block diagram showing a configuration example of a game device. The embodiment represented by this block diagram can be suitably used particularly as an arcade type game device. FIG. 7 is a perspective view showing an example of the appearance of the case of the game apparatus.

図6に示されるように,ゲーム装置は,タッチパネルディスプレイ100と,カードリーダ200と,ゲーム本体部300を含む。タッチパネルディスプレイ100は,各種画像データをユーザが視認できる画像として表示でき,かつユーザによって表示画面がタッチされた座標を検出可能な構成を有している。また,カードリーダ200は,所定の識別コードが印刷されたカードが載置されたときに,そのカードに記録されている識別コードを読み取って,カード固有のカード情報を取得可能な構成を有している。また,ゲーム本体部300は,ゲーム装置全体の機能を制御するものである。特に,ゲーム本体部300は,カードリーダ200により読み取られた情報に基づいてタッチパネルディスプレイ100にオブジェクトを表示し,カードリーダ200に対するカード操作,及びタッチパネルディスプレイ100に対するタッチ操作に基づいて,ゲームを進行することができる。   As shown in FIG. 6, the game device includes a touch panel display 100, a card reader 200, and a game main unit 300. The touch panel display 100 can display various image data as an image that can be viewed by the user, and can detect coordinates at which the display screen is touched by the user. Further, when the card on which a predetermined identification code is printed is placed, the card reader 200 has a configuration capable of reading the identification code recorded in the card and acquiring card information unique to the card. ing. Further, the game main unit 300 controls the functions of the entire game device. In particular, the game main unit 300 displays an object on the touch panel display 100 based on the information read by the card reader 200, and progresses the game based on the card operation on the card reader 200 and the touch operation on the touch panel display 100. be able to.

図6に示されるように,タッチパネルディスプレイ100は,ディスプレイ110と,タッチスクリーン120を備える。タッチパネルディスプレイ100は,画像を表示できるディスプレイ100の前面に,透明材料で形成されたタッチスクリーン120を配設して形成されている。ディスプレイ110は,例えばLCD(Liquid Crystal Display;液晶ディスプレイ)やOELD(Organic Electro LuminescenceDisplay;有機ELディスプレイ)のような表示装置である。ディスプレイ110は,ゲーム本体部300からの入力信号に応じて,ユーザが情報処理装置を使用するにあたって必要とされる各種情報を静止画や動画として出力表示する。また,タッチスクリーン120は,公知の静電容量方式,電磁誘導方式,赤外線走査方式,抵抗膜方式又は超音波表面弾性波方式などにより,ユーザの手指が接触したことを検知し,そのタッチ位置の座標情報を得ることができる。ディスプレイ110とタッチスクリーン120の位置関係は互いにリンクしており,タッチスクリーン120は,ディスプレイ110に表示された表示画面上におけるタッチ位置の座標情報を取得できる。これにより,タッチスクリーン120は,ユーザの指が接触したことを検知し,ユーザの指が接触したディスプレイ110の画面上の座標情報を得ることができる。タッチスクリーン120により取得された座標情報は,ゲーム本体部300の一時記憶部370に記憶される。また,タッチスクリーン120は,ユーザが複数点をタッチした場合に,それらの複数点における座標情報を取得可能な,いわゆるマルチタッチに対応している。また,本発明のゲーム装置は,比較的大型のタッチパネルディスプレイ100を搭載することが好ましい。例えば,タッチパネルディスプレイ100は,10インチ〜75インチ,16インチ〜40インチ,又は20インチ〜38インチのディスプレイであることが好ましい。   As shown in FIG. 6, the touch panel display 100 includes a display 110 and a touch screen 120. The touch panel display 100 is formed by disposing a touch screen 120 formed of a transparent material on the front surface of the display 100 capable of displaying an image. The display 110 is a display device such as, for example, an LCD (Liquid Crystal Display) or an OELD (Organic Electro Luminescence Display). The display 110 outputs and displays various information necessary for the user to use the information processing apparatus as a still image or a moving image in response to an input signal from the game main body 300. In addition, the touch screen 120 detects the contact of the user's finger with a known capacitance method, electromagnetic induction method, infrared scanning method, resistive film method, ultrasonic surface acoustic wave method or the like, and detects the touch position Coordinate information can be obtained. The positional relationship between the display 110 and the touch screen 120 is linked to each other, and the touch screen 120 can acquire coordinate information of a touch position on the display screen displayed on the display 110. As a result, the touch screen 120 can detect that the user's finger is touched, and can obtain coordinate information on the screen of the display 110 that the user's finger has touched. The coordinate information acquired by the touch screen 120 is stored in the temporary storage unit 370 of the game main unit 300. In addition, the touch screen 120 corresponds to so-called multi-touch capable of acquiring coordinate information at a plurality of points when the user touches a plurality of points. Moreover, it is preferable that the game device of the present invention has a relatively large touch panel display 100 mounted thereon. For example, the touch panel display 100 is preferably a display of 10 inches to 75 inches, 16 inches to 40 inches, or 20 inches to 38 inches.

図6に示されるように,カードリーダ200は,カードCに記録された識別コードを撮像することができる装置であり,パネル210と,光源220と,イメージセンサ230を備える。カードCは,その表面には,例えばゲームで使用されるオブジェクトのイラストが印刷され,その裏面には,表面に印刷されたオブジェクトを識別するための識別コードが記録されている。また,カードCの裏面には,例えば可視光では視認できないインクにより識別コードが印刷されており,特定の不可視光を照射すると白と黒で印刷されたパターンが表出する。識別コードは,赤外線などの不可視光を吸収する特殊なインクで印刷されており,カードCの裏面に赤外線を照射すると,識別コードの黒部分を除く部分に照射された不可視光が反射するようになっている。例えば,カードCの識別コードには,少なくともカードに描かれたオブジェクトの識別番号や,カードの向き等に関する情報が記録されている。   As shown in FIG. 6, the card reader 200 is an apparatus capable of capturing an identification code recorded on the card C, and includes a panel 210, a light source 220, and an image sensor 230. On the front surface of the card C, for example, an illustration of an object used in the game is printed, and on the back surface, an identification code for identifying the object printed on the front surface is recorded. Further, an identification code is printed on the back surface of the card C with, for example, an ink which can not be visually recognized by visible light, and when specific invisible light is irradiated, a pattern printed in black and white appears. The identification code is printed with a special ink that absorbs invisible light such as infrared light, so that when the back of card C is irradiated with infrared light, the invisible light irradiated to the part excluding the black part of the identification code is reflected It has become. For example, in the identification code of the card C, at least information on the identification number of the object drawn on the card, the orientation of the card, and the like is recorded.

カードリーダ200上面にはパネル210が設けられ,パネル210上には複数枚のカードCを載置できる。また,ゲーム装置の筐体内部には,例えば,パネル210に載置されたカードCの裏面に対して赤外線(不可視光)を照射する光源220と,パネル210上に載置されたカードCの裏面を反射した赤外線を取得してカードCに記録されたカードデータのパターンを撮像するイメージセンサ230が設けられている。光源220の例は,赤外線や紫外線等の肉眼で見えない不可視光を発光する発光ダイオード(LED)である。イメージセンサ230の例は,カードCの裏面を反射してカードリーダ200内に入射した赤外線により識別コードを撮像する撮像素子である。そして,カードリーダ200は,この識別コードを解析することにより,カードC固有のカード情報を取得できる。カードリーダ200により取得されたカード情報は,ゲーム本体部300の処理部310に伝達されて,一時記憶部270に記憶される。   A panel 210 is provided on the upper surface of the card reader 200, and a plurality of cards C can be placed on the panel 210. Further, inside the case of the game apparatus, for example, a light source 220 for emitting infrared rays (invisible light) to the back surface of the card C placed on the panel 210 and a card C placed on the panel 210 There is provided an image sensor 230 for capturing an infrared ray reflected on the back surface and capturing a pattern of card data recorded on the card C. An example of the light source 220 is a light emitting diode (LED) that emits invisible light invisible to the naked eye, such as infrared light and ultraviolet light. An example of the image sensor 230 is an imaging element that captures an identification code by infrared rays reflected on the back surface of the card C and entering the card reader 200. The card reader 200 can acquire card information unique to the card C by analyzing the identification code. The card information acquired by the card reader 200 is transmitted to the processing unit 310 of the game main unit 300 and stored in the temporary storage unit 270.

カードCの識別コードには,少なくともカードに描かれたオブジェクトの識別番号や,カードの向き等に関する情報が記録されている。このため,ゲーム本体部300の処理部310は,カードリーダ200から得たカード情報に基づいて,ゲーム情報記憶部380又は一時記憶部270に記憶されているオブジェクトテーブルを参照することで,カードCに記録されたオブジェクトのステータスや,種類,名前,属性,さらにはカードCの向きや位置に応じたオブジェクトの特性を把握することができる。オブジェクトの例は,ゲームキャラクタである。また,ゲーム本体部300の処理部310は,カードリーダ200のイメージセンサ230により赤外線光がカードCの裏面により反射された位置を検出することで,カードCがパネル210上に載置されている位置を座標情報として求めることができる。また,イメージセンサ230により赤外線光の反射位置を連続的に検出することで,パネル210上に載置されたカードCが,ある位置から他の位置まで移動したという情報を得ることもできる。   The identification code of the card C records at least the identification number of the object drawn on the card, the information on the orientation of the card, and the like. For this reason, the processing unit 310 of the game main unit 300 refers to the object table stored in the game information storage unit 380 or the temporary storage unit 270 based on the card information obtained from the card reader 200, thereby making the card C It is possible to grasp the status of the object recorded in, the type, the name, the attribute, and further the characteristic of the object according to the orientation and position of the card C. An example of an object is a game character. In addition, the processing unit 310 of the game main unit 300 detects the position where infrared light is reflected by the back surface of the card C by the image sensor 230 of the card reader 200, whereby the card C is placed on the panel 210. The position can be determined as coordinate information. Further, by continuously detecting the reflection position of the infrared light by the image sensor 230, it is possible to obtain information that the card C placed on the panel 210 has moved from a certain position to another position.

さらに,カードリーダ200は,図8に示されるように,パネル210上が複数のエリアに区分されていることが好ましい。パネル210上の区分の数は,例えば2〜10とすることができる。図8に示された例において,カードリーダ200のパネル210は,オフェンシブエリアA1(第1エリア)とディフェンシブエリアA2(第2エリア)に二分割されている。このエリアは,パネルの座標に応じて区分されたものであり,各カードCは,オフェンシブエリアA1とディフェンシブエリアA2をスライド移動することができる。ゲーム本体部300の処理部310は,各カードCのパネル210上における位置を座標情報として取得することにより,各カードCが,オフェンシブエリアA1とディフェンシブエリアA2のいずれに属する位置にあるのかを判定することができる。   Furthermore, as shown in FIG. 8, the card reader 200 is preferably divided into a plurality of areas on the panel 210. The number of sections on the panel 210 can be, for example, 2-10. In the example shown in FIG. 8, the panel 210 of the card reader 200 is divided into two into an offensive area A1 (first area) and a defensive area A2 (second area). This area is divided according to the coordinates of the panel, and each card C can slide on the offensive area A1 and the defensive area A2. The processing unit 310 of the game main unit 300 acquires the position of each card C on the panel 210 as coordinate information to determine which of the offensive area A1 and the defensive area A2 each card C belongs to. can do.

また,図8に示されるように,カードリーダ200のパネル210上には,長方形のカードCを縦向き又は横向きにして載置することが可能であり,ゲーム本体部300の処理部310は,カードリーダ200からの検出情報に基づいて,載置されたカードCが縦向きであるか横向きであるかを判別することが可能である。例えば,カードCの裏面には,識別コードが印刷されている。この識別コードには,カードの向きに関する情報が含まれる。このため,ゲーム本体部300の処理部310は,カードリーダ200によって識別コードを読み取り,読み取った識別コードに基づいてカードCの向きを解析することで,カードCが縦向きであるか横向きであるかを判別できる。   In addition, as shown in FIG. 8, a rectangular card C can be placed vertically or horizontally on the panel 210 of the card reader 200, and the processing unit 310 of the game main unit 300, Based on detection information from the card reader 200, it is possible to determine whether the mounted card C is in portrait orientation or in landscape orientation. For example, an identification code is printed on the back of the card C. This identification code contains information on the orientation of the card. Therefore, the processing unit 310 of the game main unit 300 reads the identification code by the card reader 200 and analyzes the orientation of the card C based on the read identification code, so that the card C is in portrait orientation or in landscape orientation. It can be determined.

ゲーム本体部300は,処理部310を備え,ゲームプログラムを読み出して実行し,ゲームプログラムに従ってゲーム装置全体の動作を制御する。図6に示されるように,ゲーム本体部300は,以下の構成を備えている。   The game main unit 300 includes a processing unit 310, reads out and executes a game program, and controls the overall operation of the game apparatus according to the game program. As shown in FIG. 6, the game main unit 300 has the following configuration.

処理部310は,システム全体の制御,システム内の各ブロックへの命令の指示,ゲーム処理,画像処理,音処理などの各種の処理を行うものである。処理部310の機能は,各種プロセッサ(CPU,DSP等),又はASIC(ゲートアレイ等)などのハードウェアや,所与のプログラム(ゲームプログラム)により実現できる。   The processing unit 310 performs various processes such as control of the entire system, instruction of instructions to each block in the system, game processing, image processing, sound processing, and the like. The function of the processing unit 310 can be realized by hardware such as various processors (CPU, DSP etc.) or ASIC (gate array etc.) or a given program (game program).

処理部310は,ゲーム処理部320,画像処理部330,及び音処理部350を含むものがあげられる。具体的には,メインプロセッサ,コプロセッサ,ジオメトリプロセッサ,描画プロセッサ,データ処理プロセッサ,四則演算回路又は汎用演算回路などがあげられる。これらは適宜バスなどにより連結され,信号の授受が可能とされる。また,圧縮された情報を伸張するためのデータ伸張プロセッサを備えても良い。   The processing unit 310 includes a game processing unit 320, an image processing unit 330, and a sound processing unit 350. Specifically, there are a main processor, a co-processor, a geometry processor, a drawing processor, a data processor, a arithmetic operation circuit, a general purpose operation circuit, and the like. These are appropriately connected by a bus or the like to enable transmission and reception of signals. It may also include a data decompression processor to decompress the compressed information.

ここでゲーム処理部320は,カードリーダ200により取得されたカード情報に基づいてディスプレイ110にオブジェクトを表示させる処理,ディスプレイ110における視点の位置(仮想カメラの位置)や視線角度(仮想カメラの回転角度)をスクロールさせる処理,マップオブジェクトなどのオブジェクトをオブジェクト空間へ配置する処理,オブジェクトを選択する処理,オブジェクトを動作させる処理(モーション処理),オブジェクトの位置や回転角度(X,Y又はZ軸回り回転角度)を求める処理,コイン(代価)を受け付ける処理,各種モードの設定処理,ゲームの進行処理,選択画面の設定処理,ヒットチェック処理,ゲーム結果(成果,成績)を演算する処理,複数のプレーヤが共通のゲーム空間でプレイするための処理,又はゲームオーバー処理などの種々のゲーム処理を,タッチスクリーン120や,カードリーダ200,操作部360からの入力データ,携帯型情報記憶装置392からの個人データ,保存データ,及びゲームプログラムなどに基づいて行う。   Here, the game processing unit 320 displays an object on the display 110 based on the card information acquired by the card reader 200, the position of the viewpoint on the display 110 (the position of the virtual camera) and the gaze angle (rotation angle of the virtual camera ), Scroll objects, place objects such as map objects in object space, select objects, move objects (motion processing), position and rotation angle of object (rotation around X, Y or Z axis) Processing to obtain angle), processing to receive coins (cost value), processing to set various modes, processing to progress the game, processing to set the selection screen, hit check processing, processing to calculate game results (results, scores), multiple players Is for playing in a common game space Various game processes such as game or game over process to touch screen 120, card reader 200, input data from operation unit 360, personal data from portable information storage device 392, stored data, game program, etc. Do based on.

画像処理部330は,ゲーム処理部320からの指示等に従って,各種の画像処理を行うものである。ゲーム処理部320は,視点の位置や視線角度の情報に基づいて,ゲーム情報記憶部380からオブジェクトやゲーム空間の画像情報を読み出し,読み出した画像情報を一時記憶部370に書き込む。ゲーム処理部320は,視点移動をさせるためのスクロールデータを画像処理部330に供給する。画像処理部330は,与えられたスクロールデータに基づいて,一時記憶部370から1フレーム毎に画像情報を読み出し,読み出した画像情報に応じてディスプレイ110に,オブジェクトやゲーム空間の画像を表示させる。これにより,ディスプレイ110には,視点に基づいてオブジェクトやゲーム空間が表示される。また,画像処理部330は,タッチスクリーン120に対する入力座標に応じてゲーム空間における視点を移動させる。そして,画像処理部330は移動する視点情報に基づいて,一時記憶部370からフレームを読み出して,読み出した画像をディスプレイ110に表示させる。このようにして,ゲーム空間の視点をスクロールさせることにより,表示画面が遷移する。   The image processing unit 330 performs various types of image processing in accordance with an instruction from the game processing unit 320 or the like. The game processing unit 320 reads the image information of the object and the game space from the game information storage unit 380 based on the information of the position of the viewpoint and the gaze angle, and writes the read image information in the temporary storage unit 370. The game processing unit 320 supplies the image processing unit 330 with scroll data for moving the viewpoint. The image processing unit 330 reads image information from the temporary storage unit 370 frame by frame based on the given scroll data, and causes the display 110 to display an image of an object or game space according to the read image information. As a result, an object or game space is displayed on the display 110 based on the viewpoint. Further, the image processing unit 330 moves the viewpoint in the game space according to the input coordinates on the touch screen 120. Then, the image processing unit 330 reads the frame from the temporary storage unit 370 based on the moving viewpoint information, and causes the display 110 to display the read image. Thus, the display screen is transitioned by scrolling the viewpoint of the game space.

また,画像処理部330は,一時記憶部370からカードリーダ200により取得されたカード情報を読み出し,そのカード情報に基づいて,ゲーム情報記憶部380に記憶されているオブジェクトテーブルを参照する。そして,オブジェクトテーブルに記憶されているリンク情報に基づいて,カード情報と関連付けられているオブジェクトの画像データを,一時記憶部370又はゲーム情報記憶部380から読み出す。そして,画像処理部330は,読み出したオブジェクトの画像データに応じてゲーム空間内にオブジェクトを発生させ,ディスプレイ110に表示させる。   Further, the image processing unit 330 reads out the card information acquired by the card reader 200 from the temporary storage unit 370, and refers to the object table stored in the game information storage unit 380 based on the card information. Then, based on the link information stored in the object table, the image data of the object associated with the card information is read from the temporary storage unit 370 or the game information storage unit 380. Then, the image processing unit 330 generates an object in the game space according to the image data of the read object, and causes the display 110 to display the object.

ゲーム処理部320は,タッチスクリーン120に入力された座標情報や,カードリーダ200に載置されたカードの向きや位置,その他の操作部260(レバー,ボタン,又はコントローラ)からの操作情報に基づいて,ゲーム空間に登場させたオブジェクトの行動を制御する。例えば,ゲーム処理部320は,ディスプレイ110に表示されたオブジェクトの座標情報と,ディスプレイ110に入力された座標情報とを参照し,当該オブジェクトが,ユーザによりタッチされた否かを判定する。すなわち,ゲーム処理部320は,タッチスクリーン120に入力された位置情報と,オブジェクトの位置情報が一致している場合には,当該オブジェクトがタッチ選択されたと判定する。そして,選択されたオブジェクトに対し操作や指令が付与された場合,その操作や指令に応じて,ゲームプログラムに従った処理を行う。   The game processing unit 320 is based on the coordinate information input to the touch screen 120, the orientation and position of the card placed on the card reader 200, and operation information from the other operation unit 260 (lever, button, or controller). Control the behavior of objects that appear in the game space. For example, the game processing unit 320 refers to the coordinate information of the object displayed on the display 110 and the coordinate information input to the display 110, and determines whether the object is touched by the user. That is, when the position information input to the touch screen 120 matches the position information of the object, the game processing unit 320 determines that the object is touch-selected. Then, when an operation or command is given to the selected object, processing according to the game program is performed according to the operation or command.

また,ゲーム処理部320は,タッチパネルディスプレイ100のディスプレイ110表示されたオブジェクトを選択する際には,上記した本発明特有の選択処理を行うことが好ましい。すなわち,ゲーム処理部320は,タッチパネルディスプレイ100のタッチスクリーン120に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点の座標を決定する。また,ゲーム処理部320は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点の座標を決定する。そして,ゲーム処理部320は,第1中間点の座標と第2中間点の座標に基づいて,ディスプレイ110の表示画面上における領域を指定し,指定された領域に,少なくとも一部が含まれるように画像が表示されている一又は複数のオブジェクトを選択する。また,ゲーム処理部320は,選択されたオブジェクトに対し操作や指令が付与された場合,その操作や指令に応じて,ゲームプログラムに従った処理を行う。例えば,ゲーム処理部320は,タッチスクリーン120に対する入力操作により,一又は複数のオブジェクトが選択された後に,再度,異なる座標情報がタッチスクリーン120に入力された場合,選択された一又は複数のオブジェクトを,再度入力された座標情報に移動させる制御を行う。このように,ゲーム処理部320は,カードリーダ120により取得されたカード情報と,タッチスクリーン110に入力された座標情報をリンクさせて,ゲームを進行することが好ましい。   When the game processing unit 320 selects an object displayed on the display 110 of the touch panel display 100, the game processing unit 320 preferably performs the selection processing unique to the present invention described above. That is, based on the coordinates of the first two points simultaneously input to the touch screen 120 of the touch panel display 100, the game processing unit 320 determines the coordinates of the first intermediate point obtained from the coordinates of the first two points. Also, the game processing unit 320 determines the coordinates of the second midpoint obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the coordinates of the two points are not simultaneously input. . Then, the game processing unit 320 designates an area on the display screen of the display 110 based on the coordinates of the first midpoint and the coordinates of the second midpoint, and at least a part is included in the designated area. Select one or more objects for which the image is displayed. Also, when an operation or command is given to the selected object, the game processing unit 320 performs processing according to the game program in accordance with the operation or command. For example, when one or more objects are selected by an input operation on the touch screen 120, the game processing unit 320 selects one or more selected objects when different coordinate information is input to the touch screen 120 again. Control to move to the coordinate information input again. As described above, the game processing unit 320 preferably links the card information acquired by the card reader 120 and the coordinate information input to the touch screen 110 to progress the game.

音処理部250は,ゲーム処理部220からの指示等にしたがって,各種の音声を放音する。   The sound processing unit 250 emits various sounds in accordance with an instruction from the game processing unit 220 or the like.

ゲーム処理部320,画像処理部330,音処理部350の機能は,その全てをハードウェアにより実現してもよいし,その全てをプログラムにより実現してもよい。又は,ハードウェアとプログラムの両方により実現してもよい。
図6に示されるように,例えば,画像処理部330は,ジオメトリ処理部332(3次元座標演算部),描画部340(レンダリング部)を含むものがあげられる。
All of the functions of the game processing unit 320, the image processing unit 330, and the sound processing unit 350 may be realized by hardware, or all of them may be realized by a program. Or, it may be realized by both hardware and program.
As shown in FIG. 6, for example, the image processing unit 330 includes a geometry processing unit 332 (three-dimensional coordinate computing unit) and a drawing unit 340 (rendering unit).

ジオメトリ処理部332は,座標変換,クリッピング処理,透視変換,又は光源計算などの種々のジオメトリ演算(3次元座標演算)を行う。そして,ジオメトリ処理後(透視変換後)のオブジェクトデータ(オブジェクトの頂点座標,頂点テクスチャ座標,又は輝度データ等)は,例えば,一時記憶部370のメインメモリ372に格納されて,保存される。   The geometry processing unit 332 performs various geometry operations (three-dimensional coordinate operations) such as coordinate conversion, clipping processing, perspective conversion, or light source calculation. Then, object data after object processing (after perspective transformation) (such as vertex coordinates of an object, vertex texture coordinates, or luminance data) is stored and stored in the main memory 372 of the temporary storage unit 370, for example.

描画部340は,ジオメトリ演算後(透視変換後)のオブジェクトデータと,テクスチャ記憶部376に記憶されるテクスチャなどに基づいて,オブジェクトをフレームバッファ374に描画する。描画部340は,例えば,テクスチャマッピング部342,シェーディング処理部344を含むものがあげられる。具体的には,描画プロセッサにより実装できる。描画プロセッサは,テクスチャ記憶部,各種テーブル,フレームバッファ,VRAMなどとバスなどを介して接続され,更にディスプレイと接続される。   The drawing unit 340 draws an object in the frame buffer 374 based on the object data after geometry calculation (after perspective transformation), the texture stored in the texture storage unit 376, and the like. The drawing unit 340 includes, for example, a texture mapping unit 342 and a shading processing unit 344. Specifically, it can be implemented by a drawing processor. The drawing processor is connected to a texture storage unit, various tables, a frame buffer, a VRAM, and the like via a bus, and is further connected to a display.

テクスチャマッピング部242は,環境テクスチャをテクスチャ記憶部276から読み出し,読み出された環境テクスチャを,オブジェクトに対してマッピングする。   The texture mapping unit 242 reads the environment texture from the texture storage unit 276, and maps the read environment texture on the object.

シェーディング処理部344は,オブジェクトに対するシェーディング処理を行う。例えば,ジオメトリ処理部332が光源計算を行い,シェーディング処理用の光源の情報や,照明モデルや,オブジェクトの各頂点の法線ベクトルなどに基づいて,オブジェクトの各頂点の輝度(RGB)を求める。シェーディング処理部344は,この各頂点の輝度に基づいて,プリミティブ面(ポリゴン,曲面)の各ドットの輝度を例えば,ホンシェーディングや,グーローシェーディングなどにより求める。   The shading processing unit 344 performs shading processing on the object. For example, the geometry processing unit 332 performs light source calculation to obtain the luminance (RGB) of each vertex of the object based on the information of the light source for shading processing, the illumination model, the normal vector of each vertex of the object, and the like. The shading processing unit 344 obtains the luminance of each dot of the primitive surface (polygon, curved surface) by, for example, phone shading or Gouraud shading based on the luminance of each vertex.

ジオメトリ処理部332は,法線ベクトル処理部334を含むものがあげられる。法線ベクトル処理部334は,オブジェクトの各頂点の法線ベクトル(広義にはオブジェクトの面の法線ベクトル)を,ローカル座標系からワールド座標系への回転マトリクスで回転させる処理を行ってもよい。   The geometry processing unit 332 includes one including a normal vector processing unit 334. The normal vector processing unit 334 may rotate the normal vector of each vertex of the object (in a broad sense, the normal vector of the surface of the object) with a rotation matrix from the local coordinate system to the world coordinate system .

操作部360は,プレーヤが操作データを入力するためのものである。操作部360は,の機能は,例えば,レバー,ボタン,及びハードウェアを備えたコントローラにより実現できる。操作部360からの処理情報は,シリアルインターフェース(I/F)やバスを介してメインプロセッサなどに伝えられる。   The operation unit 360 is for the player to input operation data. The function of the operation unit 360 can be realized by, for example, a controller provided with a lever, a button, and hardware. Processing information from the operation unit 360 is transmitted to a main processor or the like via a serial interface (I / F) or a bus.

ゲーム情報記憶部380は,ゲームプログラムや,ディスプレイ110に表示されるオブジェクト,ゲーム空間の画像データに関する情報を格納している。ゲーム情報記憶部380は,例えばROMであり,光ディスク(CD,DVD),光磁気ディスク(MO),磁気ディスク,ハードディスク,又は磁気テープなどの不揮発性のメモリにより実現できる。処理部310は,このゲーム情報記憶部380に格納される情報に基づいて種々の処理を行う。ゲーム情報記憶部380には,本発明(本実施形態)の手段(特に処理部310に含まれるブロック)を実行するための情報(プログラム又はプログラム及びデータ)が格納される。ゲーム情報記憶部380に格納される情報の一部又は全部は,例えば,システムへの電源投入時等に一時記憶部370に書き出されることとしてもよい。   The game information storage unit 380 stores information regarding a game program, an object displayed on the display 110, and image data of the game space. The game information storage unit 380 is, for example, a ROM, and can be realized by a non-volatile memory such as an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, a hard disk, or a magnetic tape. The processing unit 310 performs various processes based on the information stored in the game information storage unit 380. The game information storage unit 380 stores information (program or program and data) for executing the means of the present invention (this embodiment) (in particular, the blocks included in the processing unit 310). For example, part or all of the information stored in the game information storage unit 380 may be written out to the temporary storage unit 370 when the system is powered on.

ゲーム情報記憶部380に記憶される情報として,所定の処理を行うためのプログラムコード,画像データ,音データ,表示物の形状データ,テーブルデータ,リストデータ,本発明の処理を指示するための情報,その指示に従って処理を行うための情報等の少なくとも2つを含むものがあげられる。例えば,テーブルデータには,オブジェクトの識別番号と関連付けて,オブジェクトのステータスや,種類,名前,属性,カードの向きや位置に応じたオブジェクトの特性を記憶したオブジェクトテーブルのデータが含まれる。   Program code for performing a predetermined process, image data, sound data, shape data of a display object, table data, list data, and information for instructing the process of the present invention as information stored in the game information storage unit 380 , And includes at least two pieces of information for performing processing in accordance with the instruction. For example, the table data includes data of an object table storing the object status, type, name, attribute, object characteristics according to the card orientation and position in association with the identification number of the object.

オブジェクトのステータスとは,移動速度,ヒットポイント,攻撃力,及び防御力等が数値として記憶される情報である。ゲーム処理部320は,オブジェクトテーブルに記憶されたステータスを参照することで,各オブジェクトについて,移動速度,ヒットポイント,攻撃力等の優劣を判断できる。また,ゲーム処理部320は,このステータスに関する数値に基づいて,ゲームを進行するための種々の演算を行うことができる。例えば,各オブジェクトの移動速度の数値は比較可能であり,オブジェクトテーブルを参照すれば,あるオブジェクトと他のオブジェクトはどちらの方が速い移動速度を有しているかということを把握できる。また,各オブジェクトの移動速度の数値に基づいて所定の演算処理を行うことで,オブジェクトが,ゲーム空間上のある地点から他の地点まで移動するのに必要とする時間を算出することもできる。   The status of an object is information in which moving speed, hit points, aggression, defense, etc. are stored as numerical values. The game processing unit 320 can determine the superiority or inferiority of the movement speed, the hit point, the offensive power or the like for each object by referring to the status stored in the object table. In addition, the game processing unit 320 can perform various operations for advancing the game based on the numerical value related to the status. For example, the moving speed values of the objects can be compared, and by referring to the object table, it can be grasped which of the one object and the other object has the higher moving speed. In addition, by performing predetermined arithmetic processing based on the numerical values of the moving speed of each object, it is also possible to calculate the time required for the object to move from a certain point in the game space to another point.

また,カードの向きに応じたオブジェクトの特性とは,カードリーダ200のパネル210に載置された向きに応じて変化するデータである。例えば,オブジェクトテーブルには,あるカードに関連したオブジェクトについて,カードが縦向きである場合と横向きで場合とで異なる情報が記憶されている。例えば,カードが縦向きである場合と横向きで場合とで,オブジェクトのステータスが変化することとしてもよい。
また,カードの位置に応じたオブジェクトの特性とは,カードリーダ200のパネル210に載置された位置に応じて変化するデータである。例えば,オブジェクトテーブルには,あるカードに関連したオブジェクトについて,カードがオフェンシブエリアA1(第1エリア)に位置する場合とディフェンシブエリアA2(第2エリア)に位置する場合とで異なる情報が記憶されている。例えば,カードがオフェンシブエリアA1に位置する場合とディフェンシブエリアA2に位置する場合とで,オブジェクトのステータスが変化することとしてもよい。
In addition, the property of the object according to the card orientation is data that changes according to the orientation placed on the panel 210 of the card reader 200. For example, in the object table, different information is stored for an object related to a certain card depending on whether the card is vertically oriented or horizontally oriented. For example, the status of the object may change depending on whether the card is vertically oriented or horizontally oriented.
Further, the property of the object according to the position of the card is data which changes according to the position placed on the panel 210 of the card reader 200. For example, in the object table, for an object related to a certain card, different information is stored between when the card is located in the offensive area A1 (first area) and when it is located in the defensive area A2 (second area) There is. For example, the status of the object may be changed between when the card is located in the offensive area A1 and when it is located in the defensive area A2.

また,ゲーム情報記憶部380は,ゲーム空間に関するデータが記憶されている。ゲーム空間は,ワールドともよばれる,本発明のゲーム装置におけるゲームの世界を意味する。ゲーム空間に関するデータは,表示される対象物の位置情報,表示される対象物の種類に関する情報,表示される対象物の画像データを含む。表示される対象物の例は,背景,建物,風景,植物,及びゲームに登場するオブジェクトである。この画像データは,ポリゴンデータとして記憶されることが好ましい。ポリゴンデータは,たとえば,頂点座標データ,色データ,テクスチャデータ,及び透明度データを含む。ゲーム情報記憶部380は,たとえば,プレイヤキャラクタの視点の向きや,位置,エリアなどに応じて,表示される対象物を分類して記憶する   The game information storage unit 380 also stores data related to the game space. Game space means the world of the game in the game device of the present invention, also called the world. The data on the game space includes position information of the displayed object, information on the type of the displayed object, and image data of the displayed object. Examples of displayed objects are backgrounds, buildings, landscapes, plants, and objects that appear in games. The image data is preferably stored as polygon data. The polygon data includes, for example, vertex coordinate data, color data, texture data, and transparency data. The game information storage unit 380 classifies and stores the displayed objects according to, for example, the direction, position, area, etc. of the player character's viewpoint.

音出力部390は,音を出力するものである。音出力部390の機能は,スピーカなどのハードウェアにより実現できる。音出力は,例えばバスを介してメインプロセッサなどと接続されたサウンドプロセッサにより,音処理が施され,スピーカなどの音出力部から出力される。   The sound output unit 390 is for outputting a sound. The function of the sound output unit 390 can be realized by hardware such as a speaker. The sound output is subjected to sound processing by, for example, a sound processor connected to a main processor or the like via a bus, and is output from a sound output unit such as a speaker.

携帯型情報記憶装置392は,プレーヤの個人データやセーブデータなどが記憶されるものである。この携帯型情報記憶装置392としては,メモリカードや携帯型ゲーム装置などがあげられる。携帯型情報記憶装置392の機能は,メモリカード,フラッシュメモリ,ハードディスク,USBメモリなど公知の記憶手段により達成できる。ただし,携帯型情報記憶装置392は,必ずしも必要な構成ではなく,プレーヤの個人を識別する必要のある場合に,実装すればよい。   The portable information storage device 392 stores personal data and save data of the player. Examples of the portable information storage device 392 include a memory card and a portable game device. The function of the portable information storage device 392 can be achieved by a known storage means such as a memory card, flash memory, hard disk, USB memory and the like. However, the portable information storage device 392 is not necessarily a necessary configuration, and may be implemented when it is necessary to identify the player's individual.

通信部394は,外部(例えばホストサーバや他のゲーム装置)との間で通信を行うための各種の制御を行う任意のものである。通信部394を介して,ゲーム装置をネットワーク上のホストサーバや他のゲーム装置と接続することにより,ゲーム対戦プレイや協力プレイを行うことができる。通信部394の機能は,各種プロセッサ,又は通信用ASICなどのハードウェアや,プログラムなどにより実現できる。また,ゲーム装置を実行するためのプログラム又はデータは,ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部394を介してゲーム情報記憶部380に配信するようにしてもよい。   The communication unit 394 is an arbitrary unit that performs various controls for communicating with the outside (for example, a host server or another game device). By connecting a game device to a host server or another game device on a network via the communication unit 394, it is possible to perform game competition play and cooperative play. The function of the communication unit 394 can be realized by hardware such as various processors or communication ASICs, a program, or the like. Further, the program or data for executing the game apparatus may be distributed from the information storage medium of the host device (server) to the game information storage unit 380 via the network and the communication unit 394.

[ゲーム装置の動作例]
続いて,図9〜図11を参照して,上記した構成を有するゲーム装置の動作例について説明する。ここでは,上記ゲーム装置により実行されるゲームのシステムについて,一例を挙げて説明する。例えば,本発明のゲーム装置では,インターネット等の通信を利用した対戦ゲームを行うことができる。この対戦ゲームでは,各ゲームユーザが,一のゲーム空間に複数のオブジェクト(ゲームキャラクタ)を登場させて対戦を行う。ここで説明するゲームの例において,ユーザは,タッチパネルディスプレイ100やカードリーダ200等を介して,各オブジェクトの登場や,移動,攻撃,防御など指令操作を行い,例えば,敵オブジェクト(Enemy)の撃破や,塔(Tower)の制圧,石(Stone)の破壊などを目指す。
[Operation Example of Game Device]
Subsequently, an operation example of the game apparatus having the above-described configuration will be described with reference to FIGS. 9 to 11. Here, a system of a game executed by the above-mentioned game device will be described by taking an example. For example, in the game device of the present invention, a battle game using communication such as the Internet can be played. In this competition game, each game user performs a battle by causing a plurality of objects (game characters) to appear in one game space. In the example of the game described here, the user performs command operations such as appearance, movement, attack, defense, etc. of each object through the touch panel display 100, the card reader 200, etc., for example, the destruction of the enemy object (Enemy) Aim for control of Tower and destruction of Stone.

図9は,本発明に係るゲーム装置を用いて,実際にゲームを行う際のタッチパネルディスプレイ100とカードリーダ200の状態を概念的に示している。ユーザは,所望のカードC1〜C7を,カードリーダ200上に載置する。各カードC1〜C7の裏面には,識別コードが印刷されている。カードリーダ200は,各カードC1〜C7の識別コードを読み取ると,識別コードに基づいてカード情報を解析し,カード情報はゲーム装置の処理部310へと伝達する。また,カードリーダ200は,各カードC1〜C7が向きや位置を把握することができる。図9に示された例では,カードリーダ200上において,カードC1,C2,C5,C6が縦向きとなり,カードC3,C4,C7が横向きとなっている。また,図9に示された例では,カードリーダ200上において,カードC1,C4,C6がオフェンシブエリアA1に位置し,カードC2,C3,C5,C7がディフェンシブエリアA2に位置している。カードリーダ200によって検出された情報は,処理部310へと伝達され,処理部310は,カード情報,カードの向き,カードの位置等の情報に基づいて,ゲーム情報記憶部380(又は一時記憶部370)に記憶されているオブジェクトテーブルを参照し,カード情報に関連付けられたオブジェクトの情報(画像データ,ステータス等)を読み出す。処理部310は,読み出した画像データに基づいて,タッチパネルディスプレイ100に画像を表示させる。例えば,タッチパネルディスプレイ100には,その下側の領域にカードの画像が表示されている。タッチパネルディスプレイ100に表示されたカードの画像は,カードリーダ200に載置されている各カードC1〜C7の並び順,及び各カード各カードC1〜C7の向きに対応している。このように,タッチパネルディスプレイ100の一部に,カードリーダ200に載置されている各カードC1〜C7の画像を表示することで,ユーザは,カードリーダ200を目視しなくても,タッチパネルディスプレイ100を視るだけで,各カードC1〜C7の配置や向きを把握することができるようになっている。なお,タッチパネルディスプレイ100には,カードリーダ200に載置された各カードC1〜C7の位置(例えばオフェンシブエリアA1とディフェンシブエリアA2のどちらに位置しているのか)の情報も表示可能である。   FIG. 9 conceptually shows states of the touch panel display 100 and the card reader 200 when actually playing a game using the game device according to the present invention. The user places the desired cards C1 to C7 on the card reader 200. An identification code is printed on the back of each of the cards C1 to C7. When the card reader 200 reads the identification code of each of the cards C1 to C7, it analyzes the card information based on the identification code, and transmits the card information to the processing unit 310 of the game device. Further, the card reader 200 can grasp the direction and the position of each of the cards C1 to C7. In the example shown in FIG. 9, on the card reader 200, the cards C1, C2, C5, and C6 are vertically oriented, and the cards C3, C4, and C7 are horizontally oriented. Further, in the example shown in FIG. 9, the cards C1, C4, and C6 are located in the offensive area A1 and the cards C2, C3, C5, and C7 are located in the defensive area A2 on the card reader 200. The information detected by the card reader 200 is transmitted to the processing unit 310, and the processing unit 310 controls the game information storage unit 380 (or the temporary storage unit) based on information such as card information, card orientation, card position, etc. Referring to the object table stored in 370), the information (image data, status, etc.) of the object associated with the card information is read out. The processing unit 310 causes the touch panel display 100 to display an image based on the read image data. For example, on the touch panel display 100, an image of a card is displayed in the lower area. The image of the card displayed on the touch panel display 100 corresponds to the arrangement order of the cards C1 to C7 placed on the card reader 200 and the direction of each card C1 to C7. Thus, by displaying the image of each of the cards C1 to C7 placed on the card reader 200 on a part of the touch panel display 100, the user can check the touch panel display 100 without viewing the card reader 200. The arrangement and orientation of each of the cards C1 to C7 can be grasped only by looking at. The touch panel display 100 can also display information on the position of each of the cards C1 to C7 placed on the card reader 200 (for example, which of the offensive area A1 and the defensive area A2 is located).

図9に示された例において,タッチパネルディスプレイ100の表示画面上には,各カードC1〜C6に対応したオブジェクト(ゲームキャラクタ)O1〜O6が表示されている。各オブジェクトは,それぞれ特有のステータスや,種類,名前,属性,カードの向きや位置に応じたオブジェクトの特性を有している。オブジェクトのステータスとは,移動速度,ヒットポイント,攻撃力,及び防御力等が数値として記憶される情報である。これらの情報は,各オブジェクトの識別情報に関連付けてオブジェクトテーブルに記憶されている。例えば,カードが縦向きに配置されているオブジェクトは通常の攻撃を行う一方,カードが横向きに配置されているオブジェクトは特殊な攻撃を行う等の設定とすることができる。また,カードがオフェンシブエリアA1に位置しているオブジェクトは攻撃力の数値が向上する一方,カードがディフェンシブエリアA2に位置しているオブジェクトは防御力の数値が向上する等の設定とすることができる。また,図9に示された例において,カードC7に対応したオブジェクト(O7)は,タッチパネルディスプレイ100上に表示されていない。オブジェクト(O7)をゲーム空間に登場させるためには,タッチパネルディスプレイ100上に表示されたカードC7の画像をタッチし,カードC7の画像を召喚ゲート(Gate)が表示されている位置までドラッグする。カードC7の画像が,召喚ゲート(Gate)の表示されている位置でドロップされると,ガードC7に対応したオブジェクト(O7)がゲーム空間に登場し,タッチパネルディスプレイ100に表示されるようになっている。なお,召喚ゲート(Gate)は,ゲーム空間における位置座標がゲーム情報記憶部380や一次記憶部370に記憶されており,ゲーム処理部320によってその位置が把握されている。   In the example shown in FIG. 9, objects (game characters) O1 to O6 corresponding to the respective cards C1 to C6 are displayed on the display screen of the touch panel display 100. Each object has its own characteristics according to its status, type, name, attributes, card orientation and position. The status of an object is information in which moving speed, hit points, aggression, defense, etc. are stored as numerical values. These pieces of information are stored in the object table in association with the identification information of each object. For example, an object in which cards are arranged vertically can be attacked normally, while an object in which cards are arranged horizontally can be attacked specially. Also, objects with cards located in the offensive area A1 can be set to improve the numerical value of the attack power, while objects with cards set to the defensive area A2 can be set to improve the numerical value of defense power, etc. . Further, in the example shown in FIG. 9, the object (O7) corresponding to the card C7 is not displayed on the touch panel display 100. In order to cause the object (O7) to appear in the game space, the image of the card C7 displayed on the touch panel display 100 is touched, and the image of the card C7 is dragged to a position where the gate is displayed. When the image of the card C7 is dropped at the position where the summoner gate is displayed, an object (O7) corresponding to the guard C7 appears in the game space and is displayed on the touch panel display 100. There is. Note that the position coordinates in the game space of the summoning gate (Gate) are stored in the game information storage unit 380 and the primary storage unit 370, and their positions are grasped by the game processing unit 320.

図10は,タッチパネルディスプレイ100に表示されたオブジェクトの移動操作の例を示している。タッチパネルディスプレイ100は,ユーザによりタッチされると,そのタッチ位置の座標を得る。処理部310は,タッチ位置の座標とオブジェクトが表示されている座標を参照し,タッチ位置の座標が,オブジェクトが表示されている座標と一致するかを判定する。タッチ位置とオブジェクトの位置が一致した場合,処理部310は,そのオブジェクトが選択されたことを把握する。図10(a)の例では,オブジェクトO4が選択されている。また,オブジェクトO4が選択された状態で,ユーザがタッチパネルディスプレイ100の表示画面をタッチすると,処理部310は,そのタッチ位置の座標を一時的記憶部に記憶する。特に,オブジェクトO4が選択された状態で,ユーザにより複数のポイントがタッチされた場合,処理部310は,タッチされた順番の情報と共に,タッチ位置の座標を一時的記憶部に記憶する。そして,処理部310は,ユーザによりタッチ選択されたオブジェクトO4を,次にタッチされたポイントに移動させる処理を行う。移動速度は,各オブジェクトそれぞれによって異なる。そこで,処理部310は,オブジェクトテーブルから,オブジェクトO4に関する移動速度の数値を読み出す。そして,読み出した移動速度の数値に基づいて,オブジェクトO4を最初のポイントから移動先のポイントまで移動させる。また,複数点がタッチされている場合には,選択されたオブジェクトO4を,タッチされた順番に従って,順次各ポイントへと移動させる。なお,移動しているオブジェクトO4が,移動中に敵オブジェクト(Enemy)に遭遇した場合や,塔(Tower)に到達した場合には,公知のゲームシステムと同様に,敵オブジェクトとの対戦処理,塔を制圧するため処理を行えば良い。   FIG. 10 shows an example of the movement operation of the object displayed on the touch panel display 100. When touched by the user, the touch panel display 100 obtains coordinates of the touch position. The processing unit 310 refers to the coordinates of the touch position and the coordinates at which the object is displayed, and determines whether the coordinates of the touch position match the coordinates at which the object is displayed. When the touch position and the position of the object coincide, the processing unit 310 grasps that the object is selected. In the example of FIG. 10A, the object O4 is selected. When the user touches the display screen of the touch panel display 100 with the object O4 selected, the processing unit 310 stores the coordinates of the touch position in the temporary storage unit. In particular, when a plurality of points are touched by the user in a state where the object O4 is selected, the processing unit 310 stores the coordinates of the touch position in the temporary storage unit together with the information of the touched order. Then, the processing unit 310 performs a process of moving the object O4 touch-selected by the user to the point touched next. The movement speed is different for each object. Therefore, the processing unit 310 reads out the numerical value of the moving speed related to the object O4 from the object table. Then, the object O4 is moved from the first point to the movement destination point based on the read moving speed numerical value. In addition, when a plurality of points are touched, the selected object O4 is sequentially moved to each point according to the touched order. If the moving object O4 encounters an enemy object (Enemy) while moving, or reaches a tower (Tower), as in the case of a known game system, battle processing with the enemy object, You can do the process to control the tower.

ただし,図10に示された方法に従い,オブジェクトを1つずつタッチ選択して移動させる操作は,ユーザが,複数のオブジェクトを同時に移動させることを希望する場合に,すべてのオブジェクトを1つずつタッチ選択する必要が生じ,煩雑となる。また,上述の通り,移動速度は各オブジェクトそれぞれによって異なる。このため,ユーザが,複数のオブジェクトを同じポイントに移動させることを希望する場合であっても,それぞれのオブジェクトが指定されたポイントに到着するタイミングは,オブジェクトの移動速度に応じて異なってしまう。   However, according to the method shown in FIG. 10, the operation of touch-selecting and moving the objects one by one touches all the objects one by one when the user desires to move multiple objects simultaneously. It is necessary to make a selection, and it becomes complicated. Also, as described above, the moving speed is different for each object. For this reason, even when the user desires to move a plurality of objects to the same point, the timing at which each object arrives at a designated point differs depending on the moving speed of the object.

そこで,図11に示されるように,本ゲームのシステムでは,表示画面上の複数のオブジェクトを一括して選択することができ,選択したオブジェクトについて編隊(Party)を形成することが可能になっている。図11(a)では,複数のオブジェクトO1〜O7を一括して選択する操作の例が示されている。なお,図11(a)に示された操作は,基本的に図3に示された操作と同様である。処理部310は,ユーザによりタッチパネルディスプレイ100が同時に入力されている最初の2点P1,P2の座標に基づき,当該最初の2点P1,P2の座標から求められる第1中間点M1の座標を決定する。また,処理部310は,ユーザによりドラッグされて,2点の座標が同時に入力されなくなる直前に検出された最後の2点P3,P4の座標に基づき,当該最後の2点P3,P4の座標から求められる第2中間点の座標M2を決定する。そして,処理部310は,第1中間点M1の座標と第2中間点の座標M2に基づいて,タッチパネルディスプレイ100の表示画面上における矩形の領域を指定する。そして,指定された矩形の領域に,少なくとも一部が含まれるように表示されている複数のオブジェクトO1〜O7を選択する。選択されたオブジェクトO1〜O7は,編隊を形成するオブジェクトとして,一時記憶部に関連付けて記憶される。   Therefore, as shown in FIG. 11, in the system of the present game, a plurality of objects on the display screen can be selected at one time, and it becomes possible to form a Party (Party) for the selected objects. There is. FIG. 11A shows an example of the operation of selecting a plurality of objects O1 to O7 collectively. The operation shown in FIG. 11 (a) is basically the same as the operation shown in FIG. Based on the coordinates of the first two points P1 and P2 to which the touch panel display 100 is simultaneously input by the user, the processing unit 310 determines the coordinates of the first midpoint M1 determined from the coordinates of the first two points P1 and P2. Do. Also, based on the coordinates of the last two points P3 and P4 detected immediately before being dragged by the user and the coordinates of the two points not simultaneously input, the processing unit 310 starts from the coordinates of the last two points P3 and P4. The coordinates M2 of the second midpoint to be determined are determined. Then, the processing unit 310 designates a rectangular area on the display screen of the touch panel display 100 based on the coordinates of the first midpoint M1 and the coordinates M2 of the second midpoint. Then, a plurality of objects O1 to O7 displayed so as to include at least a part in the designated rectangular area are selected. The selected objects O1 to O7 are stored in association with the temporary storage unit as objects forming a formation.

図11(b)は,選択された複数のオブジェクトO1〜O7が編隊(Party)を形成した例を示している。図11(b)に示されるように,一括して選択された複数のオブジェクトO1〜O7は,一箇所に集まり編隊を形成する。また,処理部310は,ユーザの操作により形成された編隊を,次にタッチされたポイントに移動させる処理を行う。すなわち,各オブジェクトO1〜O7は編隊を形成することにより,集合状態のまま移動する。このとき,編隊を形成する各オブジェクトの移動速度は,それぞれによって異なるものである。そこで,処理部310は,オブジェクトテーブルから,編隊を形成する各オブジェクトの移動速度の数値を読み出し,読み出した各オブジェクトの移動速度の数値に基づいて編隊の移動速度を求める。例えば,処理部310は,編隊を形成する各オブジェクトの移動速度のうち,最も遅いもの(最も数値が低いもの)を,編隊全体の移動速度として求めればよい。また,処理部310は,編隊を形成する複数のオブジェクトの移動速度の平均値を,編隊全体の移動速度としてもよい。また,処理部310は,編隊を形成する各オブジェクトの移動速度のうち,最も速いもの(最も数値が高いもの)を,編隊全体の移動速度とすることもできる。オブジェクトの編隊は,処理部310により算出された移動速度の値に従った移動速度で,指定されたポイントへと移動する。複数のポイントが指定されている場合には,処理部310は,オブジェクトの編隊を,指定された順番に従って,順次各ポイントへと移動させる。移動しているオブジェクトの編隊が,移動中に敵オブジェクト(Enemy)に遭遇した場合や,塔(Tower)に到達した場合には,公知のゲームシステムと同様に,敵オブジェクトとの対戦処理,塔を制圧するため処理を行えば良い。   FIG. 11B shows an example in which a plurality of selected objects O1 to O7 form a formation (Party). As shown in FIG. 11 (b), the plurality of objects O1 to O7 selected at one time gather in one place to form a formation. Further, the processing unit 310 performs a process of moving the formation formed by the user's operation to the next touched point. That is, the objects O1 to O7 move in the assembled state by forming a formation. At this time, the moving speed of each object forming a formation differs depending on each. Therefore, the processing unit 310 reads the numerical value of the moving speed of each object forming the formation from the object table, and obtains the moving speed of the formation based on the read numerical value of the moving speed of each object. For example, the processing unit 310 may obtain the slowest one (the one having the lowest numerical value) of the moving speeds of the respective objects forming the formation as the moving speed of the entire formation. In addition, the processing unit 310 may set the average value of the moving speeds of the plurality of objects forming the formation as the moving speed of the entire formation. In addition, the processing unit 310 may set the fastest one (the one with the highest numerical value) among the moving speeds of the objects forming the formation as the moving speed of the entire formation. The formation of the object moves to a designated point at a moving speed according to the value of the moving speed calculated by the processing unit 310. When a plurality of points are designated, the processing unit 310 sequentially moves the formation of the object to each point in the designated order. If the flight of a moving object encounters an enemy object (Enemy) while moving, or reaches a tower, as in a well-known game system, battle processing with the enemy object, tower The process should be done to control the

以上,本発明のゲーム装置により実行されるゲームについて,特徴的なシステムを主として説明した。その他のゲーム処理については,カードリーダを備える公知のゲーム装置や,タッチパネルディスプレイを備える公知のゲーム装置のものを適宜採用できる。   In the above, the characteristic system was mainly explained about the game performed by the game device of the present invention. About other game processing, the thing of a well-known game device provided with a card reader, and a well-known game device provided with a touch panel display can be adopted suitably.

本発明は,例えば,コンピュータ産業やゲーム産業にて好適に利用し得る。   The present invention can be suitably used, for example, in the computer industry and the game industry.

1 表示部
2 座標入力部
3 領域指定部
4 オブジェクト選択部
5 オブジェクト記憶部
6 座標記憶部
10 タッチパネルディスプレイ
20 制御部
30 記憶部
M1 第1中間点
M2 第2中間点
P1 第1点目のタッチ点
P2 第2点目のタッチ点
P3 第3点目のタッチ点
P4 第4点目のタッチ点
R 領域
O オブジェクト
Reference Signs List 1 display unit 2 coordinate input unit 3 area designation unit 4 object selection unit 5 object storage unit 6 coordinate storage unit 10 touch panel display 20 control unit 30 storage unit M1 first intermediate point M2 second intermediate point P1 first point touch point P2 Second touch point P3 Third touch point P4 Fourth touch point R area O object

Claims (1)

コンピュータに、
画像表示可能な表示部の表示画面上で座標を入力するための座標入力部によって検出された入力が、第1の入力のみである場合は、該第1の入力は該表示画面上の任意箇所を指定する第1指定操作と判定し、該第1の入力が継続された状態で別の第2の入力が検出された場合は、該第1の入力及び該第2の入力は該第1指定操作とは異なる第2指定操作と判定する操作判定機能、
前記第1指定操作と判定された場合、前記座標入力部から取得した前記第1の入力の座標に基づいて、前記表示画面上における対応点を指定する操作を前記第1指定操作として受け付ける第一操作機能、
前記第2指定操作と判定された場合、前記第1の入力及び前記第2の入力がスライドしている状態において、前記座標入力部から取得した該第1の入力の座標及び該第2の入力の座標に基づく操作を前記第2指定操作として受け付ける第二操作機能、
を実現させ、
前記操作判定機能では、前記第2指定操作と判定した後に、前記第1の入力及び前記第2の入力のいずれか一方の入力が継続していない場合は、継続されている他方の入力を第1の入力とする第1指定操作と判定する機能、
を実現させるためのプログラム。
On the computer
If the input detected by the coordinate input unit for inputting coordinates on the display screen of the display unit capable of image display is only the first input, the first input is an arbitrary part on the display screen If it is determined that the second input is detected and another second input is detected while the first input is continued, the first input and the second input are the first. An operation determination function that determines a second designated operation different from the designated operation,
When it is determined that the first designating operation is performed, a first designating operation accepting a corresponding point on the display screen based on the coordinates of the first input acquired from the coordinate input unit is received as the first designating operation. Operation function,
When it is determined that the second designation operation is performed, the coordinates of the first input acquired from the coordinate input unit and the second input in a state where the first input and the second input are sliding. A second operation function that receives an operation based on the coordinates of
To achieve
In the operation determination function, after any one of the first input and the second input is not continued after being determined as the second designated operation, the other continued input is Function to determine the first specified operation to be input 1;
Program for realizing
JP2019020463A 2019-02-07 2019-02-07 Information processing device, information processing method, and game device Active JP6715361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019020463A JP6715361B2 (en) 2019-02-07 2019-02-07 Information processing device, information processing method, and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020463A JP6715361B2 (en) 2019-02-07 2019-02-07 Information processing device, information processing method, and game device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017198298A Division JP6480537B2 (en) 2017-10-12 2017-10-12 Information processing apparatus, information processing method, and game apparatus

Publications (2)

Publication Number Publication Date
JP2019114271A true JP2019114271A (en) 2019-07-11
JP6715361B2 JP6715361B2 (en) 2020-07-01

Family

ID=67222737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020463A Active JP6715361B2 (en) 2019-02-07 2019-02-07 Information processing device, information processing method, and game device

Country Status (1)

Country Link
JP (1) JP6715361B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6953650B1 (en) * 2021-07-28 2021-10-27 株式会社あかつき Game system, program and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086230A (en) * 2008-09-30 2010-04-15 Sony Corp Information processing apparatus, information processing method and program
JP2011170785A (en) * 2010-02-22 2011-09-01 Canon Inc Display control device and display control method
JP2012053623A (en) * 2010-08-31 2012-03-15 Canon Inc Image edition device, method for controlling the same and program
JP6480537B2 (en) * 2017-10-12 2019-03-13 株式会社スクウェア・エニックス Information processing apparatus, information processing method, and game apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086230A (en) * 2008-09-30 2010-04-15 Sony Corp Information processing apparatus, information processing method and program
JP2011170785A (en) * 2010-02-22 2011-09-01 Canon Inc Display control device and display control method
JP2012053623A (en) * 2010-08-31 2012-03-15 Canon Inc Image edition device, method for controlling the same and program
JP6480537B2 (en) * 2017-10-12 2019-03-13 株式会社スクウェア・エニックス Information processing apparatus, information processing method, and game apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6953650B1 (en) * 2021-07-28 2021-10-27 株式会社あかつき Game system, program and information processing method
JP2022124443A (en) * 2021-07-28 2022-08-25 株式会社あかつき Game system, program and information processing method

Also Published As

Publication number Publication date
JP6715361B2 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
US11119564B2 (en) Information processing apparatus, method for information processing, and game apparatus for performing different operations based on a movement of inputs
JP5450718B2 (en) GAME DEVICE AND GAME PROGRAM
JP5813948B2 (en) Program and terminal device
JP5449422B2 (en) SCREEN SCROLL DEVICE, SCREEN SCROLL METHOD, AND GAME DEVICE
US7884822B2 (en) Game apparatus, storage medium storing a game program, and game controlling method
US8910075B2 (en) Storage medium storing information processing program, information processing apparatus and information processing method for configuring multiple objects for proper display
JP5955884B2 (en) Game device
JP2008113762A (en) Game program and game device
JP2017144158A (en) Program and game device
JP2018166943A (en) Game system and program
JPWO2008015783A1 (en) Selection control method for a plurality of objects displayed on a display device, game device using the same, and program for controlling execution of the method
JP6715361B2 (en) Information processing device, information processing method, and game device
JP6480537B2 (en) Information processing apparatus, information processing method, and game apparatus
JP6230136B2 (en) Information processing apparatus, information processing method, and game apparatus
JP6235544B2 (en) Program, computer apparatus, screen control method, and system
JP5395387B2 (en) Puzzle game program, puzzle game apparatus, puzzle game system, and game control method
JP5980752B2 (en) Information processing apparatus, information processing method, and game apparatus
JP6600051B2 (en) Application control program, application control method, and application control system
JP5705894B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5826244B2 (en) Game system
JP7462192B2 (en) Application control program, application control method and application control system
JP2020014888A (en) Application control program, application control method, and application control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6715361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250