JP6715361B2 - Information processing device, information processing method, and game device - Google Patents

Information processing device, information processing method, and game device Download PDF

Info

Publication number
JP6715361B2
JP6715361B2 JP2019020463A JP2019020463A JP6715361B2 JP 6715361 B2 JP6715361 B2 JP 6715361B2 JP 2019020463 A JP2019020463 A JP 2019020463A JP 2019020463 A JP2019020463 A JP 2019020463A JP 6715361 B2 JP6715361 B2 JP 6715361B2
Authority
JP
Japan
Prior art keywords
input
unit
coordinates
touch
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019020463A
Other languages
Japanese (ja)
Other versions
JP2019114271A (en
Inventor
悠一 丹沢
悠一 丹沢
大輔 宮田
大輔 宮田
祥正 浅尾
祥正 浅尾
哲郎 内田
哲郎 内田
和哉 富居
和哉 富居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2019020463A priority Critical patent/JP6715361B2/en
Publication of JP2019114271A publication Critical patent/JP2019114271A/en
Application granted granted Critical
Publication of JP6715361B2 publication Critical patent/JP6715361B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は,表示画面上における領域を指定することが可能な情報処理装置,情報処理方法,及びゲーム装置に関する。具体的に説明すると,本発明は,表示画面上における領域を指定することにより,例えば指定した領域に含まれる一又は複数のオブジェクトを選択する処理を行うことのできる情報処理装置等に関するものである。 The present invention relates to an information processing device, an information processing method, and a game device capable of designating an area on a display screen. More specifically, the present invention relates to an information processing apparatus or the like that can perform a process of selecting one or a plurality of objects included in a specified area by specifying an area on a display screen. ..

従来から,タッチスクリーンやマウスポインタのようなポインティングデバイスを利用して,表示画面上の入力位置をスライドすることにより矩形の領域を指定する技術がよく知られている。このように,表示画面上で矩形の領域を指定することで,指定した領域に含まれる一又は複数のオブジェクトを選択したり,指定した領域内の画像を拡大,切り取り又は編集することが可能になる。このような従来の技術では,一般的に,ポインティングデバイスによって表示画面上の一点をタッチ入力(又はクリック入力)し,画面のタッチ入力を継続したままタッチ位置をスライド(スワイプ)させて,その後タッチ入力をリリースすることにより,最初のタッチ位置と最後のタッチ位置を繋ぐ線分を対角線とする矩形の領域を指定することとしている。 2. Description of the Related Art Conventionally, a technique of designating a rectangular area by sliding an input position on a display screen using a pointing device such as a touch screen or a mouse pointer is well known. In this way, by specifying a rectangular area on the display screen, it is possible to select one or more objects contained in the specified area and to enlarge, cut or edit the image in the specified area. Become. In such a conventional technique, generally, a point on the display screen is touch-input (or click-input) by a pointing device, and the touch position is slid (swipe) while the touch input on the screen is continued, and then touched. By releasing the input, a rectangular area whose diagonal is a line segment connecting the first touch position and the last touch position is specified.

また,タッチパネルディスプレイを利用して画面上の複数のオブジェクトを利用する技術として,例えば特許文献1に開示されたものが知られている。特許文献1に開示された技術は,複数のオブジェクトを表示可能なモニタに重ねて配置されたタッチパネルディスプレイがタッチ操作された際のタッチ状態を検出し,検出されたタッチ状態に応じて,オブジェクトを選択する範囲を規定する選択エリアの大きさを決定するとともに,タッチ位置を基準に選択エリアを設定し,設定された選択エリアに少なくとも一部が重なるオブジェクトを選択候補とする。 Further, as a technique of utilizing a plurality of objects on the screen using a touch panel display, for example, one disclosed in Patent Document 1 is known. The technique disclosed in Patent Document 1 detects a touch state when a touch operation is performed on a touch panel display that is arranged so as to be superimposed on a monitor that can display a plurality of objects, and the objects are detected according to the detected touch state. The size of the selection area that defines the selection range is determined, the selection area is set based on the touch position, and an object that at least partially overlaps the set selection area is set as a selection candidate.

特開2010−20608号公報JP, 2010-20608, A

ところで,近年,タッチパネルディスプレイを大型化することができるようになり,その用途も多様化しつつある。例えば,タッチパネルディスプレイにゲーム画像を表示し,ユーザがタッチパネルを指でタッチ操作することで,ゲーム進行に関する入力操作を行うことができるゲーム装置も開発されている。特に,ゲーム装置に大型のタッチパネルディスプレイを搭載して,アクションゲームを実行することにより,ユーザに対し臨場感の高いゲームを提供することができる。 By the way, in recent years, it has become possible to increase the size of touch panel displays, and their applications are diversifying. For example, a game device has been developed in which a game image is displayed on a touch panel display and a user can perform an input operation related to the game progress by touching the touch panel with a finger. In particular, by mounting a large touch panel display on a game device and executing an action game, it is possible to provide a user with a highly realistic game.

このような大型のタッチパネルディスプレイによりアクションゲームが提供される場合,ユーザはせわしなくタッチ操作を行うことが必要となる。タッチパネルディスプレイのタッチ操作の手法としては,例えば,タッチパネルディスプレイの画面の一点をタッチする動作や,画面を指でなぞる動作,画面を指で弾く動作等が存在する。これらの操作には,それぞれ別々のコマンド(命令)が割り振られており,ユーザは,これらの操作手法を選択しながら種々のコマンドを繰り返し入力することで,ゲームを進めていく。特に,表示画面上に表示された複数のオブジェクトを選択しながらゲームを進行するようなゲーム装置においては,オブジェクトを選択するにあたり,一のオブジェクトの選択を望む場合にはそのオブジェクトが表示された画面上の一点をタッチし,複数のオブジェクトの選択を望む場合にはそれぞれのオブジェクトが表示された画面上をタッチしていくこともある。 When an action game is provided by such a large-sized touch panel display, the user needs to perform a touch operation without hesitation. As a touch operation method of the touch panel display, there are, for example, an operation of touching a point on the screen of the touch panel display, an operation of tracing the screen with a finger, an operation of replaying the screen with a finger, and the like. Different commands (commands) are assigned to these operations, and the user advances the game by repeatedly inputting various commands while selecting these operation methods. In particular, in a game device in which a game progresses while selecting a plurality of objects displayed on a display screen, when selecting one object when selecting one object, the screen displaying the object is displayed. When one point on the top is touched, and when it is desired to select a plurality of objects, it may be touched on the screen where each object is displayed.

ここで,画面上に表示されているオブジェクトの中から多数のオブジェクトを選択することを希望するような場合に,選択を希望するオブジェクトを1つずつタッチすることは煩雑であり,ゲームの操作性を損なうものであった。そこで,上記特許文献1に開示された技術のように,タッチパネルディスプレイに対する一点のタッチ状態が継続している場合に,ユーザの手指が画面上をスライドした軌跡に基づいて選択エリアを決定し,その選択エリアに含まれるオブジェクトを選択する技術も提案されている。 Here, when it is desired to select a large number of objects from among the objects displayed on the screen, it is complicated to touch the objects desired to be selected one by one, and the operability of the game is reduced. Was a loss. Therefore, as in the technique disclosed in Patent Document 1, when a single touch state on the touch panel display continues, the selection area is determined based on the trajectory of the user's finger sliding on the screen, and A technique for selecting an object included in the selection area has also been proposed.

しかしながら,特許文献1に開示された技術では,一のオブジェクトを選択する操作も,複数のオブジェクトを選択する操作も,基本的に一本の指のタッチ状態に基づいて行われる。このように,一のオブジェクトを選択する操作と複数のオブジェクトを選択する操作が,一本の指のタッチ状態が継続しているか否かという点のみによって区別されていると,ユーザがタッチ操作を誤り易いという問題があった。すなわち,ユーザが一のオブジェクトの選択を意図しているにも関わらず,誤ってタッチパネルディスプレイに対する継続したタッチ状態が検知されてしまったような場合に,意図しない他のオブジェクトが選択されてしまうという問題がある。反対に,ユーザが複数のオブジェクトの選択を意図しているにも関わらず,誤ってタッチパネルディスプレイに対する継続したタッチ状態が検知されなかったような場合には,一のオブジェクトのみが選択されるという問題がある。さらに,タッチパネルディスプレイの画面を一本の指でなぞる動作(スライドさせる動作)に対し別のコマンドが割り振られているような場合には,ユーザによって誤操作が行われる可能性はより高まる。 However, in the technique disclosed in Patent Document 1, both the operation of selecting one object and the operation of selecting a plurality of objects are basically performed based on the touch state of one finger. In this way, if the operation of selecting one object and the operation of selecting a plurality of objects are distinguished only by whether or not the touch state of one finger continues, the user performs the touch operation. There was a problem that it was easy to make an error. In other words, when the user intends to select one object but accidentally detects a continuous touch state on the touch panel display, another unintended object is selected. There's a problem. On the other hand, if the user intends to select multiple objects but the continuous touch state on the touch panel display is not detected by mistake, only one object is selected. There is. Furthermore, when another command is assigned to the operation of tracing the screen of the touch panel display with one finger (the operation of sliding), the possibility of an erroneous operation by the user is further increased.

そこで,現在では,表示画面上の任意領域を指定する入力操作を,一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することにより,ユーザによる誤操作を防止する技術が求められている。特に,大型のタッチパネルディスプレイをせわしなくタッチすることが必要なゲーム装置を想定すると,表示画面上の広い範囲の任意領域を,片手で容易に指定することのできる入力操作に関する技術が求められている。 Therefore, at present, by effectively distinguishing the input operation that specifies an arbitrary area on the display screen from the touch or click input operation that specifies one point, and the operation that slides while continuing to input one point, There is a demand for technology that prevents erroneous operations by users. In particular, assuming a game device that requires a large touch panel display to be touched without a hurry, there is a demand for a technique related to an input operation capable of easily specifying a wide range of arbitrary area on a display screen with one hand.

そこで,本発明の発明者は,上記の従来発明の問題点を解決する手段について鋭意検討した結果,座標入力部に最初に同時に入力されている2点の座標から求められる中間座標と,座標入力部に最後に同時に入力されている2点の座標から求められる中間座標とに基づいて,表示画面上の所定領域を確定することにより,表示画面上の任意領域を指定する入力操作を,一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができるという知見を得た。しかも,上記操作手法によれば,表示画面上の広い範囲の領域を,片手で容易に指定することができるという知見を得た。そして,本発明者は,上記知見に基づけば,従来技術の課題を解決できることに想到し,本発明を完成させた。
具体的に,本発明は以下の構成を有する。
Therefore, the inventor of the present invention has made earnest studies on means for solving the above-mentioned problems of the conventional invention, and as a result, an intermediate coordinate and a coordinate input obtained from the coordinates of two points which are simultaneously input to the coordinate input section first. Based on the intermediate coordinates obtained from the coordinates of the last two points that have been simultaneously input to the section, by confirming the predetermined area on the display screen, the input operation to specify an arbitrary area on the display screen We have found that it is possible to effectively distinguish between a designated touch or click input operation and an operation of sliding while continuing to input one point. Moreover, according to the above operation method, it has been found that a wide range of area on the display screen can be easily designated with one hand. Then, the present inventor has completed the present invention by realizing that the problems of the prior art can be solved based on the above knowledge.
Specifically, the present invention has the following configurations.

本発明の第1の側面は,情報処理装置に関する。
本発明の情報処理装置は,画像を表示可能な表示部1と,表示部1の表示画面上における座標を入力するための座標入力部2と,座標入力部2に入力された座標に基づいて表示部1の表示画面上における領域Rを指定する領域指定部3と,を有する。
この領域指定部3は,まず,座標入力部に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する。
また,領域指定部3は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する。
そして,領域指定部3は,第1中間点M1の座標と第2中間点M2の座標に基づいて,表示部1の表示画面上における領域Rを確定する。
A first aspect of the present invention relates to an information processing device.
The information processing apparatus of the present invention is based on the display unit 1 capable of displaying an image, the coordinate input unit 2 for inputting coordinates on the display screen of the display unit 1, and the coordinates input to the coordinate input unit 2. An area designating section 3 for designating an area R on the display screen of the display section 1.
The area designation unit 3 first determines the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points that are simultaneously input to the coordinate input unit.
Further, the area designating unit 3 determines the coordinates of the second intermediate point M2 obtained from the coordinates of the last two points, which are detected immediately before the coordinates of the two points are not simultaneously input. To do.
Then, the area designation unit 3 determines the area R on the display screen of the display unit 1 based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2.

上記構成のように,本発明の情報処理装置は,最初に同時に入力された2点の座標から1点の第1中間座標を求め,最後に同時に入力された2点の座標から1点の第2中間座標を求めることにより,第1中間座標と第2中間座標とに基づいて表示画面上の領域を確定する。このように,本発明は,表示画面上の領域を指定する入力操作として,座標入力部に対し2点の座標を同時に入力する操作を求めるものであるため,表示画面上の任意領域を指定する入力操作を,例えば一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができる。従って,本発明によれば,ユーザによる誤操作を防止できる。
さらに,本発明は,例えばタッチパネルディスプレイを想定した場合には,二本の指のタッチ位置から第1中間座標を得て,二本の指がスライドした後にリリースされたタッチ位置から第2中間座標を得て,これらの第1中間座標及び第2中間座標に基づいて表示画面上の領域を確定する。このため,ユーザは,表示画面上の広い範囲の任意領域を,片手で容易に指定することができる。
このように,本発明は,表示部と座標入力部を備えた情報処理装置の新しい操作手法を提案するものである。本発明よれば,情報処理装置の操作性を向上させることができる。
As in the above configuration, the information processing apparatus of the present invention obtains the first intermediate coordinate of one point from the coordinates of two points that are simultaneously input first, and finally determines the first intermediate coordinate of two points that are simultaneously input. By determining the two intermediate coordinates, the area on the display screen is determined based on the first intermediate coordinates and the second intermediate coordinates. As described above, according to the present invention, as an input operation for designating an area on the display screen, an operation of simultaneously inputting the coordinates of two points is requested to the coordinate input section, so that an arbitrary area on the display screen is designated. The input operation can be effectively distinguished from, for example, a touch or click input operation for designating one point, or an operation for sliding while inputting one point. Therefore, according to the present invention, an erroneous operation by the user can be prevented.
Further, in the present invention, for example, when a touch panel display is assumed, the first intermediate coordinates are obtained from the touch positions of two fingers, and the second intermediate coordinates are obtained from the touch position released after the two fingers slide. Then, the area on the display screen is determined based on the first intermediate coordinates and the second intermediate coordinates. Therefore, the user can easily specify a wide range of arbitrary area on the display screen with one hand.
As described above, the present invention proposes a new operation method of an information processing device including a display unit and a coordinate input unit. According to the present invention, the operability of the information processing device can be improved.

本発明の情報処理装置において,表示部1は,表示画面上に複数のオブジェクトOを表示可能であることとしてもよい。この場合,本発明の情報処理装置は,領域指定部3により指定された領域Rに,少なくとも一部が含まれる一又は複数のオブジェクトOを選択するオブジェクト選択部4を,さらに有することが好ましい。 In the information processing apparatus of the present invention, the display unit 1 may be capable of displaying a plurality of objects O on the display screen. In this case, it is preferable that the information processing apparatus of the present invention further includes an object selection unit 4 that selects one or a plurality of objects O at least partially included in the region R designated by the region designation unit 3.

上記構成のように,本発明の領域指定部によって表示画面上の領域を指定することの用途として,指定された領域内に含まれる一又は複数のオブジェクトを選択することが考えられる。例えば,画面上に表示された一のオブジェクトを選択する場合には,従来通り,ポインティングデバイスにより,所望のオブジェクトが表示された部分をタッチ又はクリック入力すればよい。そして,画面上に表示された複数のオブジェクトを選択する場合には,本発明の操作手法に従って,第1中間座標と第2中間座標に基づいて所定の領域を決定し,その所定の領域に所望のオブジェクトが含まれるようにすればよい。これにより,ユーザは,一のオブジェクトを選択する操作と複数のオブジェクトを選択する操作とを容易に区別できるようになる。 As in the case of the above-mentioned configuration, the area designating unit of the present invention can be used to specify the area on the display screen. One or more objects included in the specified area can be selected. For example, in the case of selecting one object displayed on the screen, a part where the desired object is displayed may be touched or clicked with a pointing device, as is conventionally done. When selecting a plurality of objects displayed on the screen, a predetermined area is determined based on the first intermediate coordinates and the second intermediate coordinates according to the operation method of the present invention, and the desired area is selected. Object should be included. This allows the user to easily distinguish the operation of selecting one object from the operation of selecting a plurality of objects.

本発明の情報処理装置において,表示部1と座標入力部2は,座標入力部2が表示部1の前面に重ね合わされることによりタッチパネルディスプレイ10を形成していることが好ましい。タッチパネルディスプレイ10とは,座標入力部2にユーザの手指等が接触した点を,表示部1の画面上における座標として検出する装置である。 In the information processing apparatus of the present invention, the display unit 1 and the coordinate input unit 2 preferably form the touch panel display 10 by superimposing the coordinate input unit 2 on the front surface of the display unit 1. The touch panel display 10 is a device that detects a point at which the user's finger or the like touches the coordinate input unit 2 as coordinates on the screen of the display unit 1.

上記構成のように,表示部と座標入力部によってタッチパネルディスプレイを形成することにより,ユーザは直感的な操作によって,表示画面上の所定領域を指定できるようになる。 By forming a touch panel display by the display unit and the coordinate input unit as in the above configuration, the user can specify a predetermined area on the display screen by an intuitive operation.

本発明において,上記した領域Rは,例えば,第1中間点M1と第2中間点M2を繋ぐ線分を対角線とする多角形の領域であるか,第1中間点M1と第2中間点M2を繋ぐ線分を直径とする円形の領域であるか,若しくは,第1中間点M1と第2中間点M2を繋ぐ線分を長径又は短径とする楕円形の領域とすることができる。 In the present invention, the above-mentioned area R is, for example, a polygonal area having a diagonal line connecting the first intermediate point M1 and the second intermediate point M2, or the first intermediate point M1 and the second intermediate point M2. It may be a circular region having a diameter of a line segment connecting the two or a line segment connecting the first intermediate point M1 and the second intermediate point M2 may be an elliptical region having a major axis or a minor axis.

本発明の第2の側面は,上記第1の側面に係る情報処理装置により実行される情報処理方法に関する。
すなわち,本発明の情報処理方法は,表示部1の表示画面上における座標を入力するための座標入力部2により検出された座標に基づいて,表示部1の表示画面上における領域を指定する。
本発明の情報処理方法では,まず,座標入力部2に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する工程を行う。
次に,本発明の情報処理方法は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する工程を行う。
そして,本発明の情報処理方法は,第1中間点M1の座標と第2中間点M2の座標に基づいて,表示部1の表示画面上における領域Rを確定する工程を行う。
A second aspect of the present invention relates to an information processing method executed by the information processing device according to the first aspect.
That is, the information processing method of the present invention specifies the area on the display screen of the display unit 1 based on the coordinates detected by the coordinate input unit 2 for inputting the coordinates on the display screen of the display unit 1.
In the information processing method of the present invention, first, based on the coordinates of the first two points that are simultaneously input to the coordinate input unit 2, the step of determining the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points. I do.
Next, according to the information processing method of the present invention, based on the coordinates of the last two points detected immediately before the coordinates of the two points are not simultaneously input, the second intermediate point M2 obtained from the coordinates of the last two points is calculated. The step of determining the coordinates is performed.
Then, the information processing method of the present invention performs the step of determining the region R on the display screen of the display unit 1 based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2.

本発明の第3の側面は,ゲーム装置に関する。
本発明のゲーム装置は,タッチパネルディスプレイ100と,カードリーダ200と,カードリーダ200により読み取られた情報をタッチパネルディスプレイ100に表示してゲームを進行するゲーム本体部300と,を備える
タッチパネルディスプレイ100は,画像を表示可能なディスプレイ110と,ディスプレイ110の前面に重ね合わされの表示画面上における座標を入力するためのタッチスクリーン120と,を有する。
カードリーダ200は,所定のカード情報を有するコードが印刷されたカードが載置されるパネル210と,パネル210に載置されたカードのコードを読み取り,カード情報を検出するイメージセンサ230と,を有する。
また,ゲーム本体部300は,カード情報と関連付けてオブジェクトOに関する情報が記憶されるゲーム情報記憶部380と,カードリーダ200のイメージセンサ230により検出されたカード情報に基づいてゲーム情報記憶部380からオブジェクトOに関する情報を読み出し,読み出したオブジェクトOの画像をタッチパネルディスプレイ100のディスプレイ110に表示する制御を行う画像処理部330と,ゲーム処理部320と,を有する。
ここで,ゲーム処理部320は,まず,タッチパネルディスプレイ100のタッチスクリーン120に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する。また,ゲーム処理部320は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する。また,ゲーム処理部320は,第1中間点M1の座標と第2中間点M2の座標に基づいて,ディスプレイ110の表示画面上における領域Rを指定する。そして,ゲーム処理部320は,指定された領域Rに,少なくとも一部が含まれるように画像が表示されている一又は複数のオブジェクトOを選択して,ゲームを進行する。
A third aspect of the present invention relates to a game device.
The game device of the present invention includes a touch panel display 100, a card reader 200, and a game main body 300 that displays information read by the card reader 200 on the touch panel display 100 to progress the game. A display 110 capable of displaying an image and a touch screen 120 for inputting coordinates on the display screen, which are superimposed on the front surface of the display 110, are provided.
The card reader 200 includes a panel 210 on which a card on which a code having predetermined card information is printed is placed, and an image sensor 230 for reading the code of the card placed on the panel 210 and detecting the card information. Have.
In addition, the game main body unit 300 stores the game information storage unit 380 in which information about the object O is stored in association with the card information and the game information storage unit 380 based on the card information detected by the image sensor 230 of the card reader 200. The game processing unit 320 includes an image processing unit 330 and a game processing unit 320. The image processing unit 330 reads information about the object O and controls the display of the read image of the object O on the display 110 of the touch panel display 100.
Here, the game processing unit 320 firstly, based on the coordinates of the first two points that are simultaneously input to the touch screen 120 of the touch panel display 100, the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points. To decide. Further, the game processing unit 320 determines the coordinates of the second intermediate point M2 obtained from the coordinates of the last two points, which are detected immediately before the coordinates of the two points are not simultaneously input. To do. Further, the game processing section 320 specifies the region R on the display screen of the display 110 based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2. Then, the game processing section 320 selects one or a plurality of objects O whose images are displayed so that at least a part of them is included in the designated region R, and the game proceeds.

上記構成のように,本発明のゲーム装置は,カードリーダとタッチパネルディスプレイを実装しており,これらの操作を組み合わせてゲームを進行していくものである。例えば,ゲームのユーザは,一方の手でカードリーダに載置されたカードの操作を行ってタッチパネルディスプレイに一又は複数のオブジェクトを表示させ,他方の手でタッチパネルディスプレイのタッチ操作を行うことで表示されたオブジェクトの選択を行う。このように,タッチパネルディスプレイを片手で操作してオブジェクトの選択を行わなければならないゲーム装置においては,上記したオブジェクト選択操作を採用することで,ゲームの操作性を向上させることができる。 As in the above configuration, the game device of the present invention is equipped with a card reader and a touch panel display, and advances the game by combining these operations. For example, a user of a game operates a card placed on a card reader with one hand to display one or a plurality of objects on the touch panel display, and a touch operation on the touch panel display with the other hand for display. The selected objects. As described above, in the game device in which the touch panel display must be operated with one hand to select an object, the operability of the game can be improved by adopting the above-described object selection operation.

本発明は,最初に同時に入力された2点の座標から1点の第1中間座標を求め,最後に同時に入力された2点の座標から1点の第2中間座標を求めることにより,第1中間座標と第2中間座標とに基づいて表示画面上の領域を確定する。このように,本発明は,表示画面上の領域を指定する入力操作として,座標入力部に対し2点の座標を同時に入力する操作を求めるものである。このため,本発明によれば,表示画面上の領域を指定する入力操作を,例えば一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができる。 According to the present invention, the first intermediate coordinate of one point is obtained from the coordinates of two points that are simultaneously input first, and the second intermediate coordinate of one point is obtained from the coordinate of two points that are finally simultaneously input. The area on the display screen is determined based on the intermediate coordinates and the second intermediate coordinates. As described above, the present invention seeks an operation of simultaneously inputting the coordinates of two points to the coordinate input unit as an input operation for designating an area on the display screen. Therefore, according to the present invention, the input operation for designating the area on the display screen can be effectively distinguished from, for example, a touch or click input operation for designating one point or an operation for sliding while continuously inputting one point. can do.

さらに,本発明は,例えばタッチパネルディスプレイを想定した場合には,二本の指のタッチ位置から第1中間座標を得て,二本の指がスライドした後にリリースされたタッチ位置から第2中間座標を得て,これらの第1中間座標及び第2中間座標に基づいて表示画面上の領域を確定することができる。このため,本発明によれば,ユーザは,表示画面上の広い範囲の領域を,片手で容易に指定することができる。 Further, in the present invention, for example, when a touch panel display is assumed, the first intermediate coordinates are obtained from the touch positions of two fingers, and the second intermediate coordinates are obtained from the touch position released after the two fingers slide. Then, the area on the display screen can be determined based on the first intermediate coordinates and the second intermediate coordinates. Therefore, according to the present invention, the user can easily specify a wide range of area on the display screen with one hand.

図1は,本発明に係る情報処理装置の機能ブロック図を示している。FIG. 1 shows a functional block diagram of an information processing apparatus according to the present invention. 図2は,本発明に係る情報処理装置により実行される処理のフローを示している。FIG. 2 shows a flow of processing executed by the information processing apparatus according to the present invention. 図3は,オブジェクト選択操作の概要を示した模式図である。FIG. 3 is a schematic diagram showing an outline of the object selection operation. 図4は,2点の座標から求められる第1中間点及び第2中間点の例を示している。FIG. 4 shows an example of the first intermediate point and the second intermediate point obtained from the coordinates of the two points. 図5は,第1中間点及び第2中間点の座標から求められる領域の例を示している。FIG. 5 shows an example of a region obtained from the coordinates of the first intermediate point and the second intermediate point. 図6は,本発明に係るゲーム装置の構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of the game device according to the present invention. 図7は,本発明に係るゲーム装置の外観の例を示す斜視図である。FIG. 7 is a perspective view showing an example of the external appearance of the game device according to the present invention. 図8は,複数のカードが載置されたカードリーダを模式的に示している。FIG. 8 schematically shows a card reader on which a plurality of cards are placed. 図9は,本発明に係るゲーム装置の外観の例を示す斜視図である。FIG. 9 is a perspective view showing an example of the external appearance of the game device according to the present invention. 図10は,本発明に係るゲーム装置により実行されるゲームの一例を説明するための図である。FIG. 10 is a diagram for explaining an example of a game executed by the game device according to the present invention. 図11は,本発明に係るゲーム装置により実行されるゲームの一例を説明するための図である。FIG. 11 is a diagram for explaining an example of a game executed by the game device according to the present invention.

以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the modes described below, and includes those appropriately modified from the following modes within the scope obvious to those skilled in the art.

(1.情報処理装置及び情報処理方法)
まず,本発明に係る情報処理装置の基本構成について説明する。本発明の情報処理装置は,表示画面上の所定領域を指定することができ,指定した所定領域について種々の情報処理を行うことが可能である。例えば,本発明の情報処理装置は,指定した表示画面上の所定領域に含まれる一又は複数のオブジェクトを選択し,選択したオブジェクトの位置を移動させたりする等,選択したオブジェクトについて任意の命令を行うことができる。また,例えば,本発明の情報処理装置は,表示画面上の所定領域に含まれる画像を指定し,領域内の画像を拡大して表示したり,領域内の画像の切り取りを行う等の編集処理を行うこともできる。ただし,本発明により指定された所定領域の用途は,これらのものに限定されない。
以下では,本発明の情報処理装置ついて,指定した表示画面上の所定領域に含まれる一又は複数のオブジェクトを選択する実施形態を例に説明を行う。
(1. Information processing device and information processing method)
First, the basic configuration of the information processing apparatus according to the present invention will be described. The information processing apparatus of the present invention can specify a predetermined area on the display screen, and can perform various information processing on the specified predetermined area. For example, the information processing apparatus of the present invention selects one or a plurality of objects included in a predetermined area on the designated display screen, moves the position of the selected object, or the like, and executes an arbitrary command for the selected object. It can be carried out. Further, for example, the information processing apparatus of the present invention specifies an image included in a predetermined area on the display screen, enlarges and displays the image in the area, and performs an editing process such as cutting an image in the area. You can also do However, the use of the predetermined area designated by the present invention is not limited to these.
Hereinafter, the information processing apparatus of the present invention will be described by taking an embodiment in which one or more objects included in a predetermined area on a designated display screen are selected.

図1は,本発明の情報処理装置の基本的な機能構成を示したブロック図である。図1に示されるように,本発明の情報処理装置は,タッチパネルディスプレイ10と,制御部20と,記憶部30とを有している。 FIG. 1 is a block diagram showing the basic functional configuration of the information processing apparatus of the present invention. As shown in FIG. 1, the information processing apparatus of the present invention includes a touch panel display 10, a control unit 20, and a storage unit 30.

タッチパネルディスプレイ10は,各種画像データをユーザが視認できる画像として表示し,かつユーザによって表示画面がタッチされた座標を検出可能な構成を有している。具体的に説明すると,タッチパネルディスプレイ10は,画像を表示できる表示部1の前面に,透明材料で形成された座標入力部2を配設して形成されている。表示部1は,例えばLCD(Liquid Crystal Display;液晶ディスプレイ)やOELD(Organic Electro LuminescenceDisplay;有機ELディスプレイ)のような表示装置である。表示部1は,制御部20からの入力信号に応じて,ユーザが情報処理装置を使用するにあたって必要とされる各種情報を静止画や動画として出力表示する。また,座標入力部2は,公知の静電容量方式,電磁誘導方式,赤外線走査方式,抵抗膜方式又は超音波表面弾性波方式などにより,ユーザの手指が接触したことを検知し,その座標情報を得ることができる。表示部1と座標入力部2の位置関係は互いにリンクしており,座標入力部2は,表示部1に表示された表示画面上におけるタッチ位置の座標情報を取得できる。これにより,座標入力部2は,ユーザの指が接触したことを検知し,ユーザの指が接触した表示部1の画面上の座標情報を得ることができる。例えば,座標入力部2は,ユーザが複数点をタッチした場合に,それらの複数点における座標情報を取得可能な,いわゆるマルチタッチに対応している。 The touch panel display 10 has a configuration in which various image data are displayed as an image that can be visually recognized by the user and the coordinates at which the display screen is touched by the user can be detected. More specifically, the touch panel display 10 is formed by arranging a coordinate input unit 2 made of a transparent material on the front surface of a display unit 1 capable of displaying an image. The display unit 1 is a display device such as an LCD (Liquid Crystal Display) or an OELD (Organic Electro Luminescence Display). The display unit 1 outputs and displays various information necessary for the user to use the information processing device as a still image or a moving image in response to an input signal from the control unit 20. In addition, the coordinate input unit 2 detects that the user's finger has touched by a known capacitance method, electromagnetic induction method, infrared scanning method, resistive film method, or ultrasonic surface acoustic wave method, and the coordinate information thereof is detected. Can be obtained. The positional relationship between the display unit 1 and the coordinate input unit 2 is linked to each other, and the coordinate input unit 2 can acquire the coordinate information of the touch position on the display screen displayed on the display unit 1. As a result, the coordinate input unit 2 can detect that the user's finger has touched, and can obtain coordinate information on the screen of the display unit 1 that the user's finger has touched. For example, the coordinate input unit 2 is compatible with so-called multi-touch, which is capable of acquiring coordinate information at a plurality of points when the user touches a plurality of points.

本発明による操作手法によれば,ユーザは,表示画面上の広い範囲の領域を片手で容易に指定することができる。このため,本発明の情報処理装置は,比較的大型のタッチパネルディスプレイ10を搭載できる。例えば,タッチパネルディスプレイ10は,10インチ〜75インチ,16インチ〜40インチ,又は20インチ〜38インチのディスプレイであることが好ましい。 According to the operation method of the present invention, the user can easily specify a wide range of area on the display screen with one hand. Therefore, the information processing apparatus of the present invention can mount the relatively large touch panel display 10. For example, the touch panel display 10 is preferably a display of 10 inches to 75 inches, 16 inches to 40 inches, or 20 inches to 38 inches.

ただし,本発明において,表示部1と座標入力部2は,両者が一体に構成されたタッチパネルディスプレイとして機能するものに限定されない。例えば,表示部1と座標入力部2は,それぞれ別々のハードウェアとして機能するものであってもよい。この場合,表示部1としては,例えばLCDやOELDのような通常の表示装置を用いればよい。また,座標入力部2は,マウスやタッチタブレットのような表示部1とは別途設けられるポインティングデバイスであってもよい。 However, in the present invention, the display unit 1 and the coordinate input unit 2 are not limited to those that function as a touch panel display in which both are integrated. For example, the display unit 1 and the coordinate input unit 2 may each function as separate hardware. In this case, as the display unit 1, for example, an ordinary display device such as LCD or OELD may be used. The coordinate input unit 2 may be a pointing device such as a mouse or a touch tablet that is provided separately from the display unit 1.

制御部20は,記憶部30に記憶されている制御プログラムを読み出して実行することにより,情報処理装置全体の動作を制御する。制御部20は,例えば,CPU(Central Processing Unit)やGPU(Graphics Processing Unit)により,その機能が達成される。制御部20は,記憶部30からオブジェクトの画像データを含む情報を読み出して,オブジェクトの画像を生成し,タッチパネルディスプレイ10に表示させる。また,制御部20は,タッチパネルディスプレイ10により検出されたタッチ位置の座標情報を記憶部30に記憶させる。制御部20は,タッチパネルディスプレイ10に入力された座標情報に基づいて,表示画面上における所定領域を指定する演算を行うことができる。また,制御部20は,タッチパネルディスプレイ10に表示されているオブジェクトの位置情報及びタッチパネルディスプレイ10入力された座標情報を解析することで,オブジェクトが選択されたか否かを判断できる。 The control unit 20 controls the operation of the entire information processing apparatus by reading and executing the control program stored in the storage unit 30. The function of the control unit 20 is achieved by, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The control unit 20 reads out the information including the image data of the object from the storage unit 30, generates the image of the object, and causes the touch panel display 10 to display the image. Further, the control unit 20 causes the storage unit 30 to store the coordinate information of the touch position detected by the touch panel display 10. The control unit 20 can perform a calculation for designating a predetermined area on the display screen based on the coordinate information input to the touch panel display 10. Further, the control unit 20 can determine whether an object is selected by analyzing the position information of the object displayed on the touch panel display 10 and the coordinate information input by the touch panel display 10.

図1に示されるように,制御部20は,その機能的な観点から領域指定部3とオブジェクト選択部4を有する。領域指定部3は,記憶部30に記憶されている制御プログラムに従って,タッチパネルディスプレイ10の表示画面上における選択領域を指定する機能を持つ。また,オブジェクト選択部4は,タッチパネルディスプレイ10により検出されたタッチ位置がオブジェクトと重なっている場合や,領域指定部3により指定された選択領域にオブジェクトが含まれている場合に,それらのオブジェクトを選択する機能を持つ。詳しい説明は後述する。 As shown in FIG. 1, the control unit 20 has an area designation unit 3 and an object selection unit 4 from the functional viewpoint. The area designating unit 3 has a function of designating a selected area on the display screen of the touch panel display 10 according to a control program stored in the storage unit 30. Further, the object selecting unit 4 selects the objects when the touch position detected by the touch panel display 10 overlaps with the object or when the selected region specified by the region specifying unit 3 includes the object. Has the ability to choose. Detailed description will be given later.

記憶部30は,本発明の情報処理装置による処理に必要とされる制御プログラムを含む種々の情報を記憶する。記憶部30は,ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置により実現できる。RAMとしては,例えばVRAM(Video RAM),DRAM(Dynamic RAM)又はSRAM(Static RAM)等を例に挙げることができる。記憶部30は,その機能的な観点からオブジェクト記憶部5と座標記憶部6を有する。オブジェクト記憶部5は,タッチパネルディスプレイ10に表示されるオブジェクトについて,その画像データ(オブジェクトの頂点座標,頂点テクスチャ座標,又は輝度データ等)を含む情報を記憶している。座標記憶部6は,タッチパネルディスプレイ10の座標入力部2により取得された座標情報を記憶する。座標記憶部6は,制御部20によって座標情報の読み書きがなされるものであり,例えばRAMの作業領域により実現される。 The storage unit 30 stores various kinds of information including a control program required for processing by the information processing apparatus of the present invention. The storage unit 30 can be realized by a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). As the RAM, for example, VRAM (Video RAM), DRAM (Dynamic RAM), SRAM (Static RAM) or the like can be given as an example. The storage unit 30 has an object storage unit 5 and a coordinate storage unit 6 from the functional viewpoint. The object storage unit 5 stores information about an object displayed on the touch panel display 10 including image data thereof (vertex coordinates of the object, vertex texture coordinates, brightness data, or the like). The coordinate storage unit 6 stores the coordinate information acquired by the coordinate input unit 2 of the touch panel display 10. The coordinate storage unit 6 is for reading and writing coordinate information by the control unit 20, and is realized by a work area of a RAM, for example.

続いて,図2を参照して,本発明の情報処理装置により実行される情報処理のフローについて説明する。すなわち,情報処理装置の制御部20は,記憶部30に記憶されている制御プログラムを読み出し,読み出した制御プログラムに従って,図2に示された処理を実行する。ここでは,制御部20が,タッチパネルディスプレイ10に表示されたオブジェクトのうち,一又は複数のオブジェクトを選択するまでの処理を具体的に示している。また,図3は,情報処理装置により実行されるオブジェクト選択の処理を示した模式図である。 Subsequently, a flow of information processing executed by the information processing apparatus of the present invention will be described with reference to FIG. That is, the control unit 20 of the information processing device reads the control program stored in the storage unit 30 and executes the process shown in FIG. 2 according to the read control program. Here, the control unit 20 specifically shows a process until one or more objects are selected from the objects displayed on the touch panel display 10. Further, FIG. 3 is a schematic diagram showing an object selection process executed by the information processing apparatus.

ステップS1は,タッチパネルディスプレイ10の座標入力部2によりタッチ入力が検出されていないタッチ入力待機状態である。図3に示されるように,この段階において,タッチパネルディスプレイ10の表示部1には,オブジェクト記憶部5から読み出された複数のオブジェクトO(O1〜O5)が表示されている。当然,複数のオブジェクトO(O1〜O5)は,制御部20により制御されて表示部1の画面上を移動しているものであってもよいし,静止しているものであってもよい。また,表示部1の画面上には,オブジェクトOの他に背景画像等が表示されていてもよい。 Step S1 is a touch input standby state in which no touch input is detected by the coordinate input unit 2 of the touch panel display 10. As shown in FIG. 3, at this stage, the display unit 1 of the touch panel display 10 displays a plurality of objects O (O1 to O5) read from the object storage unit 5. Naturally, the plurality of objects O (O1 to O5) may be moving on the screen of the display unit 1 under the control of the control unit 20, or may be stationary. In addition to the object O, a background image or the like may be displayed on the screen of the display unit 1.

ステップS2において,タッチパネルディスプレイ10の座標入力部2により,第1点目のタッチ入力が検出される。図3に示されるように,第1点目のタッチ点P1は,例えばユーザの人差し指が座標入力部2に接触した点である。座標入力部2により第1点目のタッチ点P1の入力が検出されると,制御部20は第1点目のタッチ点P1の座標情報を取得し,取得した座標情報を座標記憶部6に一時的に記憶する。 In step S2, the touch input of the first point is detected by the coordinate input unit 2 of the touch panel display 10. As shown in FIG. 3, the first touch point P1 is, for example, a point at which the index finger of the user contacts the coordinate input unit 2. When the input of the first touch point P1 is detected by the coordinate input unit 2, the control unit 20 acquires the coordinate information of the first touch point P1 and stores the acquired coordinate information in the coordinate storage unit 6. Store temporarily.

ステップS3において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力が継続しているか否かを判断する。第1点目のタッチ入力が継続していると判断した場合にはステップS4へと進み,第1点目のタッチ入力が継続していないと判断した場合にはステップS17へと進む。 In step S3, the control unit 20 determines based on the information detected by the coordinate input unit 2 whether or not the touch input of the first point is continuing. If it is determined that the touch input of the first point is continued, the process proceeds to step S4, and if it is determined that the touch input of the first point is not continued, the process proceeds to step S17.

ステップS4において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力が継続している間に第2点目のタッチ入力が行われたか否かを判断する。図3に示されるように,第2点目のタッチ点P2は,例えばユーザの親指が座標入力部2に接触した点である。座標入力部2により第2点目のタッチ点P2の入力が検出されると,制御部20は第2点目のタッチ点P2の座標情報を取得し,取得した座標情報を座標記憶部6に一時的に記憶する。第1点目のタッチ入力が継続している間に第2点目のタッチ入力が行われたと判断した場合にはステップS5へと進み,第2点目のタッチ入力が行われなかったと判断した場合にはステップS17へと進む。なお,タッチ入力待機状態(ステップS1)において,第1点目のタッチ入力と第2点目のタッチ入力が同時に検出された場合には,ステップS2〜ステップS4までの処理を同時に行なってステップS5へと進むこともできる。 In step S4, the control unit 20 determines, based on the information detected by the coordinate input unit 2, whether or not the second point touch input is performed while the first point touch input is continued. to decide. As shown in FIG. 3, the second touch point P2 is, for example, a point at which the user's thumb touches the coordinate input unit 2. When the coordinate input unit 2 detects the input of the second touch point P2, the control unit 20 acquires the coordinate information of the second touch point P2 and stores the acquired coordinate information in the coordinate storage unit 6. Store temporarily. When it is determined that the second touch input is performed while the first touch input is continued, the process proceeds to step S5, and it is determined that the second touch input is not performed. In that case, the process proceeds to step S17. In the touch input standby state (step S1), when the first touch input and the second touch input are detected at the same time, the processes from step S2 to step S4 are performed at the same time, and step S5 is performed. You can also go to.

ステップS5において,制御部20は,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報を座標記憶部6から読み出し,これらの座標情報に基づいて第1中間点M1の座標を算出する。図3に示された例において,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2の丁度中間の位置に設定されている。すなわち,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上において,第1点目のタッチ点P1と第2点目のタッチ点P2との距離が等しくなる位置に設定されている。ただし,第1中間点M1を設定する位置は,上記のものに限定されず,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報に基づいて設定可能な位置であればどのような位置であってもよい。例えば,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上において,第1点目のタッチ点P1と第2点目のタッチ点P2との距離が,6:4となるような位置に設定されても良い。なお,第1点目のタッチ点P1と第2点目のタッチ点P2との距離の比率は任意に設定できる。その他,種々の条件に応じて,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報に基づいて第1中間点の座標を設定できる。 In step S5, the control unit 20 reads the coordinate information of the first touch point P1 and the second touch point P2 from the coordinate storage unit 6, and based on these coordinate information, the first intermediate point M1 Calculate the coordinates. In the example shown in FIG. 3, the first intermediate point M1 is set at a position just in between the first touch point P1 and the second touch point P2. That is, the first intermediate point M1 is on the line segment connecting the first touch point P1 and the second touch point P2, and the first touch point P1 and the second touch point P2. It is set at a position where the distance between and is the same. However, the position at which the first intermediate point M1 is set is not limited to the above, and may be a position that can be set based on the coordinate information of the first touch point P1 and the second touch point P2. Any position may be used. For example, the first intermediate point M1 is on the line segment connecting the first touch point P1 and the second touch point P2, and the first touch point P1 and the second touch point P2. It may be set at a position such that the distance between and is 6:4. The ratio of the distance between the first touch point P1 and the second touch point P2 can be set arbitrarily. In addition, the coordinates of the first intermediate point can be set based on the coordinate information of the first touch point P1 and the second touch point P2 according to various conditions.

また,図4には,別の条件により設定された第1中間点M1の例が示されている。図4の例において,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2が底角に位置する二等辺三角形の頂角の位置に設けられている。すなわち,図4に示されるように,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分から,二等辺三角形の高さhの分だけ離れた位置に設定される。このように,第1中間点M1を,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分から所定距離hだけ離れた位置に設定することで,ユーザが,タッチパネルディスプレイ10に表示される第1中間点M1の位置を目視し易くなるという利点がある。つまり,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上に第1中間点M1を設定すると,第1中間点M1は,視る角度によってはユーザの手に隠れてしまい目視しにくくなるという問題がある。この点,図4に示される位置に第1中間点M1を設定することで,第1中間点M1がユーザの手に隠れることを防止でき,ユーザは第1中間点M1の位置を把握し易くなる。 Further, FIG. 4 shows an example of the first intermediate point M1 set under another condition. In the example of FIG. 4, the first intermediate point M1 is provided at the apex angle position of an isosceles triangle in which the first touch point P1 and the second touch point P2 are located at the base angle. That is, as shown in FIG. 4, the first intermediate point M1 is separated from the line segment connecting the first touch point P1 and the second touch point P2 by the height h of the isosceles triangle. Is set to the open position. As described above, the user sets the first intermediate point M1 at a position separated from the line segment connecting the first touch point P1 and the second touch point P2 by a predetermined distance h. There is an advantage that the position of the first intermediate point M1 displayed at 10 can be easily viewed. That is, when the first intermediate point M1 is set on the line segment connecting the first touch point P1 and the second touch point P2, the first intermediate point M1 may be placed in the user's hand depending on the viewing angle. There is a problem that it is hidden and difficult to see. In this respect, by setting the first intermediate point M1 at the position shown in FIG. 4, it is possible to prevent the first intermediate point M1 from being hidden by the user's hand, and the user can easily grasp the position of the first intermediate point M1. Become.

ステップS5において算出された第1中間点M1の座標は,座標記憶部6に一時的に記憶される。第1中間点M1の座標の算出が完了すると,ステップS6へ進む。 The coordinates of the first intermediate point M1 calculated in step S5 are temporarily stored in the coordinate storage unit 6. When the calculation of the coordinates of the first intermediate point M1 is completed, the process proceeds to step S6.

ステップS6において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力と第2点目のタッチ入力が継続しているか否かを判断する。第1点目及び第2点目のタッチ入力が継続していると判断した場合にはステップS7へと進み,第1点目及び第2点目のタッチ入力の両方又はいずれか一方が継続していないと判断した場合にはステップS17へと進む。 In step S6, the control unit 20 determines whether or not the touch input of the first point and the touch input of the second point are continued based on the information detected by the coordinate input unit 2. When it is determined that the touch input of the first point and the touch input of the second point are continued, the process proceeds to step S7, and either or both of the touch input of the first point and the touch input of the second point are continued. If it is determined that they are not, the process proceeds to step S17.

ステップS7において,制御部20は,第1点目及び第2点目のタッチ入力が継続した状態で,2点のタッチ入力がスライドしたか否かを判断する。タッチ入力のスライドとは,タッチ入力の検出された座標が連続的に変位することを意味する。要するに,ステップS7では,ユーザの二本の指(例えば人差し指と親指)がタッチパネルディスプレイ10の座標入力部2に接した状態のまま,画面上のなぞるように移動したか否かを判断する。制御部20は,座標入力部2により連続的に検出される座標情報に基づいて,2点のタッチ入力がスライドしたことを判断できる。2点のタッチ入力がスライドすることにより連続的に検出される座標情報は,座標情報記憶部6に随時記憶される。2点のタッチ入力がスライドしたと判断した場合にはステップS8へと進み,第1点目及び第2点目のタッチ入力の両方又はいずれか一方がスライドしていないと判断した場合にはステップS17へと進む。 In step S7, the control unit 20 determines whether or not the touch input at two points has slid while the touch input at the first point and the touch input at the second point have continued. The touch input slide means that the detected coordinates of the touch input are continuously displaced. In short, in step S7, it is determined whether or not the user's two fingers (for example, the index finger and the thumb) have moved along the screen while touching the coordinate input unit 2 of the touch panel display 10. The control unit 20 can determine that the touch input of two points has slid based on the coordinate information continuously detected by the coordinate input unit 2. Coordinate information that is continuously detected by sliding two touch inputs is stored in the coordinate information storage unit 6 as needed. If it is determined that the two touch inputs have slid, the process proceeds to step S8. If it is determined that the first and/or second touch inputs have not slid, the process proceeds to step S8. Proceed to S17.

ステップS8において,制御部20は,2点のタッチ入力がスライドすることにより連続的に検出された座標情報を座標情報記憶部6から読み出し,2点のタッチ点の座標情報に基づいて第2中間点候補の座標を随時算出する。
「第2中間点」とは,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる点である。「第2中間点候補」とは,上記第2中間点となり得る点である。
図3において,符号P3は,第1点目のタッチ点P1から継続したスライド入力がリリースされる直前に,座標入力部6により検出された第3点目のタッチ点(人差し指のリリース点)を示し,符号P4は,第2点目のタッチ点P2から継続したスライド入力がリリースされる直前に,座標入力部6により検出された第4点目のタッチ点(親指のリリース点)を示している。「第2中間点M2」の座標は,第3点目のタッチ点の座標と,第4点目のタッチ点の座標から求めることができる。第2中間点M2の座標を算出するための条件は,第1中間点M1の座標を算出するための条件と同じものとすればよい。
他方,図3において,符号P3´は,第1点目のタッチ点P1からのスライド入力が継続している途中の点を示し,符号P4´は,第2点目のタッチ点P2からのスライド入力が継続している途中の点を示している。これらの途中の点(P3´,P4´)は複数存在し,スライド入力が継続することで,途中の点(P3´,P4´)の座標は連続的に座標情報記憶部6に記憶されている。この途中の点(P3´,P4´)に基づいて,「第2中間点候補M2´」の座標が連続的に算出される。第2中間点候補M2´の座標を算出するための条件は,第2中間点M2の座標を算出するための条件と同じものである。算出された第2中間点候補M2´の座標は,座標記憶部6に随時記憶される。第2中間点候補M2´の座標が算出されると,ステップS9へと進む。
In step S8, the control unit 20 reads from the coordinate information storage unit 6 the coordinate information continuously detected by the sliding touch input of the two points, and based on the coordinate information of the two touch points, the second intermediate The coordinates of the point candidates are calculated at any time.
The “second intermediate point” is a point obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the coordinates of the two points are not simultaneously input. The "second intermediate point candidate" is a point that can be the second intermediate point.
In FIG. 3, reference numeral P3 indicates the third touch point (release point of the index finger) detected by the coordinate input unit 6 immediately before the continuous slide input is released from the first touch point P1. Reference numeral P4 indicates the fourth touch point (thumb release point) detected by the coordinate input unit 6 immediately before the continuous slide input is released from the second touch point P2. There is. The coordinates of the "second intermediate point M2" can be obtained from the coordinates of the third touch point and the coordinates of the fourth touch point. The conditions for calculating the coordinates of the second intermediate point M2 may be the same as the conditions for calculating the coordinates of the first intermediate point M1.
On the other hand, in FIG. 3, reference numeral P3′ indicates a point during which the slide input from the first touch point P1 is continuing, and reference numeral P4′ indicates a slide from the second touch point P2. It shows the point where the input is being continued. There are a plurality of points (P3′, P4′) in the middle of these points, and the coordinates of the points (P3′, P4′) in the middle are continuously stored in the coordinate information storage unit 6 as the slide input continues. There is. The coordinates of the “second intermediate point candidate M2′” are continuously calculated based on the points (P3′, P4′) on the way. The conditions for calculating the coordinates of the second intermediate point candidate M2′ are the same as the conditions for calculating the coordinates of the second intermediate point M2. The calculated coordinates of the second intermediate point candidate M2′ are stored in the coordinate storage unit 6 as needed. When the coordinates of the second intermediate point candidate M2' are calculated, the process proceeds to step S9.

ステップS9において,制御部20の領域指定部3は,上説した第1中間点M1の座標と,第2中間点候補M2´の座標に基づいて,選択領域候補A´を算出する。選択領域候補A´は,後述する選択領域Aとなり得る領域である。選択領域候補R´は,例えば第1中間点M1と第2中間点候補M2´を繋ぐ線分を対角線とする矩形の領域である。選択領域候補R´は,2点のタッチ入力がスライドし,第2中間点候補M2´の座標が変化するに伴って,その形状及び面積が変化する。このため,選択領域候補R´は,第2中間点候補M2´の座標の変化に応じて,連続的に算出される。選択領域候補R´が算出されると,ステップS10へと進む。 In step S9, the area designation unit 3 of the control unit 20 calculates the selected area candidate A′ based on the coordinates of the above-described first intermediate point M1 and the coordinates of the second intermediate point candidate M2′. The selection area candidate A′ is an area that can be the selection area A described later. The selected area candidate R′ is, for example, a rectangular area having a diagonal line connecting the first intermediate point M1 and the second intermediate point candidate M2′. The shape and area of the selected area candidate R′ change as the touch input of two points slides and the coordinates of the second intermediate point candidate M2′ change. Therefore, the selected area candidate R′ is continuously calculated according to the change in the coordinates of the second intermediate point candidate M2′. When the selected area candidate R′ is calculated, the process proceeds to step S10.

ステップS10において,制御部20は,ステップS9において算出した選択領域候補R´をタッチパネルディスプレイ10に表示する。上述の通り,選択領域候補R´は連続的に算出されるものであるため,選択領域候補R´が算出された都度タッチパネルディスプレイ10に表示していく。これにより,ユーザは,タッチパネルディスプレイ10の表示によって選択領域候補R´を確認できるため,選択領域候補R´内に選択を希望するオブジェクトが含まれるようにタッチ位置を調節することができる。選択領域候補R´が表示されると,ステップS11へと進む。 In step S10, the control unit 20 displays the selected area candidate R′ calculated in step S9 on the touch panel display 10. As described above, since the selection area candidate R′ is continuously calculated, it is displayed on the touch panel display 10 every time the selection area candidate R′ is calculated. As a result, the user can confirm the selection area candidate R′ by the display on the touch panel display 10, so that the touch position can be adjusted so that the selection area candidate R′ includes the object desired to be selected. When the selected area candidate R'is displayed, the process proceeds to step S11.

ステップS11において,制御部20は,第1点目のタッチ点P1及び第2点目のタッチ点P2から継続したスライド入力が,リリースされたか否かを判断する。すなわち,制御部20は,座標入力部2により,第1点目のタッチ点P1及び第2点目のタッチ点P2から継続していたタッチ入力が検出されなくなったときに,スライド入力がリリースされたと判断すればよい。スライド入力がリリースされたと判断された場合,ステップS12へと進む。他方,スライド入力がリリースされずに継続していると判断した場合には,スライド入力のリリースが検知されるまで,ステップS8〜ステップS10の処理を繰り返し行う。 In step S11, the control unit 20 determines whether or not the slide input continued from the first touch point P1 and the second touch point P2 has been released. That is, the control unit 20 releases the slide input when the coordinate input unit 2 no longer detects the touch input continued from the first touch point P1 and the second touch point P2. You can judge that. If it is determined that the slide input has been released, the process proceeds to step S12. On the other hand, when it is determined that the slide input is not released and is continued, the processes of steps S8 to S10 are repeated until the release of the slide input is detected.

ステップS12において,制御部20は,第2中間点M2の座標を確定する。すなわち,まず,制御部20は,図3に示されるように,ステップS11においてスライド入力がリリースされる直前に座標入力部2により検知された点を,第3点目のタッチ点P3及び第4点目のタッチ点P4と認定する。なお,第3点目のタッチ点P3は,第1点目のタッチ点P1から継続したスライド入力がリリースされる直前に座標入力部6により検出されたタッチ点である。また,第4点目のタッチ点P4は,第2点目のタッチ点P2から継続したスライド入力がリリースされる直前に,座標入力部6により検出されたタッチ点である。そして,制御部20は,第3点目のタッチ点P3の座標及び第4点目のタッチ点P4の座標に基づいて,第2中間点M2の座標を算出する。第2中間点M2の座標を算出するための条件は,第1中間点M1の座標を算出するための条件と同じものとすればよい。第2中間点M2の座標は,座標記憶部6に記憶される。第2中間点M2の座標が求まると,ステップS13へ進む。 In step S12, the control unit 20 determines the coordinates of the second intermediate point M2. That is, first, as shown in FIG. 3, the control unit 20 determines the point detected by the coordinate input unit 2 immediately before the slide input is released in step S11 as the third touch point P3 and the fourth touch point P3. It is certified as the touch point P4. The third touch point P3 is a touch point detected by the coordinate input unit 6 immediately before the continuous slide input is released from the first touch point P1. Further, the fourth touch point P4 is a touch point detected by the coordinate input unit 6 immediately before the continuous slide input is released from the second touch point P2. Then, the control unit 20 calculates the coordinates of the second intermediate point M2 based on the coordinates of the third touch point P3 and the coordinates of the fourth touch point P4. The conditions for calculating the coordinates of the second intermediate point M2 may be the same as the conditions for calculating the coordinates of the first intermediate point M1. The coordinates of the second intermediate point M2 are stored in the coordinate storage unit 6. When the coordinates of the second intermediate point M2 are obtained, the process proceeds to step S13.

ステップS13において,制御部20の領域指定部3は,上説した第1中間点M1の座標と第2中間点M2の座標に基づいて,タッチパネルディスプレイ10の表示画面上の選択領域Rを確定する。図3に示された例おいて,選択領域Rは,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とし,かつ,表示画面のY軸に平行な二辺とX軸に平行な二辺により周囲を画定される矩形(四角形)の領域となっている。選択領域Rが指定されると,選択領域Rをなす形状の各頂点の座標が記憶部30に記憶される。 In step S13, the area specifying unit 3 of the control unit 20 determines the selection area R on the display screen of the touch panel display 10 based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2 described above. .. In the example shown in FIG. 3, the selection area R has a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2 as a diagonal line and two sides parallel to the Y axis of the display screen. It is a rectangular (quadrangle) region whose periphery is defined by two sides parallel to the X axis. When the selection area R is designated, the coordinates of each vertex of the shape forming the selection area R are stored in the storage unit 30.

ただし,選択領域Rの形状は,上記のものに限定されず,第1中間点M1と第2中間点M2の2点の座標に基づいて決定できる形状であればよい。図5には,第1中間点M1と第2中間点M2の2点の座標に基づいて決定可能な選択領域Rの形状の例が示されている。
図5(a)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とする多角形の領域となっている。具体的に説明すると,図5(a)の例では,選択領域Aが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とし,かつ,第1中間点M1からX軸方向に延びる辺と,第2中間点M2からX軸方向に延びる辺が,平行である六角形となっている。
また,図5(b)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを直径とする正円形の領域となっている。
さらに,図5(c)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを長径とする楕円形の領域となっている。この場合,楕円形の領域の短径の長さは,一定の値としてもよいし,長径と比例する値としてもよい。また,図示は省略するが,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを短径とする楕円形の領域であってもよい。
このように,選択領域Rの形状は,その用途に応じて適宜設定することができる。
However, the shape of the selection region R is not limited to the above, and may be any shape that can be determined based on the coordinates of the two points of the first intermediate point M1 and the second intermediate point M2. FIG. 5 shows an example of the shape of the selection area R that can be determined based on the coordinates of the two points of the first intermediate point M1 and the second intermediate point M2.
In the example shown in FIG. 5A, the selection area R is a polygonal area whose diagonal is a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2. More specifically, in the example of FIG. 5A, the selection area A has a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2 as a diagonal line, and from the first intermediate point M1. The side extending in the X-axis direction and the side extending in the X-axis direction from the second intermediate point M2 are parallel hexagons.
Further, in the example shown in FIG. 5B, the selection region R is a regular circular region having a diameter of a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2.
Further, in the example shown in FIG. 5C, the selection area R is an elliptical area having a major axis of a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2. In this case, the minor axis length of the elliptical region may be a constant value or a value proportional to the major axis. Although not shown, the selection area R may be an elliptical area having a minor axis of a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2.
In this way, the shape of the selection area R can be appropriately set according to its application.

ステップS14において,制御部20は確定された選択領域Rを,タッチパネルディスプレイ10に表示する。これにより,ユーザは,タッチパネルディスプレイ10の表示によって選択領域Rを確認できる。 In step S14, the control unit 20 displays the confirmed selection area R on the touch panel display 10. As a result, the user can confirm the selection area R by the display on the touch panel display 10.

ステップS15において,制御部20のオブジェクト選択部4は,表示画面上の選択領域R内にオブジェクトが存在するか否かを判断する。画面上に表示されている複数のオブジェクトOが存在する位置は制御部20によって把握されている。このため,表示画面上の選択領域Rをなす形状の各頂点座標と,オブジェクトOが存在する座標を参照することにより,選択領域R内にオブジェクトOが含まれるか否かを判断できる。図3に示された例において,タッチパネルディスプレイ10の画面上には,オブジェクトO1〜O5が表示されている。このうち,オブジェクO1〜03は,その全体又は一部が選択領域R内に含まれる。他方,オブジェクO4,05は,その全体が選択領域R外に位置している。このため,制御部20のオブジェクト選択部4は,複数のオブジェクトO1〜O5のうち,オブジェクO1〜03が選択領域R内に含まれると判断する。表示画面上の選択領域R内にオブジェクトが存在する場合には,ステップS16へ進む。
一方,選択領域R内にいずれのオブジェクトも含まれない場合には,ステップS1へ戻り,再びタッチ入力待機状態となる。
In step S15, the object selection unit 4 of the control unit 20 determines whether an object exists in the selection area R on the display screen. The position where the plurality of objects O displayed on the screen exist is grasped by the control unit 20. Therefore, whether or not the object O is included in the selection area R can be determined by referring to the coordinates of each vertex of the shape forming the selection area R on the display screen and the coordinates where the object O exists. In the example shown in FIG. 3, objects O1 to O5 are displayed on the screen of the touch panel display 10. Of these, the objects O1 to 03 are wholly or partially included in the selection region R. On the other hand, the objects O4 and 05 are located entirely outside the selection region R. Therefore, the object selection unit 4 of the control unit 20 determines that the objects O1 to 03 among the plurality of objects O1 to O5 are included in the selection region R. When the object exists in the selection area R on the display screen, the process proceeds to step S16.
On the other hand, if none of the objects is included in the selection area R, the process returns to step S1 to enter the touch input standby state again.

ステップS16において,制御部20のオブジェクト選択部4は,選択領域R内に含まれると判断した一又は複数のオブジェクトを選択する。選択されたオブジェクトに関する情報(各オブジェクトの識別番号等)は,記憶部30の作業領域に一時記憶される。 In step S16, the object selection unit 4 of the control unit 20 selects one or a plurality of objects determined to be included in the selection area R. Information about the selected object (such as the identification number of each object) is temporarily stored in the work area of the storage unit 30.

また,図2に示されるように,第1点目のタッチ入力が継続している間に,第2点目のタッチ入力がされなかったか,若しくは第2点目のタッチ入力がされたものの2点同時のスライド入力がされなかった場合に,ステップS17へと進む。この場合,ステップS17では,従来通り,第1点目のタッチ点P1に,表示画面上のオブジェクトが位置しているか否かを判断する。ここでは,第1点目のタッチ点P1の座標と,表示画面上にオブジェクトが存在する座標を参照し,両座標が一致した場合に,ステップS16へと進む。
ステップS16において,制御部20のオブジェクト選択部4は,第1点目のタッチ点P1と座標が一致した一のオブジェクトを選択する。選択されたオブジェクトに関する情報は,記憶部30の作業領域に一時記憶される。
In addition, as shown in FIG. 2, while the touch input of the first point is continued, the touch input of the second point is not input or the touch input of the second point is input. If the slide input at the same time is not performed, the process proceeds to step S17. In this case, in step S17, as is conventional, it is determined whether or not the object on the display screen is located at the first touch point P1. Here, the coordinates of the first touch point P1 and the coordinates of the object on the display screen are referred to, and if the two coordinates match, the process proceeds to step S16.
In step S16, the object selection unit 4 of the control unit 20 selects one object whose coordinates match the touch point P1 of the first point. Information about the selected object is temporarily stored in the work area of the storage unit 30.

上記のようにして,制御部20は,タッチパネルディスプレイ10に表示されたオブジェクトのうち,一又は複数のオブジェクトを選択する処理を行う。制御部20によりオブジェクトが選択された場合,例えば,オブジェクトが選択された状態でドラッグ操作を行うことで,オブジェクトの表示画面上における位置を移動させる等,公知となっている種々の情報処理を行うことができる。 As described above, the control unit 20 performs a process of selecting one or a plurality of objects among the objects displayed on the touch panel display 10. When an object is selected by the control unit 20, various known information processing such as moving the position of the object on the display screen is performed by performing a drag operation while the object is selected, for example. be able to.

(2.ゲーム装置)
続いて,本発明の実施形態に係るゲーム装置について説明する。本発明のゲーム装置は,基本的に,タッチパネルディスプレイを備える。そして,ゲーム装置は,タッチパネルディスプレイに表示される一又は複数のオブジェクトを,上述した方法によって選択し,選択したオブジェクトに対し種々の命令を付与することで,ゲームを進めることが可能である。
(2. Game device)
Next, the game device according to the embodiment of the present invention will be described. The game device of the present invention basically includes a touch panel display. Then, the game device can proceed with the game by selecting one or a plurality of objects displayed on the touch panel display by the method described above and giving various commands to the selected objects.

[ゲーム装置の構成例]
図6は,ゲーム装置の構成例を示すブロック図である。このブロック図で表される実施形態は,特にアーケード型のゲーム装置として好適に利用することができる。図7は,ゲーム装置の筐体の外観例を示す斜視図である。
[Configuration example of game device]
FIG. 6 is a block diagram showing a configuration example of the game device. The embodiment represented by this block diagram can be suitably used particularly as an arcade-type game device. FIG. 7 is a perspective view showing an external appearance example of the casing of the game device.

図6に示されるように,ゲーム装置は,タッチパネルディスプレイ100と,カードリーダ200と,ゲーム本体部300を含む。タッチパネルディスプレイ100は,各種画像データをユーザが視認できる画像として表示でき,かつユーザによって表示画面がタッチされた座標を検出可能な構成を有している。また,カードリーダ200は,所定の識別コードが印刷されたカードが載置されたときに,そのカードに記録されている識別コードを読み取って,カード固有のカード情報を取得可能な構成を有している。また,ゲーム本体部300は,ゲーム装置全体の機能を制御するものである。特に,ゲーム本体部300は,カードリーダ200により読み取られた情報に基づいてタッチパネルディスプレイ100にオブジェクトを表示し,カードリーダ200に対するカード操作,及びタッチパネルディスプレイ100に対するタッチ操作に基づいて,ゲームを進行することができる。 As shown in FIG. 6, the game device includes a touch panel display 100, a card reader 200, and a game main body 300. The touch panel display 100 has a configuration capable of displaying various image data as an image that can be visually recognized by the user and capable of detecting the coordinates at which the display screen is touched by the user. In addition, the card reader 200 has a configuration that, when a card on which a predetermined identification code is printed is placed, the card reader 200 can read the identification code recorded on the card and acquire card information unique to the card. ing. The game body 300 controls the functions of the entire game device. In particular, the game main body 300 displays an object on the touch panel display 100 based on the information read by the card reader 200, and advances the game based on the card operation on the card reader 200 and the touch operation on the touch panel display 100. be able to.

図6に示されるように,タッチパネルディスプレイ100は,ディスプレイ110と,タッチスクリーン120を備える。タッチパネルディスプレイ100は,画像を表示できるディスプレイ100の前面に,透明材料で形成されたタッチスクリーン120を配設して形成されている。ディスプレイ110は,例えばLCD(Liquid Crystal Display;液晶ディスプレイ)やOELD(Organic Electro LuminescenceDisplay;有機ELディスプレイ)のような表示装置である。ディスプレイ110は,ゲーム本体部300からの入力信号に応じて,ユーザが情報処理装置を使用するにあたって必要とされる各種情報を静止画や動画として出力表示する。また,タッチスクリーン120は,公知の静電容量方式,電磁誘導方式,赤外線走査方式,抵抗膜方式又は超音波表面弾性波方式などにより,ユーザの手指が接触したことを検知し,そのタッチ位置の座標情報を得ることができる。ディスプレイ110とタッチスクリーン120の位置関係は互いにリンクしており,タッチスクリーン120は,ディスプレイ110に表示された表示画面上におけるタッチ位置の座標情報を取得できる。これにより,タッチスクリーン120は,ユーザの指が接触したことを検知し,ユーザの指が接触したディスプレイ110の画面上の座標情報を得ることができる。タッチスクリーン120により取得された座標情報は,ゲーム本体部300の一時記憶部370に記憶される。また,タッチスクリーン120は,ユーザが複数点をタッチした場合に,それらの複数点における座標情報を取得可能な,いわゆるマルチタッチに対応している。また,本発明のゲーム装置は,比較的大型のタッチパネルディスプレイ100を搭載することが好ましい。例えば,タッチパネルディスプレイ100は,10インチ〜75インチ,16インチ〜40インチ,又は20インチ〜38インチのディスプレイであることが好ましい。 As shown in FIG. 6, the touch panel display 100 includes a display 110 and a touch screen 120. The touch panel display 100 is formed by disposing a touch screen 120 made of a transparent material on the front surface of the display 100 capable of displaying an image. The display 110 is a display device such as an LCD (Liquid Crystal Display) or an OELD (Organic Electro Luminescence Display). The display 110 outputs and displays various kinds of information necessary for the user to use the information processing device as a still image or a moving image in response to an input signal from the game main body 300. In addition, the touch screen 120 detects a touch of a user's finger by a known capacitance method, electromagnetic induction method, infrared scanning method, resistive film method, or ultrasonic surface acoustic wave method, and detects the touch position of the user. The coordinate information can be obtained. The positional relationship between the display 110 and the touch screen 120 is linked to each other, and the touch screen 120 can acquire coordinate information of the touch position on the display screen displayed on the display 110. As a result, the touch screen 120 can detect that the user's finger touches, and obtain the coordinate information on the screen of the display 110 touched by the user's finger. The coordinate information acquired by the touch screen 120 is stored in the temporary storage unit 370 of the game main body unit 300. In addition, the touch screen 120 supports so-called multi-touch, which is capable of acquiring coordinate information at a plurality of points when the user touches the plurality of points. Further, the game device of the present invention is preferably equipped with a relatively large touch panel display 100. For example, the touch panel display 100 is preferably a display of 10 inches to 75 inches, 16 inches to 40 inches, or 20 inches to 38 inches.

図6に示されるように,カードリーダ200は,カードCに記録された識別コードを撮像することができる装置であり,パネル210と,光源220と,イメージセンサ230を備える。カードCは,その表面には,例えばゲームで使用されるオブジェクトのイラストが印刷され,その裏面には,表面に印刷されたオブジェクトを識別するための識別コードが記録されている。また,カードCの裏面には,例えば可視光では視認できないインクにより識別コードが印刷されており,特定の不可視光を照射すると白と黒で印刷されたパターンが表出する。識別コードは,赤外線などの不可視光を吸収する特殊なインクで印刷されており,カードCの裏面に赤外線を照射すると,識別コードの黒部分を除く部分に照射された不可視光が反射するようになっている。例えば,カードCの識別コードには,少なくともカードに描かれたオブジェクトの識別番号や,カードの向き等に関する情報が記録されている。 As shown in FIG. 6, the card reader 200 is a device that can image the identification code recorded on the card C, and includes a panel 210, a light source 220, and an image sensor 230. On the front surface of the card C, for example, an illustration of an object used in a game is printed, and on the back surface thereof, an identification code for identifying the object printed on the front surface is recorded. On the back surface of the card C, an identification code is printed, for example, with an ink that cannot be visually recognized with visible light. When a specific invisible light is irradiated, a pattern printed in white and black appears. The identification code is printed with a special ink that absorbs invisible light such as infrared rays. When the back surface of the card C is irradiated with infrared light, the invisible light radiated to the part other than the black part of the identification code is reflected. Has become. For example, the identification code of the card C records at least the identification number of the object drawn on the card, the information about the orientation of the card, and the like.

カードリーダ200上面にはパネル210が設けられ,パネル210上には複数枚のカードCを載置できる。また,ゲーム装置の筐体内部には,例えば,パネル210に載置されたカードCの裏面に対して赤外線(不可視光)を照射する光源220と,パネル210上に載置されたカードCの裏面を反射した赤外線を取得してカードCに記録されたカードデータのパターンを撮像するイメージセンサ230が設けられている。光源220の例は,赤外線や紫外線等の肉眼で見えない不可視光を発光する発光ダイオード(LED)である。イメージセンサ230の例は,カードCの裏面を反射してカードリーダ200内に入射した赤外線により識別コードを撮像する撮像素子である。そして,カードリーダ200は,この識別コードを解析することにより,カードC固有のカード情報を取得できる。カードリーダ200により取得されたカード情報は,ゲーム本体部300の処理部310に伝達されて,一時記憶部270に記憶される。 A panel 210 is provided on the upper surface of the card reader 200, and a plurality of cards C can be placed on the panel 210. Further, inside the housing of the game device, for example, a light source 220 that irradiates the back surface of the card C mounted on the panel 210 with infrared rays (invisible light) and a card C mounted on the panel 210 are provided. An image sensor 230 is provided which captures infrared rays reflected on the back surface and images the pattern of card data recorded on the card C. An example of the light source 220 is a light emitting diode (LED) that emits invisible light such as infrared rays and ultraviolet rays which is invisible to the naked eye. An example of the image sensor 230 is an image pickup device that picks up an identification code by infrared rays reflected from the back surface of the card C and incident on the card reader 200. Then, the card reader 200 can acquire card information unique to the card C by analyzing the identification code. The card information acquired by the card reader 200 is transmitted to the processing section 310 of the game main body section 300 and stored in the temporary storage section 270.

カードCの識別コードには,少なくともカードに描かれたオブジェクトの識別番号や,カードの向き等に関する情報が記録されている。このため,ゲーム本体部300の処理部310は,カードリーダ200から得たカード情報に基づいて,ゲーム情報記憶部380又は一時記憶部270に記憶されているオブジェクトテーブルを参照することで,カードCに記録されたオブジェクトのステータスや,種類,名前,属性,さらにはカードCの向きや位置に応じたオブジェクトの特性を把握することができる。オブジェクトの例は,ゲームキャラクタである。また,ゲーム本体部300の処理部310は,カードリーダ200のイメージセンサ230により赤外線光がカードCの裏面により反射された位置を検出することで,カードCがパネル210上に載置されている位置を座標情報として求めることができる。また,イメージセンサ230により赤外線光の反射位置を連続的に検出することで,パネル210上に載置されたカードCが,ある位置から他の位置まで移動したという情報を得ることもできる。 The identification code of the card C records at least the identification number of the object drawn on the card, the information regarding the orientation of the card, and the like. Therefore, the processing unit 310 of the game main body unit 300 refers to the object table stored in the game information storage unit 380 or the temporary storage unit 270 on the basis of the card information obtained from the card reader 200, so that the card C It is possible to grasp the status of the object recorded in, the type, the name, the attribute, and the characteristics of the object according to the orientation and position of the card C. An example of an object is a game character. Further, the processing unit 310 of the game main body unit 300 detects the position where infrared light is reflected by the back surface of the card C by the image sensor 230 of the card reader 200, so that the card C is placed on the panel 210. The position can be obtained as coordinate information. Further, by continuously detecting the reflection position of infrared light by the image sensor 230, it is possible to obtain information that the card C mounted on the panel 210 has moved from one position to another position.

さらに,カードリーダ200は,図8に示されるように,パネル210上が複数のエリアに区分されていることが好ましい。パネル210上の区分の数は,例えば2〜10とすることができる。図8に示された例において,カードリーダ200のパネル210は,オフェンシブエリアA1(第1エリア)とディフェンシブエリアA2(第2エリア)に二分割されている。このエリアは,パネルの座標に応じて区分されたものであり,各カードCは,オフェンシブエリアA1とディフェンシブエリアA2をスライド移動することができる。ゲーム本体部300の処理部310は,各カードCのパネル210上における位置を座標情報として取得することにより,各カードCが,オフェンシブエリアA1とディフェンシブエリアA2のいずれに属する位置にあるのかを判定することができる。 Further, as shown in FIG. 8, the card reader 200 preferably has a panel 210 divided into a plurality of areas. The number of sections on the panel 210 can be, for example, 2-10. In the example shown in FIG. 8, the panel 210 of the card reader 200 is divided into two areas, an offensive area A1 (first area) and a defensive area A2 (second area). This area is divided according to the coordinates of the panel, and each card C can slide and move between the offensive area A1 and the defensive area A2. The processing unit 310 of the game main unit 300 acquires the position of each card C on the panel 210 as coordinate information to determine which of the offensive area A1 and the defensive area A2 each card C belongs to. can do.

また,図8に示されるように,カードリーダ200のパネル210上には,長方形のカードCを縦向き又は横向きにして載置することが可能であり,ゲーム本体部300の処理部310は,カードリーダ200からの検出情報に基づいて,載置されたカードCが縦向きであるか横向きであるかを判別することが可能である。例えば,カードCの裏面には,識別コードが印刷されている。この識別コードには,カードの向きに関する情報が含まれる。このため,ゲーム本体部300の処理部310は,カードリーダ200によって識別コードを読み取り,読み取った識別コードに基づいてカードCの向きを解析することで,カードCが縦向きであるか横向きであるかを判別できる。 Further, as shown in FIG. 8, a rectangular card C can be mounted vertically or horizontally on the panel 210 of the card reader 200, and the processing unit 310 of the game main body unit 300 can: Based on the detection information from the card reader 200, it is possible to determine whether the placed card C is in the portrait orientation or the landscape orientation. For example, an identification code is printed on the back surface of the card C. This identification code contains information about the orientation of the card. Therefore, the processing unit 310 of the game main unit 300 reads the identification code by the card reader 200 and analyzes the orientation of the card C based on the read identification code, so that the card C is in the portrait orientation or the landscape orientation. Can be determined.

ゲーム本体部300は,処理部310を備え,ゲームプログラムを読み出して実行し,ゲームプログラムに従ってゲーム装置全体の動作を制御する。図6に示されるように,ゲーム本体部300は,以下の構成を備えている。 The game main unit 300 includes a processing unit 310, reads and executes a game program, and controls the operation of the entire game device according to the game program. As shown in FIG. 6, the game main body section 300 has the following configuration.

処理部310は,システム全体の制御,システム内の各ブロックへの命令の指示,ゲーム処理,画像処理,音処理などの各種の処理を行うものである。処理部310の機能は,各種プロセッサ(CPU,DSP等),又はASIC(ゲートアレイ等)などのハードウェアや,所与のプログラム(ゲームプログラム)により実現できる。 The processing unit 310 performs various processing such as control of the entire system, instruction of instructions to each block in the system, game processing, image processing, sound processing. The function of the processing unit 310 can be realized by hardware such as various processors (CPU, DSP, etc.) or ASIC (gate array, etc.), or a given program (game program).

処理部310は,ゲーム処理部320,画像処理部330,及び音処理部350を含むものがあげられる。具体的には,メインプロセッサ,コプロセッサ,ジオメトリプロセッサ,描画プロセッサ,データ処理プロセッサ,四則演算回路又は汎用演算回路などがあげられる。これらは適宜バスなどにより連結され,信号の授受が可能とされる。また,圧縮された情報を伸張するためのデータ伸張プロセッサを備えても良い。 The processing unit 310 may include a game processing unit 320, an image processing unit 330, and a sound processing unit 350. Specifically, a main processor, a coprocessor, a geometry processor, a drawing processor, a data processing processor, an arithmetic operation circuit or a general-purpose operation circuit can be used. These are appropriately connected by a bus or the like, and signals can be exchanged. A data decompression processor for decompressing the compressed information may be provided.

ここでゲーム処理部320は,カードリーダ200により取得されたカード情報に基づいてディスプレイ110にオブジェクトを表示させる処理,ディスプレイ110における視点の位置(仮想カメラの位置)や視線角度(仮想カメラの回転角度)をスクロールさせる処理,マップオブジェクトなどのオブジェクトをオブジェクト空間へ配置する処理,オブジェクトを選択する処理,オブジェクトを動作させる処理(モーション処理),オブジェクトの位置や回転角度(X,Y又はZ軸回り回転角度)を求める処理,コイン(代価)を受け付ける処理,各種モードの設定処理,ゲームの進行処理,選択画面の設定処理,ヒットチェック処理,ゲーム結果(成果,成績)を演算する処理,複数のプレーヤが共通のゲーム空間でプレイするための処理,又はゲームオーバー処理などの種々のゲーム処理を,タッチスクリーン120や,カードリーダ200,操作部360からの入力データ,携帯型情報記憶装置392からの個人データ,保存データ,及びゲームプログラムなどに基づいて行う。 Here, the game processing unit 320 performs a process of displaying an object on the display 110 based on the card information acquired by the card reader 200, a position of a viewpoint on the display 110 (position of the virtual camera) and a line-of-sight angle (rotation angle of the virtual camera). ), a process of placing an object such as a map object in the object space, a process of selecting an object, a process of operating an object (motion process), a position and a rotation angle of the object (rotation around the X, Y or Z axis) Angle calculation, coin (price) acceptance, various mode setting, game progression, selection screen setting, hit check, game result (result, achievement) calculation, multiple players Various game processes such as a process for playing in a common game space or a game over process, input data from the touch screen 120, the card reader 200, the operation unit 360, and an individual from the portable information storage device 392. Based on data, saved data, and game programs.

画像処理部330は,ゲーム処理部320からの指示等に従って,各種の画像処理を行うものである。ゲーム処理部320は,視点の位置や視線角度の情報に基づいて,ゲーム情報記憶部380からオブジェクトやゲーム空間の画像情報を読み出し,読み出した画像情報を一時記憶部370に書き込む。ゲーム処理部320は,視点移動をさせるためのスクロールデータを画像処理部330に供給する。画像処理部330は,与えられたスクロールデータに基づいて,一時記憶部370から1フレーム毎に画像情報を読み出し,読み出した画像情報に応じてディスプレイ110に,オブジェクトやゲーム空間の画像を表示させる。これにより,ディスプレイ110には,視点に基づいてオブジェクトやゲーム空間が表示される。また,画像処理部330は,タッチスクリーン120に対する入力座標に応じてゲーム空間における視点を移動させる。そして,画像処理部330は移動する視点情報に基づいて,一時記憶部370からフレームを読み出して,読み出した画像をディスプレイ110に表示させる。このようにして,ゲーム空間の視点をスクロールさせることにより,表示画面が遷移する。 The image processing section 330 performs various kinds of image processing in accordance with instructions from the game processing section 320. The game processing unit 320 reads the image information of the object or the game space from the game information storage unit 380 based on the information of the position of the viewpoint and the line-of-sight angle, and writes the read image information in the temporary storage unit 370. The game processing section 320 supplies scroll data for moving the viewpoint to the image processing section 330. The image processing unit 330 reads out image information for each frame from the temporary storage unit 370 based on the given scroll data, and causes the display 110 to display an image of an object or a game space according to the read image information. Thereby, the display 110 displays the object and the game space based on the viewpoint. Further, the image processing unit 330 moves the viewpoint in the game space according to the input coordinates on the touch screen 120. Then, the image processing unit 330 reads out a frame from the temporary storage unit 370 based on the moving viewpoint information, and displays the read-out image on the display 110. In this way, the display screen transitions by scrolling the viewpoint of the game space.

また,画像処理部330は,一時記憶部370からカードリーダ200により取得されたカード情報を読み出し,そのカード情報に基づいて,ゲーム情報記憶部380に記憶されているオブジェクトテーブルを参照する。そして,オブジェクトテーブルに記憶されているリンク情報に基づいて,カード情報と関連付けられているオブジェクトの画像データを,一時記憶部370又はゲーム情報記憶部380から読み出す。そして,画像処理部330は,読み出したオブジェクトの画像データに応じてゲーム空間内にオブジェクトを発生させ,ディスプレイ110に表示させる。 Further, the image processing section 330 reads out the card information acquired by the card reader 200 from the temporary storage section 370, and refers to the object table stored in the game information storage section 380 based on the card information. Then, based on the link information stored in the object table, the image data of the object associated with the card information is read from the temporary storage unit 370 or the game information storage unit 380. Then, the image processing unit 330 generates an object in the game space according to the read image data of the object and causes the display 110 to display the object.

ゲーム処理部320は,タッチスクリーン120に入力された座標情報や,カードリーダ200に載置されたカードの向きや位置,その他の操作部260(レバー,ボタン,又はコントローラ)からの操作情報に基づいて,ゲーム空間に登場させたオブジェクトの行動を制御する。例えば,ゲーム処理部320は,ディスプレイ110に表示されたオブジェクトの座標情報と,ディスプレイ110に入力された座標情報とを参照し,当該オブジェクトが,ユーザによりタッチされた否かを判定する。すなわち,ゲーム処理部320は,タッチスクリーン120に入力された位置情報と,オブジェクトの位置情報が一致している場合には,当該オブジェクトがタッチ選択されたと判定する。そして,選択されたオブジェクトに対し操作や指令が付与された場合,その操作や指令に応じて,ゲームプログラムに従った処理を行う。 The game processing unit 320 is based on the coordinate information input to the touch screen 120, the direction and position of the card placed on the card reader 200, and other operation information from the operation unit 260 (lever, button, or controller). Control the actions of objects that have appeared in the game space. For example, the game processing unit 320 refers to the coordinate information of the object displayed on the display 110 and the coordinate information input to the display 110, and determines whether the object is touched by the user. That is, the game processing unit 320 determines that the object is touch-selected when the position information input to the touch screen 120 and the position information of the object match. When an operation or command is given to the selected object, processing according to the game program is performed according to the operation or command.

また,ゲーム処理部320は,タッチパネルディスプレイ100のディスプレイ110表示されたオブジェクトを選択する際には,上記した本発明特有の選択処理を行うことが好ましい。すなわち,ゲーム処理部320は,タッチパネルディスプレイ100のタッチスクリーン120に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点の座標を決定する。また,ゲーム処理部320は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点の座標を決定する。そして,ゲーム処理部320は,第1中間点の座標と第2中間点の座標に基づいて,ディスプレイ110の表示画面上における領域を指定し,指定された領域に,少なくとも一部が含まれるように画像が表示されている一又は複数のオブジェクトを選択する。また,ゲーム処理部320は,選択されたオブジェクトに対し操作や指令が付与された場合,その操作や指令に応じて,ゲームプログラムに従った処理を行う。例えば,ゲーム処理部320は,タッチスクリーン120に対する入力操作により,一又は複数のオブジェクトが選択された後に,再度,異なる座標情報がタッチスクリーン120に入力された場合,選択された一又は複数のオブジェクトを,再度入力された座標情報に移動させる制御を行う。このように,ゲーム処理部320は,カードリーダ120により取得されたカード情報と,タッチスクリーン110に入力された座標情報をリンクさせて,ゲームを進行することが好ましい。 Further, when selecting an object displayed on the display 110 of the touch panel display 100, the game processing section 320 preferably performs the above-described selection processing unique to the present invention. That is, the game processing unit 320 determines the coordinates of the first intermediate point obtained from the coordinates of the first two points, which are simultaneously input to the touch screen 120 of the touch panel display 100. In addition, the game processing unit 320 determines the coordinates of the second intermediate point obtained from the coordinates of the last two points, based on the coordinates of the last two points detected immediately before the coordinates of the two points are not simultaneously input. .. Then, the game processing section 320 specifies an area on the display screen of the display 110 based on the coordinates of the first intermediate point and the coordinates of the second intermediate point so that the specified area includes at least a part. Select one or more objects whose images are displayed in. In addition, when an operation or instruction is given to the selected object, the game processing section 320 performs processing according to the game program according to the operation or instruction. For example, when one or more objects are selected by the input operation on the touch screen 120 and then different coordinate information is again input to the touch screen 120, the game processing unit 320 may select the selected one or more objects. Is moved to the coordinate information input again. As described above, the game processing unit 320 preferably links the card information acquired by the card reader 120 and the coordinate information input to the touch screen 110 to advance the game.

音処理部250は,ゲーム処理部220からの指示等にしたがって,各種の音声を放音する。 The sound processing unit 250 emits various sounds in accordance with instructions from the game processing unit 220.

ゲーム処理部320,画像処理部330,音処理部350の機能は,その全てをハードウェアにより実現してもよいし,その全てをプログラムにより実現してもよい。又は,ハードウェアとプログラムの両方により実現してもよい。
図6に示されるように,例えば,画像処理部330は,ジオメトリ処理部332(3次元座標演算部),描画部340(レンダリング部)を含むものがあげられる。
All of the functions of the game processing unit 320, the image processing unit 330, and the sound processing unit 350 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.
As shown in FIG. 6, for example, the image processing section 330 includes a geometry processing section 332 (three-dimensional coordinate calculation section) and a drawing section 340 (rendering section).

ジオメトリ処理部332は,座標変換,クリッピング処理,透視変換,又は光源計算などの種々のジオメトリ演算(3次元座標演算)を行う。そして,ジオメトリ処理後(透視変換後)のオブジェクトデータ(オブジェクトの頂点座標,頂点テクスチャ座標,又は輝度データ等)は,例えば,一時記憶部370のメインメモリ372に格納されて,保存される。 The geometry processing unit 332 performs various geometry calculations (three-dimensional coordinate calculations) such as coordinate conversion, clipping processing, perspective conversion, and light source calculation. Then, the object data after the geometry processing (after the perspective transformation) (vertex coordinates of the object, vertex texture coordinates, luminance data, or the like) is stored and saved in the main memory 372 of the temporary storage unit 370, for example.

描画部340は,ジオメトリ演算後(透視変換後)のオブジェクトデータと,テクスチャ記憶部376に記憶されるテクスチャなどに基づいて,オブジェクトをフレームバッファ374に描画する。描画部340は,例えば,テクスチャマッピング部342,シェーディング処理部344を含むものがあげられる。具体的には,描画プロセッサにより実装できる。描画プロセッサは,テクスチャ記憶部,各種テーブル,フレームバッファ,VRAMなどとバスなどを介して接続され,更にディスプレイと接続される。 The drawing unit 340 draws an object in the frame buffer 374 based on the object data after geometry calculation (after perspective transformation), the texture stored in the texture storage unit 376, and the like. The drawing unit 340 may include, for example, a texture mapping unit 342 and a shading processing unit 344. Specifically, it can be implemented by a drawing processor. The drawing processor is connected to a texture storage unit, various tables, a frame buffer, VRAM, etc. via a bus and the like, and is further connected to a display.

テクスチャマッピング部242は,環境テクスチャをテクスチャ記憶部276から読み出し,読み出された環境テクスチャを,オブジェクトに対してマッピングする。 The texture mapping unit 242 reads the environment texture from the texture storage unit 276 and maps the read environment texture on the object.

シェーディング処理部344は,オブジェクトに対するシェーディング処理を行う。例えば,ジオメトリ処理部332が光源計算を行い,シェーディング処理用の光源の情報や,照明モデルや,オブジェクトの各頂点の法線ベクトルなどに基づいて,オブジェクトの各頂点の輝度(RGB)を求める。シェーディング処理部344は,この各頂点の輝度に基づいて,プリミティブ面(ポリゴン,曲面)の各ドットの輝度を例えば,ホンシェーディングや,グーローシェーディングなどにより求める。 The shading processing unit 344 performs shading processing on the object. For example, the geometry processing unit 332 performs light source calculation, and obtains the brightness (RGB) of each vertex of the object based on the information of the light source for shading processing, the illumination model, the normal vector of each vertex of the object, and the like. The shading processing unit 344 obtains the brightness of each dot on the primitive surface (polygon, curved surface) by, for example, hon shading or Gouraud shading based on the brightness of each vertex.

ジオメトリ処理部332は,法線ベクトル処理部334を含むものがあげられる。法線ベクトル処理部334は,オブジェクトの各頂点の法線ベクトル(広義にはオブジェクトの面の法線ベクトル)を,ローカル座標系からワールド座標系への回転マトリクスで回転させる処理を行ってもよい。 The geometry processing section 332 may include a normal vector processing section 334. The normal vector processing unit 334 may rotate the normal vector of each vertex of the object (in a broad sense, the normal vector of the surface of the object) by a rotation matrix from the local coordinate system to the world coordinate system. ..

操作部360は,プレーヤが操作データを入力するためのものである。操作部360は,の機能は,例えば,レバー,ボタン,及びハードウェアを備えたコントローラにより実現できる。操作部360からの処理情報は,シリアルインターフェース(I/F)やバスを介してメインプロセッサなどに伝えられる。 The operation unit 360 is for the player to input operation data. The function of the operation unit 360 can be realized by, for example, a lever, a button, and a controller equipped with hardware. The processing information from the operation unit 360 is transmitted to the main processor or the like via a serial interface (I/F) or a bus.

ゲーム情報記憶部380は,ゲームプログラムや,ディスプレイ110に表示されるオブジェクト,ゲーム空間の画像データに関する情報を格納している。ゲーム情報記憶部380は,例えばROMであり,光ディスク(CD,DVD),光磁気ディスク(MO),磁気ディスク,ハードディスク,又は磁気テープなどの不揮発性のメモリにより実現できる。処理部310は,このゲーム情報記憶部380に格納される情報に基づいて種々の処理を行う。ゲーム情報記憶部380には,本発明(本実施形態)の手段(特に処理部310に含まれるブロック)を実行するための情報(プログラム又はプログラム及びデータ)が格納される。ゲーム情報記憶部380に格納される情報の一部又は全部は,例えば,システムへの電源投入時等に一時記憶部370に書き出されることとしてもよい。 The game information storage unit 380 stores a game program, objects displayed on the display 110, and information about image data in the game space. The game information storage unit 380 is, for example, a ROM, and can be realized by a non-volatile memory such as an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, a hard disk, or a magnetic tape. The processing unit 310 performs various processes based on the information stored in the game information storage unit 380. The game information storage unit 380 stores information (program or programs and data) for executing the means of the present invention (the present embodiment) (particularly the block included in the processing unit 310). Part or all of the information stored in the game information storage unit 380 may be written to the temporary storage unit 370 when the system is powered on, for example.

ゲーム情報記憶部380に記憶される情報として,所定の処理を行うためのプログラムコード,画像データ,音データ,表示物の形状データ,テーブルデータ,リストデータ,本発明の処理を指示するための情報,その指示に従って処理を行うための情報等の少なくとも2つを含むものがあげられる。例えば,テーブルデータには,オブジェクトの識別番号と関連付けて,オブジェクトのステータスや,種類,名前,属性,カードの向きや位置に応じたオブジェクトの特性を記憶したオブジェクトテーブルのデータが含まれる。 As information stored in the game information storage unit 380, program code for performing predetermined processing, image data, sound data, shape data of display object, table data, list data, information for instructing processing of the present invention. , Which includes at least two pieces of information and the like for performing processing according to the instruction. For example, the table data includes object table data that stores the object status, type, name, attributes, and object characteristics according to the card orientation and position in association with the object identification number.

オブジェクトのステータスとは,移動速度,ヒットポイント,攻撃力,及び防御力等が数値として記憶される情報である。ゲーム処理部320は,オブジェクトテーブルに記憶されたステータスを参照することで,各オブジェクトについて,移動速度,ヒットポイント,攻撃力等の優劣を判断できる。また,ゲーム処理部320は,このステータスに関する数値に基づいて,ゲームを進行するための種々の演算を行うことができる。例えば,各オブジェクトの移動速度の数値は比較可能であり,オブジェクトテーブルを参照すれば,あるオブジェクトと他のオブジェクトはどちらの方が速い移動速度を有しているかということを把握できる。また,各オブジェクトの移動速度の数値に基づいて所定の演算処理を行うことで,オブジェクトが,ゲーム空間上のある地点から他の地点まで移動するのに必要とする時間を算出することもできる。 The status of an object is information in which the moving speed, hit points, attack power, defense power, etc. are stored as numerical values. The game processing section 320 can determine the superiority or inferiority of the moving speed, hit points, attack power, etc. for each object by referring to the status stored in the object table. Further, the game processing section 320 can perform various calculations for advancing the game based on the numerical value regarding the status. For example, the numerical values of the moving speeds of the respective objects can be compared, and by referring to the object table, it is possible to grasp which one of the object and the other object has the higher moving speed. Further, it is possible to calculate the time required for the object to move from one point to another point in the game space by performing a predetermined calculation process based on the numerical value of the moving speed of each object.

また,カードの向きに応じたオブジェクトの特性とは,カードリーダ200のパネル210に載置された向きに応じて変化するデータである。例えば,オブジェクトテーブルには,あるカードに関連したオブジェクトについて,カードが縦向きである場合と横向きで場合とで異なる情報が記憶されている。例えば,カードが縦向きである場合と横向きで場合とで,オブジェクトのステータスが変化することとしてもよい。
また,カードの位置に応じたオブジェクトの特性とは,カードリーダ200のパネル210に載置された位置に応じて変化するデータである。例えば,オブジェクトテーブルには,あるカードに関連したオブジェクトについて,カードがオフェンシブエリアA1(第1エリア)に位置する場合とディフェンシブエリアA2(第2エリア)に位置する場合とで異なる情報が記憶されている。例えば,カードがオフェンシブエリアA1に位置する場合とディフェンシブエリアA2に位置する場合とで,オブジェクトのステータスが変化することとしてもよい。
Further, the characteristic of the object according to the orientation of the card is data that changes according to the orientation of the card placed on the panel 210 of the card reader 200. For example, the object table stores different information regarding objects related to a certain card depending on whether the card is in portrait orientation or in landscape orientation. For example, the status of the object may change depending on whether the card is in portrait orientation or in landscape orientation.
Further, the characteristic of the object according to the position of the card is data that changes according to the position of the object placed on the panel 210 of the card reader 200. For example, the object table stores different information regarding objects related to a card when the card is located in the offensive area A1 (first area) and when the card is located in the defensive area A2 (second area). There is. For example, the status of the object may change depending on whether the card is located in the offensive area A1 or the defensive area A2.

また,ゲーム情報記憶部380は,ゲーム空間に関するデータが記憶されている。ゲーム空間は,ワールドともよばれる,本発明のゲーム装置におけるゲームの世界を意味する。ゲーム空間に関するデータは,表示される対象物の位置情報,表示される対象物の種類に関する情報,表示される対象物の画像データを含む。表示される対象物の例は,背景,建物,風景,植物,及びゲームに登場するオブジェクトである。この画像データは,ポリゴンデータとして記憶されることが好ましい。ポリゴンデータは,たとえば,頂点座標データ,色データ,テクスチャデータ,及び透明度データを含む。ゲーム情報記憶部380は,たとえば,プレイヤキャラクタの視点の向きや,位置,エリアなどに応じて,表示される対象物を分類して記憶する In addition, the game information storage unit 380 stores data regarding the game space. The game space means a world of games in the game device of the present invention, which is also called a world. The data on the game space includes position information of the displayed object, information on the type of the displayed object, and image data of the displayed object. Examples of displayed objects are backgrounds, buildings, landscapes, plants, and objects that appear in the game. This image data is preferably stored as polygon data. The polygon data includes, for example, vertex coordinate data, color data, texture data, and transparency data. The game information storage unit 380 classifies and stores the displayed object according to the direction, position, area, etc. of the viewpoint of the player character.

音出力部390は,音を出力するものである。音出力部390の機能は,スピーカなどのハードウェアにより実現できる。音出力は,例えばバスを介してメインプロセッサなどと接続されたサウンドプロセッサにより,音処理が施され,スピーカなどの音出力部から出力される。 The sound output unit 390 outputs a sound. The function of the sound output unit 390 can be realized by hardware such as a speaker. The sound output is subjected to sound processing by a sound processor connected to a main processor or the like via a bus, and is output from a sound output unit such as a speaker.

携帯型情報記憶装置392は,プレーヤの個人データやセーブデータなどが記憶されるものである。この携帯型情報記憶装置392としては,メモリカードや携帯型ゲーム装置などがあげられる。携帯型情報記憶装置392の機能は,メモリカード,フラッシュメモリ,ハードディスク,USBメモリなど公知の記憶手段により達成できる。ただし,携帯型情報記憶装置392は,必ずしも必要な構成ではなく,プレーヤの個人を識別する必要のある場合に,実装すればよい。 The portable information storage device 392 stores player personal data, save data, and the like. Examples of the portable information storage device 392 include a memory card and a portable game device. The function of the portable information storage device 392 can be achieved by a known storage means such as a memory card, a flash memory, a hard disk, or a USB memory. However, the portable information storage device 392 is not necessarily required, and may be mounted when it is necessary to identify the player's individual.

通信部394は,外部(例えばホストサーバや他のゲーム装置)との間で通信を行うための各種の制御を行う任意のものである。通信部394を介して,ゲーム装置をネットワーク上のホストサーバや他のゲーム装置と接続することにより,ゲーム対戦プレイや協力プレイを行うことができる。通信部394の機能は,各種プロセッサ,又は通信用ASICなどのハードウェアや,プログラムなどにより実現できる。また,ゲーム装置を実行するためのプログラム又はデータは,ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部394を介してゲーム情報記憶部380に配信するようにしてもよい。 The communication unit 394 is an arbitrary unit that performs various controls for communicating with the outside (for example, a host server or another game device). By connecting the game device to a host server on the network or another game device via the communication unit 394, it is possible to perform game battle play and cooperative play. The function of the communication unit 394 can be realized by various processors, hardware such as a communication ASIC, or a program. Further, the program or data for executing the game device may be distributed from the information storage medium of the host device (server) to the game information storage unit 380 via the network and the communication unit 394.

[ゲーム装置の動作例]
続いて,図9〜図11を参照して,上記した構成を有するゲーム装置の動作例について説明する。ここでは,上記ゲーム装置により実行されるゲームのシステムについて,一例を挙げて説明する。例えば,本発明のゲーム装置では,インターネット等の通信を利用した対戦ゲームを行うことができる。この対戦ゲームでは,各ゲームユーザが,一のゲーム空間に複数のオブジェクト(ゲームキャラクタ)を登場させて対戦を行う。ここで説明するゲームの例において,ユーザは,タッチパネルディスプレイ100やカードリーダ200等を介して,各オブジェクトの登場や,移動,攻撃,防御など指令操作を行い,例えば,敵オブジェクト(Enemy)の撃破や,塔(Tower)の制圧,石(Stone)の破壊などを目指す。
[Operation example of game device]
Next, an operation example of the game device having the above configuration will be described with reference to FIGS. 9 to 11. Here, a game system executed by the game device will be described with an example. For example, the game device of the present invention can play a competitive game using communication such as the Internet. In this battle game, each game user makes a plurality of objects (game characters) appear in one game space to compete. In the example of the game described here, the user performs an instruction operation such as appearance, movement, attack, and defense of each object via the touch panel display 100, the card reader 200, or the like, and destroys an enemy object (Enemy), for example. Aim to control towers and destroy stones.

図9は,本発明に係るゲーム装置を用いて,実際にゲームを行う際のタッチパネルディスプレイ100とカードリーダ200の状態を概念的に示している。ユーザは,所望のカードC1〜C7を,カードリーダ200上に載置する。各カードC1〜C7の裏面には,識別コードが印刷されている。カードリーダ200は,各カードC1〜C7の識別コードを読み取ると,識別コードに基づいてカード情報を解析し,カード情報はゲーム装置の処理部310へと伝達する。また,カードリーダ200は,各カードC1〜C7が向きや位置を把握することができる。図9に示された例では,カードリーダ200上において,カードC1,C2,C5,C6が縦向きとなり,カードC3,C4,C7が横向きとなっている。また,図9に示された例では,カードリーダ200上において,カードC1,C4,C6がオフェンシブエリアA1に位置し,カードC2,C3,C5,C7がディフェンシブエリアA2に位置している。カードリーダ200によって検出された情報は,処理部310へと伝達され,処理部310は,カード情報,カードの向き,カードの位置等の情報に基づいて,ゲーム情報記憶部380(又は一時記憶部370)に記憶されているオブジェクトテーブルを参照し,カード情報に関連付けられたオブジェクトの情報(画像データ,ステータス等)を読み出す。処理部310は,読み出した画像データに基づいて,タッチパネルディスプレイ100に画像を表示させる。例えば,タッチパネルディスプレイ100には,その下側の領域にカードの画像が表示されている。タッチパネルディスプレイ100に表示されたカードの画像は,カードリーダ200に載置されている各カードC1〜C7の並び順,及び各カード各カードC1〜C7の向きに対応している。このように,タッチパネルディスプレイ100の一部に,カードリーダ200に載置されている各カードC1〜C7の画像を表示することで,ユーザは,カードリーダ200を目視しなくても,タッチパネルディスプレイ100を視るだけで,各カードC1〜C7の配置や向きを把握することができるようになっている。なお,タッチパネルディスプレイ100には,カードリーダ200に載置された各カードC1〜C7の位置(例えばオフェンシブエリアA1とディフェンシブエリアA2のどちらに位置しているのか)の情報も表示可能である。 FIG. 9 conceptually shows the states of the touch panel display 100 and the card reader 200 when actually playing a game using the game device according to the present invention. The user places the desired cards C1 to C7 on the card reader 200. An identification code is printed on the back surface of each of the cards C1 to C7. When the card reader 200 reads the identification code of each of the cards C1 to C7, the card information is analyzed based on the identification code, and the card information is transmitted to the processing unit 310 of the game device. Further, the card reader 200 can grasp the direction and position of each of the cards C1 to C7. In the example shown in FIG. 9, on the card reader 200, the cards C1, C2, C5 and C6 are oriented vertically and the cards C3, C4 and C7 are oriented horizontally. Further, in the example shown in FIG. 9, on the card reader 200, the cards C1, C4, C6 are located in the offensive area A1, and the cards C2, C3, C5, C7 are located in the defensive area A2. The information detected by the card reader 200 is transmitted to the processing unit 310, and the processing unit 310 uses the game information storage unit 380 (or the temporary storage unit) based on the card information, the orientation of the card, the position of the card, and the like. 370), the object table stored in 370) is referred to, and the object information (image data, status, etc.) associated with the card information is read. The processing unit 310 displays an image on the touch panel display 100 based on the read image data. For example, on the touch panel display 100, the image of the card is displayed in the lower area. The image of the card displayed on the touch panel display 100 corresponds to the arrangement order of the cards C1 to C7 placed on the card reader 200 and the orientation of each card C1 to C7. In this way, by displaying the images of the cards C1 to C7 placed on the card reader 200 on a part of the touch panel display 100, the user can touch the touch panel display 100 without looking at the card reader 200. The layout and orientation of each of the cards C1 to C7 can be grasped only by looking at. The touch panel display 100 can also display information on the positions of the cards C1 to C7 placed on the card reader 200 (for example, which of the offensive area A1 and the defensive area A2 is located).

図9に示された例において,タッチパネルディスプレイ100の表示画面上には,各カードC1〜C6に対応したオブジェクト(ゲームキャラクタ)O1〜O6が表示されている。各オブジェクトは,それぞれ特有のステータスや,種類,名前,属性,カードの向きや位置に応じたオブジェクトの特性を有している。オブジェクトのステータスとは,移動速度,ヒットポイント,攻撃力,及び防御力等が数値として記憶される情報である。これらの情報は,各オブジェクトの識別情報に関連付けてオブジェクトテーブルに記憶されている。例えば,カードが縦向きに配置されているオブジェクトは通常の攻撃を行う一方,カードが横向きに配置されているオブジェクトは特殊な攻撃を行う等の設定とすることができる。また,カードがオフェンシブエリアA1に位置しているオブジェクトは攻撃力の数値が向上する一方,カードがディフェンシブエリアA2に位置しているオブジェクトは防御力の数値が向上する等の設定とすることができる。また,図9に示された例において,カードC7に対応したオブジェクト(O7)は,タッチパネルディスプレイ100上に表示されていない。オブジェクト(O7)をゲーム空間に登場させるためには,タッチパネルディスプレイ100上に表示されたカードC7の画像をタッチし,カードC7の画像を召喚ゲート(Gate)が表示されている位置までドラッグする。カードC7の画像が,召喚ゲート(Gate)の表示されている位置でドロップされると,ガードC7に対応したオブジェクト(O7)がゲーム空間に登場し,タッチパネルディスプレイ100に表示されるようになっている。なお,召喚ゲート(Gate)は,ゲーム空間における位置座標がゲーム情報記憶部380や一次記憶部370に記憶されており,ゲーム処理部320によってその位置が把握されている。 In the example shown in FIG. 9, objects (game characters) O1 to O6 corresponding to the cards C1 to C6 are displayed on the display screen of the touch panel display 100. Each object has its own unique status and characteristics of the object according to its type, name, attribute, card orientation and position. The status of an object is information in which the moving speed, hit points, attack power, defense power, etc. are stored as numerical values. These pieces of information are stored in the object table in association with the identification information of each object. For example, the object in which the cards are arranged vertically may make a normal attack, while the object in which the cards are arranged horizontally may make a special attack. Further, the object whose card is located in the offensive area A1 has a higher attack power value, while the object whose card is located in the defensive area A2 has a higher defense value. .. Further, in the example shown in FIG. 9, the object (O7) corresponding to the card C7 is not displayed on the touch panel display 100. In order to bring the object (O7) into the game space, the image of the card C7 displayed on the touch panel display 100 is touched, and the image of the card C7 is dragged to the position where the summon gate (Gate) is displayed. When the image of the card C7 is dropped at the position where the summon gate (Gate) is displayed, an object (O7) corresponding to the guard C7 appears in the game space and is displayed on the touch panel display 100. There is. The position coordinates of the summon gate (Gate) in the game space are stored in the game information storage unit 380 and the primary storage unit 370, and the position thereof is grasped by the game processing unit 320.

図10は,タッチパネルディスプレイ100に表示されたオブジェクトの移動操作の例を示している。タッチパネルディスプレイ100は,ユーザによりタッチされると,そのタッチ位置の座標を得る。処理部310は,タッチ位置の座標とオブジェクトが表示されている座標を参照し,タッチ位置の座標が,オブジェクトが表示されている座標と一致するかを判定する。タッチ位置とオブジェクトの位置が一致した場合,処理部310は,そのオブジェクトが選択されたことを把握する。図10(a)の例では,オブジェクトO4が選択されている。また,オブジェクトO4が選択された状態で,ユーザがタッチパネルディスプレイ100の表示画面をタッチすると,処理部310は,そのタッチ位置の座標を一時的記憶部に記憶する。特に,オブジェクトO4が選択された状態で,ユーザにより複数のポイントがタッチされた場合,処理部310は,タッチされた順番の情報と共に,タッチ位置の座標を一時的記憶部に記憶する。そして,処理部310は,ユーザによりタッチ選択されたオブジェクトO4を,次にタッチされたポイントに移動させる処理を行う。移動速度は,各オブジェクトそれぞれによって異なる。そこで,処理部310は,オブジェクトテーブルから,オブジェクトO4に関する移動速度の数値を読み出す。そして,読み出した移動速度の数値に基づいて,オブジェクトO4を最初のポイントから移動先のポイントまで移動させる。また,複数点がタッチされている場合には,選択されたオブジェクトO4を,タッチされた順番に従って,順次各ポイントへと移動させる。なお,移動しているオブジェクトO4が,移動中に敵オブジェクト(Enemy)に遭遇した場合や,塔(Tower)に到達した場合には,公知のゲームシステムと同様に,敵オブジェクトとの対戦処理,塔を制圧するため処理を行えば良い。 FIG. 10 shows an example of a moving operation of an object displayed on the touch panel display 100. When the touch panel display 100 is touched by the user, the touch panel display 100 obtains the coordinates of the touch position. The processing unit 310 refers to the coordinates of the touch position and the coordinates at which the object is displayed, and determines whether the coordinates of the touch position match the coordinates at which the object is displayed. When the touched position and the position of the object match, the processing unit 310 recognizes that the object has been selected. In the example of FIG. 10A, the object O4 is selected. When the user touches the display screen of the touch panel display 100 with the object O4 selected, the processing unit 310 stores the coordinates of the touch position in the temporary storage unit. In particular, when the user touches a plurality of points while the object O4 is selected, the processing unit 310 stores the touch position coordinates in the temporary storage unit together with the information of the order of touching. Then, the processing unit 310 performs processing for moving the object O4 touch-selected by the user to the next touched point. The moving speed differs for each object. Therefore, the processing unit 310 reads out the numerical value of the moving speed regarding the object O4 from the object table. Then, the object O4 is moved from the first point to the destination point based on the read numerical value of the moving speed. When a plurality of points are touched, the selected object O4 is sequentially moved to each point according to the touched order. When the moving object O4 encounters an enemy object (Enemy) while moving or reaches a tower (Tower), as in a known game system, a battle process with an enemy object, Processing may be performed to control the tower.

ただし,図10に示された方法に従い,オブジェクトを1つずつタッチ選択して移動させる操作は,ユーザが,複数のオブジェクトを同時に移動させることを希望する場合に,すべてのオブジェクトを1つずつタッチ選択する必要が生じ,煩雑となる。また,上述の通り,移動速度は各オブジェクトそれぞれによって異なる。このため,ユーザが,複数のオブジェクトを同じポイントに移動させることを希望する場合であっても,それぞれのオブジェクトが指定されたポイントに到着するタイミングは,オブジェクトの移動速度に応じて異なってしまう。 However, according to the method shown in FIG. 10, the operation of touch-selecting objects one by one and moving them is such that when the user desires to move a plurality of objects at the same time, all the objects are touched one by one. It becomes necessary to make a selection and it becomes complicated. Further, as described above, the moving speed differs depending on each object. Therefore, even when the user desires to move a plurality of objects to the same point, the timing at which each object arrives at the designated point varies depending on the moving speed of the object.

そこで,図11に示されるように,本ゲームのシステムでは,表示画面上の複数のオブジェクトを一括して選択することができ,選択したオブジェクトについて編隊(Party)を形成することが可能になっている。図11(a)では,複数のオブジェクトO1〜O7を一括して選択する操作の例が示されている。なお,図11(a)に示された操作は,基本的に図3に示された操作と同様である。処理部310は,ユーザによりタッチパネルディスプレイ100が同時に入力されている最初の2点P1,P2の座標に基づき,当該最初の2点P1,P2の座標から求められる第1中間点M1の座標を決定する。また,処理部310は,ユーザによりドラッグされて,2点の座標が同時に入力されなくなる直前に検出された最後の2点P3,P4の座標に基づき,当該最後の2点P3,P4の座標から求められる第2中間点の座標M2を決定する。そして,処理部310は,第1中間点M1の座標と第2中間点の座標M2に基づいて,タッチパネルディスプレイ100の表示画面上における矩形の領域を指定する。そして,指定された矩形の領域に,少なくとも一部が含まれるように表示されている複数のオブジェクトO1〜O7を選択する。選択されたオブジェクトO1〜O7は,編隊を形成するオブジェクトとして,一時記憶部に関連付けて記憶される。 Therefore, as shown in FIG. 11, in the system of the present game, it is possible to collectively select a plurality of objects on the display screen, and it becomes possible to form a formation (Party) for the selected objects. There is. FIG. 11A shows an example of an operation for collectively selecting a plurality of objects O1 to O7. The operation shown in FIG. 11A is basically the same as the operation shown in FIG. The processing unit 310 determines the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points P1 and P2 that are simultaneously input by the user on the touch panel display 100. To do. Further, the processing unit 310, based on the coordinates of the last two points P3 and P4 detected immediately before the coordinates of the two points are not simultaneously input by being dragged by the user, from the coordinates of the last two points P3 and P4. The coordinate M2 of the obtained second intermediate point is determined. Then, the processing unit 310 designates a rectangular area on the display screen of the touch panel display 100 based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2. Then, the plurality of objects O1 to O7 displayed so that at least a part of them are included in the designated rectangular area are selected. The selected objects O1 to O7 are stored as objects forming a formation in association with the temporary storage unit.

図11(b)は,選択された複数のオブジェクトO1〜O7が編隊(Party)を形成した例を示している。図11(b)に示されるように,一括して選択された複数のオブジェクトO1〜O7は,一箇所に集まり編隊を形成する。また,処理部310は,ユーザの操作により形成された編隊を,次にタッチされたポイントに移動させる処理を行う。すなわち,各オブジェクトO1〜O7は編隊を形成することにより,集合状態のまま移動する。このとき,編隊を形成する各オブジェクトの移動速度は,それぞれによって異なるものである。そこで,処理部310は,オブジェクトテーブルから,編隊を形成する各オブジェクトの移動速度の数値を読み出し,読み出した各オブジェクトの移動速度の数値に基づいて編隊の移動速度を求める。例えば,処理部310は,編隊を形成する各オブジェクトの移動速度のうち,最も遅いもの(最も数値が低いもの)を,編隊全体の移動速度として求めればよい。また,処理部310は,編隊を形成する複数のオブジェクトの移動速度の平均値を,編隊全体の移動速度としてもよい。また,処理部310は,編隊を形成する各オブジェクトの移動速度のうち,最も速いもの(最も数値が高いもの)を,編隊全体の移動速度とすることもできる。オブジェクトの編隊は,処理部310により算出された移動速度の値に従った移動速度で,指定されたポイントへと移動する。複数のポイントが指定されている場合には,処理部310は,オブジェクトの編隊を,指定された順番に従って,順次各ポイントへと移動させる。移動しているオブジェクトの編隊が,移動中に敵オブジェクト(Enemy)に遭遇した場合や,塔(Tower)に到達した場合には,公知のゲームシステムと同様に,敵オブジェクトとの対戦処理,塔を制圧するため処理を行えば良い。 FIG. 11B shows an example in which a plurality of selected objects O1 to O7 form a formation (Party). As shown in FIG. 11B, the plurality of objects O1 to O7 selected collectively are gathered at one place to form a formation. In addition, the processing unit 310 performs a process of moving the formation formed by the user's operation to the next touched point. That is, each of the objects O1 to O7 moves in the gathered state by forming a formation. At this time, the moving speed of each object forming the formation is different depending on each. Therefore, the processing unit 310 reads the numerical value of the moving speed of each object forming the formation from the object table, and obtains the moving speed of the formation based on the read numerical value of the moving speed of each object. For example, the processing unit 310 may determine the slowest moving speed (lowest numerical value) of the moving speeds of the objects forming the formation as the moving speed of the entire formation. Further, the processing unit 310 may set the average value of the moving speeds of the plurality of objects forming the formation as the moving speed of the entire formation. In addition, the processing unit 310 may set the fastest moving speed (highest numerical value) of the moving speeds of the objects forming the formation as the moving speed of the entire formation. The formation of the object moves to the designated point at the moving speed according to the value of the moving speed calculated by the processing unit 310. When a plurality of points are designated, the processing unit 310 sequentially moves the formation of the object to each point in the designated order. If the formation of the moving object encounters an enemy object (Enemy) while moving or reaches a tower (Tower), the battle process against the enemy object, the tower, as in the known game system. It suffices to perform processing in order to suppress

以上,本発明のゲーム装置により実行されるゲームについて,特徴的なシステムを主として説明した。その他のゲーム処理については,カードリーダを備える公知のゲーム装置や,タッチパネルディスプレイを備える公知のゲーム装置のものを適宜採用できる。 Heretofore, the characteristic system of the game executed by the game device of the present invention has been mainly described. For other game processing, a well-known game device having a card reader or a well-known game device having a touch panel display can be appropriately adopted.

本発明は,例えば,コンピュータ産業やゲーム産業にて好適に利用し得る。 The present invention can be suitably used in the computer industry and the game industry, for example.

1 表示部
2 座標入力部
3 領域指定部
4 オブジェクト選択部
5 オブジェクト記憶部
6 座標記憶部
10 タッチパネルディスプレイ
20 制御部
30 記憶部
M1 第1中間点
M2 第2中間点
P1 第1点目のタッチ点
P2 第2点目のタッチ点
P3 第3点目のタッチ点
P4 第4点目のタッチ点
R 領域
O オブジェクト
1 display unit 2 coordinate input unit 3 area designation unit 4 object selection unit 5 object storage unit 6 coordinate storage unit 10 touch panel display 20 control unit 30 storage unit M1 first intermediate point M2 second intermediate point P1 first touch point P2 Second touch point P3 Third touch point P4 Fourth touch point R Region O Object

Claims (2)

コンピュータに、
画像表示可能な表示部の表示画面上で座標を入力するための座標入力部によって検出された入力が、第1の入力のみである場合は、該第1の入力は第1指定操作と判定し、該第1の入力が継続された状態で別の第2の入力が検出された場合は、該第1の入力及び該第2の入力は該第1指定操作とは異なる第2指定操作と判定する操作判定機能、
前記第1指定操作と判定された場合、前記座標入力部から取得した前記第1の入力の座標に基づく操作を前記第1指定操作として受け付ける第一操作機能、
前記第2指定操作と判定された場合、前記第1の入力及び前記第2の入力が略同一方向にスライドしている状態において、前記座標入力部から取得した該第1の入力の座標及び該第2の入力の座標に基づく操作を前記第2指定操作として受け付ける第二操作機能、
を実現させ、
前記操作判定機能では、前記第2指定操作と判定した後に、前記第1の入力及び前記第2の入力のいずれか一方の入力が継続していない場合は、継続されている他方の入力を第1の入力とする第1指定操作と判定する機能、
を実現させるためのプログラム。
On the computer,
When the input detected by the coordinate input unit for inputting coordinates on the display screen of the display unit capable of displaying an image is only the first input, it is determined that the first input is the first designation operation. , When the second input is detected while the first input is continued, the first input and the second input are different from the first designating operation as the second designating operation. Judgment operation judgment function,
A first operation function that accepts an operation based on the coordinates of the first input acquired from the coordinate input unit as the first specified operation when it is determined to be the first specified operation;
When it is determined to be the second designation operation, in the state where the first input and the second input are sliding in substantially the same direction, the coordinates of the first input acquired from the coordinate input unit and the A second operation function for accepting an operation based on coordinates of a second input as the second designated operation,
Is realized,
In the operation determination function, if one of the first input and the second input is not continued after it is determined to be the second designated operation, the other input that is continued is changed to the second input. A function to determine the first designated operation as input of 1,
A program for realizing.
画像表示可能な表示部と、
前記表示部の表示画面上における座標を入力するための座標入力部と、
前記座標入力部によって検出された入力が、第1の入力のみである場合は、該第1の入力は第1指定操作と判定し、該第1の入力が継続された状態で別の第2の入力が検出された場合は、該第1の入力及び該第2の入力は該第1指定操作とは異なる第2指定操作と判定する操作判定部と、
前記第1指定操作と判定された場合、前記座標入力部から取得した前記第1の入力の座標に基づく操作を前記第1指定操作として受け付ける第一操作部と、
前記第2指定操作と判定された場合、前記第1の入力及び前記第2の入力が略同一方向にスライドしている状態において、前記座標入力部から取得した該第1の入力の座標及び該第2の入力の座標に基づく操作を前記第2指定操作として受け付ける第二操作部と、
を有し、
前記操作判定部は、前記第2指定操作と判定した後に、前記第1の入力及び前記第2の入力のいずれか一方の入力が継続していない場合は、継続されている他方の入力を第1の入力とする第1指定操作と判定する、
情報処理装置。
A display unit that can display images,
A coordinate input unit for inputting coordinates on the display screen of the display unit,
When the input detected by the coordinate input unit is only the first input, it is determined that the first input is the first designated operation, and the second input is continued while the first input is continued. When the input of is detected, the first input and the second input are operation determining units that determine that the second input is different from the first input operation,
A first operation unit that receives an operation based on the coordinates of the first input acquired from the coordinate input unit as the first specified operation when it is determined to be the first specified operation;
When it is determined to be the second designation operation, in the state where the first input and the second input are sliding in substantially the same direction, the coordinates of the first input acquired from the coordinate input unit and the A second operation unit that receives an operation based on the coordinates of the second input as the second designated operation;
Have
If one of the first input and the second input is not continued after determining that the operation is the second designated operation, the operation determining unit determines the other input that is being continued as the second input. Judge as the first designated operation to input 1
Information processing equipment.
JP2019020463A 2019-02-07 2019-02-07 Information processing device, information processing method, and game device Active JP6715361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019020463A JP6715361B2 (en) 2019-02-07 2019-02-07 Information processing device, information processing method, and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020463A JP6715361B2 (en) 2019-02-07 2019-02-07 Information processing device, information processing method, and game device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017198298A Division JP6480537B2 (en) 2017-10-12 2017-10-12 Information processing apparatus, information processing method, and game apparatus

Publications (2)

Publication Number Publication Date
JP2019114271A JP2019114271A (en) 2019-07-11
JP6715361B2 true JP6715361B2 (en) 2020-07-01

Family

ID=67222737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020463A Active JP6715361B2 (en) 2019-02-07 2019-02-07 Information processing device, information processing method, and game device

Country Status (1)

Country Link
JP (1) JP6715361B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6953650B1 (en) * 2021-07-28 2021-10-27 株式会社あかつき Game system, program and information processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086230A (en) * 2008-09-30 2010-04-15 Sony Corp Information processing apparatus, information processing method and program
JP5534858B2 (en) * 2010-02-22 2014-07-02 キヤノン株式会社 Display control device and control method of display control device
JP5597069B2 (en) * 2010-08-31 2014-10-01 キヤノン株式会社 Image editing apparatus, control method thereof, and program
JP6480537B2 (en) * 2017-10-12 2019-03-13 株式会社スクウェア・エニックス Information processing apparatus, information processing method, and game apparatus

Also Published As

Publication number Publication date
JP2019114271A (en) 2019-07-11

Similar Documents

Publication Publication Date Title
US11119564B2 (en) Information processing apparatus, method for information processing, and game apparatus for performing different operations based on a movement of inputs
JP5450718B2 (en) GAME DEVICE AND GAME PROGRAM
JP5449422B2 (en) SCREEN SCROLL DEVICE, SCREEN SCROLL METHOD, AND GAME DEVICE
JP3961545B2 (en) Object selection device, object selection method, and program
US8910075B2 (en) Storage medium storing information processing program, information processing apparatus and information processing method for configuring multiple objects for proper display
JP4982994B2 (en) program
WO2005089895A1 (en) Game apparatus, game program, memory medium where game program is stored, and game control method
JP5955884B2 (en) Game device
JP6721297B2 (en) Game device
JP2017144158A (en) Program and game device
JP6623008B2 (en) GAME DEVICE AND PROGRAM
JP6715361B2 (en) Information processing device, information processing method, and game device
JP6480537B2 (en) Information processing apparatus, information processing method, and game apparatus
JP6230136B2 (en) Information processing apparatus, information processing method, and game apparatus
JP6235544B2 (en) Program, computer apparatus, screen control method, and system
JP5980752B2 (en) Information processing apparatus, information processing method, and game apparatus
US9962606B2 (en) Game apparatus
JP5826244B2 (en) Game system
JP6945699B2 (en) Program and game equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6715361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250