JP2013013672A - Device,method and program for displaying information - Google Patents

Device,method and program for displaying information Download PDF

Info

Publication number
JP2013013672A
JP2013013672A JP2011150349A JP2011150349A JP2013013672A JP 2013013672 A JP2013013672 A JP 2013013672A JP 2011150349 A JP2011150349 A JP 2011150349A JP 2011150349 A JP2011150349 A JP 2011150349A JP 2013013672 A JP2013013672 A JP 2013013672A
Authority
JP
Japan
Prior art keywords
detected
trajectory
information
screen
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011150349A
Other languages
Japanese (ja)
Other versions
JP5519591B2 (en
Inventor
Masafumi Takehiro
将史 竹廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2011150349A priority Critical patent/JP5519591B2/en
Publication of JP2013013672A publication Critical patent/JP2013013672A/en
Application granted granted Critical
Publication of JP5519591B2 publication Critical patent/JP5519591B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To appropriately determine information to be displayed within a screen based on the transfer operation detected from the motion of a user.SOLUTION: A detection part 1701 detects prescribed transfer operation from the motion of the user. An operation amount obtaining part 1702 obtains the operation amount for target information from the length of trajectory or speed of the detected transfer operation. A changing part 1703 changes the target information based on the obtained operation amount. A display information obtaining part 1704 obtains display information to be displayed on the screen based on the changed target information. A display part 1705 displays the obtained display information on the screen. The operation amount obtaining part 1702 obtains (a) a prescribed predetermined value as the operation amount if the detected trajectory of the transfer operation is not similar to the trajectory of the transfer operation detected just before that; or obtains (b) a value larger than the predetermined value as the operation amount if the trajectories are similar to each other.

Description

本発明は、ユーザの動作から検知した移動操作に基づいて、画面内に表示する情報を適切に決定するのに好適な情報表示装置、情報表示方法、ならびに、これらをコンピュータにより実現するためのプログラムに関する。   The present invention relates to an information display device, an information display method suitable for appropriately determining information to be displayed on a screen based on a moving operation detected from a user operation, and a program for realizing these by a computer About.

ユーザから受け付けた操作に基づいて、パラメータに対する操作量を決定する種々の情報表示装置が知られている。例えば、タッチスクリーンに表示する地図のスクロール量を、ユーザから受け付けたなぞり操作の長さや速度に基づいて決定するナビゲーション装置が提案されている。このようなナビゲーション装置は、例えば、特許文献1に開示されている。   Various information display devices that determine an operation amount for a parameter based on an operation received from a user are known. For example, there has been proposed a navigation device that determines the scroll amount of a map displayed on a touch screen based on the length and speed of a tracing operation received from a user. Such a navigation device is disclosed in Patent Document 1, for example.

このような情報表示装置の設計者は、なぞり操作の長さや速度に対して、操作対象のパラメータに対する操作量をどの程度にするかをあらかじめ設定する。なお、ナビゲーション装置においては、例えば、タッチスクリーンに表示される地図の範囲を表すデータが操作対象のパラメータであり、スクロール量が操作量である。また、格闘ゲームにおいては、例えば、キャラクタの体力が操作対象のパラメータであり、このキャラクタに与えるダメージが操作量である。   The designer of such an information display device sets in advance how much the operation amount for the parameter to be operated is to be set with respect to the length and speed of the tracing operation. In the navigation device, for example, data representing the range of the map displayed on the touch screen is the parameter to be operated, and the scroll amount is the operation amount. In a fighting game, for example, the physical strength of the character is an operation target parameter, and the damage given to the character is the operation amount.

ここで、操作量の微調整を可能とする簡単な方法として、なぞり操作の長さや速度に対する操作量の割合を比較的小さな値にする方法がある。一方、ユーザは、所望の操作量に達するまで、なぞり操作を繰り返す。   Here, as a simple method for enabling fine adjustment of the operation amount, there is a method in which the ratio of the operation amount to the length and speed of the tracing operation is set to a relatively small value. On the other hand, the user repeats the tracing operation until the desired operation amount is reached.

特許第4314927号公報Japanese Patent No. 4314927

しかしながら、所望の操作量に達するまでなぞり操作を繰り返すことを、煩わしいと感じているユーザも少なくない。このような問題は、ユーザから受け付ける操作がなぞり操作である場合に限られない。このため、ユーザから受け付けた操作に対する操作量を適切に決定し、この操作量に応じて決定される画像を画面内に表示することが可能な情報表示装置が望まれている。   However, many users feel that it is troublesome to repeat the tracing operation until a desired operation amount is reached. Such a problem is not limited to the case where the operation received from the user is a tracing operation. For this reason, an information display device that can appropriately determine an operation amount for an operation received from a user and display an image determined according to the operation amount on the screen is desired.

本発明は、上記問題に鑑みてなされたものであり、ユーザの動作から検知した移動操作に基づいて、画面内に表示する情報を適切に決定するのに好適な情報表示装置、情報表示方法、ならびに、これらをコンピュータにより実現するためのプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and an information display device suitable for appropriately determining information to be displayed on the screen, an information display method, based on a moving operation detected from a user's action, An object of the present invention is to provide a program for realizing these by a computer.

上記目的を達成するために、本発明の第1の観点に係る情報表示装置は、検知部、操作量取得部、変化部、表示情報取得部、表示部を備え、以下のように構成する。   In order to achieve the above object, an information display device according to a first aspect of the present invention includes a detection unit, an operation amount acquisition unit, a change unit, a display information acquisition unit, and a display unit, and is configured as follows.

まず、検知部が、ユーザの動作から所定の移動操作を検知する。つまり、ユーザは、現実空間において身体の所定の部位を動かすことによって、情報表示装置に移動操作を与える。一方、検知部は、例えば、現実空間におけるユーザの身体の所定の部位(以下、「注目部位」という。)の位置を所定周期毎に監視することにより、移動操作を検知する。なお、注目部位の位置は、例えば、現実空間における直交座標で表される。また、移動操作は、例えば、注目部位の位置とこの注目部位の位置の検知時刻との組の集合により表される。   First, the detection unit detects a predetermined movement operation from the user's action. That is, the user gives a movement operation to the information display device by moving a predetermined part of the body in the real space. On the other hand, for example, the detection unit detects a moving operation by monitoring the position of a predetermined part of the user's body (hereinafter referred to as “target part”) in the real space at predetermined intervals. Note that the position of the region of interest is represented by, for example, orthogonal coordinates in the real space. Further, the moving operation is represented by a set of a set of the position of the attention site and the detection time of the position of the attention site, for example.

そして、操作量取得部は、検知された移動操作の軌跡の長さもしくは速度から、対象情報に対する操作量を取得する。なお、検知された移動操作の軌跡の長さは、検知された注目部位の位置の軌跡の長さである。また、検知された移動操作の速度は、検知された注目部位の位置が移動する速度である。ここで、移動操作の軌跡の長さや速度は、注目部位の位置とこの注目部位の位置の検知時刻との組の集合から求められる。例えば、移動操作の軌跡が線分に近い形状であり、移動操作の速度がほぼ一定である場合、移動操作の軌跡の長さと速度とを以下のように近似することができる。つまり、検知時刻が最も早い注目部位の位置から検知時刻が最も遅い注目部位の位置までの長さを、移動操作の軌跡の長さと近似する。また、移動操作の軌跡の長さを、最も早い検知時刻から最も遅い検知時刻までの経過時間で除算した値を、移動操作の速度と近似する。   Then, the operation amount acquisition unit acquires the operation amount for the target information from the detected length or speed of the movement operation trajectory. The detected length of the trajectory of the movement operation is the length of the detected trajectory of the position of the target region. Further, the detected speed of the moving operation is a speed at which the detected position of the target region moves. Here, the length and speed of the trajectory of the movement operation are obtained from a set of a set of the position of the attention site and the detection time of the position of the attention site. For example, when the trajectory of the moving operation has a shape close to a line segment and the speed of the moving operation is substantially constant, the length and speed of the trajectory of the moving operation can be approximated as follows. That is, the length from the position of the target region with the earliest detection time to the position of the target region with the latest detection time is approximated to the length of the trajectory of the movement operation. Further, a value obtained by dividing the length of the trajectory of the moving operation by the elapsed time from the earliest detection time to the latest detection time is approximated with the speed of the movement operation.

ここで、操作量取得部は、移動操作の軌跡の長さ、移動操作の速度、もしくは、その両方から、対象情報に対する操作量を取得する。ここで対象情報は、操作対象のパラメータである。例えば、ナビゲーション装置の場合、操作対象のパラメータは、画面に表示される地図の範囲を表すパラメータである。この場合、対象情報に対する操作量は、画面に表示される地図の範囲を表すパラメータに対する操作量であり、例えば、拡大/縮小率、各方向へのスクロール量などである。   Here, the operation amount acquisition unit acquires the operation amount for the target information from the length of the trajectory of the movement operation, the speed of the movement operation, or both. Here, the target information is an operation target parameter. For example, in the case of a navigation device, the operation target parameter is a parameter representing the range of the map displayed on the screen. In this case, the operation amount for the target information is an operation amount for a parameter representing the range of the map displayed on the screen, such as an enlargement / reduction ratio, a scroll amount in each direction, and the like.

なお、移動操作の軌跡の長さ(もしくは、移動操作の速さ)と操作量との関係は適宜調整することができる。例えば、移動操作の軌跡の長さが長いほど、操作量が大きくなるようにすることができる。あるいは、移動操作の速度が速いほど、操作量が大きくなるようにすることができる。   The relationship between the length of the trajectory of the moving operation (or the speed of the moving operation) and the operation amount can be adjusted as appropriate. For example, the operation amount can be increased as the length of the trajectory of the moving operation is longer. Alternatively, the operation amount can be increased as the speed of the moving operation increases.

そして、変化部は、取得された操作量に基づいて、対象情報を変化させる。例えば、ナビゲーション装置の場合、変化部は、取得されたスクロール量に基づいて、画面内に表示される地図の範囲を表すパラメータを変更する。   The changing unit changes the target information based on the acquired operation amount. For example, in the case of a navigation device, the changing unit changes a parameter representing the range of the map displayed on the screen based on the acquired scroll amount.

ここで、表示情報取得部は、変化後の対象情報に基づいて、画面に表示すべき表示情報を取得する。例えば、ナビゲーション装置の場合、地図全体から、変化部による変更後のパラメータにより指定される範囲の地図を抽出する。   Here, the display information acquisition unit acquires display information to be displayed on the screen based on the target information after the change. For example, in the case of a navigation device, a map in a range specified by a parameter after change by the changing unit is extracted from the entire map.

そして、表示部は、取得された表示情報を画面に表示する。つまり、表示部は、移動操作によって変更された操作対象のパラメータに基づいて生成される画像を画面に表示する。   Then, the display unit displays the acquired display information on the screen. That is, the display unit displays an image generated on the screen based on the operation target parameter changed by the moving operation.

ここで、操作量取得部は、以下の(a)および(b)に示すルールに従って、操作量を取得する。   Here, the operation amount acquisition unit acquires the operation amount according to the rules shown in the following (a) and (b).

まず、(a)検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似しない場合、検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を操作量として取得する。ここで、検知された移動操作の管理方法として、種々の管理方法を採用することができる。例えば、移動操作の軌跡単位で履歴をとる方法が考えられる。この方法では、例えば、移動操作が検知される毎に、検知された移動操作の軌跡を特定可能な履歴をとる。この履歴は、例えば、軌跡が描かれた時刻(移動操作が検知された時刻)、軌跡の長さ、軌跡の速度、軌跡の形状を含むことができる。   First, (a) when the detected trajectory of the moving operation is not similar to the trajectory of the moving operation detected immediately before the detected moving operation, the length or speed of the detected trajectory of the moving operation is set. A predetermined value associated in advance is acquired as an operation amount. Here, various management methods can be adopted as a management method of the detected moving operation. For example, a method of taking a history for each movement operation trajectory is conceivable. In this method, for example, every time a movement operation is detected, a history that can identify the locus of the detected movement operation is taken. This history can include, for example, the time when the trajectory was drawn (the time when the movement operation was detected), the length of the trajectory, the speed of the trajectory, and the shape of the trajectory.

なお、検知された移動操作の直前に検知された移動操作がない場合(典型的には、上記履歴が全くない場合)、操作量取得部は、上記最新の2つの軌跡が類似しない場合と同様に、検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を操作量として取得する。   When there is no movement operation detected immediately before the detected movement operation (typically, when there is no history described above), the operation amount acquisition unit is the same as when the latest two trajectories are not similar. In addition, a predetermined value associated in advance with the length or speed of the detected trajectory of the moving operation is acquired as the operation amount.

一方、(b)検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似する場合、検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値より大きい値を操作量として取得する。   On the other hand, if (b) the detected trajectory of the moving operation is similar to the trajectory of the moving operation detected immediately before the detected moving operation, the length or speed of the detected trajectory of the moving operation is set. A value larger than a predetermined value associated in advance is acquired as an operation amount.

検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似するか否かを判別する手法は適宜調整が可能である。   The method for determining whether or not the detected trajectory of the moving operation is similar to the trajectory of the moving operation detected immediately before the detected moving operation can be adjusted as appropriate.

典型的には、2つの移動操作の軌跡の重なり具合が大きい場合、2つの移動操作の軌跡が互いに類似していると判別することができる。例えば、2つの移動操作の軌跡のそれぞれが注目部位の位置の集合により構成される場合、一方の移動操作の軌跡を構成する注目部位の位置の個数に対する、一方の移動操作の軌跡と他方の移動操作の軌跡とで共通する注目部位の位置の個数の割合が所定の閾値以上である場合、2つの移動操作の軌跡が互いに類似すると判別し、当該割合が当該所定の閾値未満である場合、2つの移動操作の軌跡が互いに類似しないと判別することができる。2つの移動操作の軌跡のうちの一方を画面内において平行移動させた上で、このような判別を行っても良い。   Typically, when the degree of overlap between two movement operations is large, it can be determined that the two movement operations are similar to each other. For example, in the case where each of two movement operation trajectories is configured by a set of positions of a target region, the trajectory of one movement operation and the other movement with respect to the number of positions of the target region constituting the trajectory of one movement operation If the ratio of the number of positions of the target region common to the operation trajectory is equal to or greater than a predetermined threshold, it is determined that the trajectories of the two moving operations are similar to each other, and if the ratio is less than the predetermined threshold, 2 It can be determined that the trajectories of the two moving operations are not similar to each other. Such determination may be made after one of the two movement operation trajectories is translated in the screen.

また、検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値をどのように設定するかは適宜調整することが可能である。例えば、ナビゲーション装置の場合、検知された移動操作の軌跡の長さを既定値とすることができる。このように既定値が設定されると、検知された移動操作の軌跡とその直前に検知された移動操作の軌跡とが類似しない場合、検知された移動操作の軌跡の長さがスクロール量として取得される。   In addition, it is possible to appropriately adjust how to set a predetermined value that is associated in advance with the length or speed of the detected trajectory of the moving operation. For example, in the case of a navigation device, the length of the detected trajectory of the moving operation can be set as a default value. When the default value is set in this way, if the detected trajectory of the moving operation and the trajectory of the moving operation detected immediately before are not similar, the length of the detected trajectory of the moving operation is acquired as the scroll amount. Is done.

一方、検知された移動操作の軌跡とその直前に検知された移動操作の軌跡とが互いに類似する場合、これら2つの移動操作の軌跡が互いに類似しない場合よりも大きな操作量が取得される。例えば、ナビゲーション装置の場合、検知された移動操作の軌跡の長さが既定値に設定されると、検知された移動操作の軌跡とその前に検知された移動操作の軌跡とが類似する場合、検知された移動操作の軌跡の長さよりも長いスクロール量が取得される。   On the other hand, when the detected trajectory of the moving operation and the trajectory of the moving operation detected immediately before are similar to each other, a larger operation amount is acquired than when the trajectories of these two moving operations are not similar to each other. For example, in the case of a navigation device, when the length of the detected movement operation locus is set to a default value, the detected movement operation locus is similar to the movement operation locus detected before, A scroll amount that is longer than the detected length of the trajectory of the movement operation is acquired.

以上説明した構成によれば、直前の移動操作と軌跡が類似する移動操作が行われることにより、1回の移動操作による操作量が大きくなる。このため、比較的少ない回数の移動操作により、ユーザが望む表示状態にすることができる。   According to the configuration described above, the amount of operation by one moving operation is increased by performing a moving operation whose trajectory is similar to the previous moving operation. For this reason, the display state desired by the user can be achieved by a relatively small number of movement operations.

以上説明したように、本発明の情報表示装置によれば、ユーザから受け付けた操作に基づいて、画面内に表示する情報を適切に決定することができる。   As described above, according to the information display device of the present invention, it is possible to appropriately determine information to be displayed on the screen based on an operation received from the user.

また、本発明の情報表示装置において、操作量取得部は、移動操作が検知されるごとに、検知された移動操作のうち最後に検知された移動操作に対して、操作量を取得してもよい。つまり、操作量取得部は、移動操作が検知されるごとに、速やかに、操作量を取得することができる。   In the information display device of the present invention, the operation amount acquisition unit may acquire an operation amount for the last detected movement operation among the detected movement operations each time a movement operation is detected. Good. That is, the operation amount acquisition unit can quickly acquire the operation amount every time a movement operation is detected.

なお、操作量取得部は、最後に検知された移動操作の軌跡と、当該最後に検知された移動操作の直前に検知された移動操作の軌跡とが、類似するか否かにより場合分けして、操作量を取得する。ここで、最後に検知された移動操作の軌跡は、上記履歴のうち最新の履歴、つまり、上記履歴のうち軌跡が描かれた時刻が最新の時刻である履歴により特定される軌跡である。   Note that the operation amount acquisition unit classifies the trajectory of the last detected movement operation and the trajectory of the movement operation detected immediately before the last detected movement operation according to whether or not they are similar. Get the operation amount. Here, the trajectory of the movement operation detected last is a trajectory specified by the latest history in the history, that is, a history in which the time at which the trajectory is drawn in the history is the latest time.

本発明の情報表示装置によれば、画面がユーザが望む表示状態に速やかに遷移することが期待される。   According to the information display device of the present invention, it is expected that the screen promptly transitions to the display state desired by the user.

また、本発明の情報表示装置において、表示部は、検知された移動操作のうち最後に検知された移動操作の軌跡をさらに画面に表示することができる。   In the information display device of the present invention, the display unit can further display the trajectory of the last detected moving operation on the screen.

なお、最後に検知された移動操作の軌跡を、画面内にどのような体裁で表示するかは適宜調整が可能である。典型的には、最後の移動操作がなされたときに検知された注目部位の位置が全てあらかじめ定められた色で表示されるようにする。かかる表示のために、これらの注目部位の位置は、最後に検知された移動操作の軌跡を表す情報として、記憶装置などに記憶される。なお、最後に検知された移動操作の軌跡は、所定の関数などにより近似され、あらかじめ定められた太さで表示されてもよい。かかる構成によれば、ユーザは、最後に検知された移動操作の軌跡を参考にして、当該移動操作と同様の操作を繰り返して実行することができる。   It should be noted that it is possible to appropriately adjust how the trajectory of the last detected movement operation is displayed in the screen. Typically, all the positions of the region of interest detected when the last movement operation is performed are displayed in a predetermined color. For such display, the positions of these attention sites are stored in a storage device or the like as information representing the trajectory of the last detected movement operation. It should be noted that the trajectory of the last detected movement operation may be approximated by a predetermined function or the like and displayed with a predetermined thickness. According to this configuration, the user can repeatedly execute the same operation as the moving operation with reference to the trajectory of the moving operation detected last.

本発明の情報表示装置によれば、画面がユーザが望む表示状態に速やかに遷移することが期待される。   According to the information display device of the present invention, it is expected that the screen promptly transitions to the display state desired by the user.

また、本発明の情報表示装置において、検知部は、ユーザを撮影し、もしくは、ユーザに把持されるコントローラの位置、速度もしくは加速度を計測することにより、ユーザの動作を取得することができる。この場合、検知部は、取得されたユーザの動作が、当該ユーザの身体の所定の部位または当該コントローラを静止させてから当該部位または当該コントローラを所定の方向へ移動させるものである場合、当該所定の方向に対応付けられる種類の移動操作がされたものと検知することができる。   In the information display device of the present invention, the detection unit can acquire the user's operation by photographing the user or measuring the position, speed, or acceleration of the controller held by the user. In this case, when the acquired user action is to move the part or the controller in a predetermined direction after stopping the predetermined part or the controller of the user's body, the predetermined part It can be detected that the type of movement operation associated with the direction is performed.

例えば、検知部は、ユーザを被写体として撮像するカメラから供給される動画像を解析して、ユーザの動作を取得することができる。この場合、例えば、パターンマッチングにより、画像内における注目部位の位置が検知されて、現実空間における注目部位の位置が検知される。   For example, the detection unit can acquire a user's action by analyzing a moving image supplied from a camera that captures an image of the user as a subject. In this case, for example, the position of the site of interest in the image is detected by pattern matching, and the position of the site of interest in the real space is detected.

あるいは、検知部は、ユーザに把持された加速度センサなどを内蔵するコントローラから供給される加速度などの情報を解析して、ユーザの動作を取得することができる。この場合、取得されるユーザの動作は、コントローラを把持する手の動きである。   Alternatively, the detection unit can acquire information on the user's operation by analyzing information such as acceleration supplied from a controller that includes an acceleration sensor or the like held by the user. In this case, the acquired user action is the movement of the hand holding the controller.

ここで、移動操作は複数種類用意されていてもよく、また、どのような動作を移動操作とするかは、適宜、調整が可能である。例えば、注目部位が静止した状態から移動する方向に対応付けて、移動操作を用意してもよい。具体的には、例えば、ユーザの右手を注目部位とする場合、ユーザが右手を静止させてからカメラに向かって上方向に移動させる動作を上方向に対応付ける移動操作、ユーザが右手を静止させてからカメラに向かって下方向に移動させる動作を下方向に対応付ける移動操作、ユーザが右手を静止させてからカメラに向かって左方向に移動させる動作を左方向に対応付ける移動操作、ユーザが右手を静止させてからカメラに向かって右方向に移動させる動作を右方向に対応付ける移動操作とすることができる。   Here, a plurality of types of movement operations may be prepared, and what kind of operation is the movement operation can be appropriately adjusted. For example, a movement operation may be prepared in association with the direction of movement from the state where the site of interest is stationary. Specifically, for example, when the user's right hand is the target region, a moving operation in which the user moves the right hand stationary and then moves upward toward the camera, the user moves the right hand stationary. The movement operation that associates the downward movement of the camera toward the camera from the bottom, the movement operation that associates the movement of the left hand toward the camera after the user stops the right hand, and the left movement of the right hand. Then, the movement of moving rightward toward the camera can be a moving operation associated with the rightward direction.

本発明の情報表示装置によれば、ユーザによりなされる移動操作を正確に認識し、画面内に表示する情報を適切に決定することができる。   According to the information display device of the present invention, it is possible to accurately recognize the moving operation performed by the user and appropriately determine information to be displayed on the screen.

また、本発明の情報表示装置において、検知部は、画面に対するユーザの接触の有無から、当該画面に対する当該ユーザのなぞり動作を取得し、当該取得されたなぞり動作を移動操作とすることができる。   In the information display device of the present invention, the detection unit can acquire the user's tracing operation on the screen based on whether or not the user touches the screen, and can use the acquired tracing operation as a moving operation.

つまり、本発明においては、画面としてタッチスクリーンを採用することができる。この場合、ユーザは、この画面上に指先やタッチペンのペン先などを接触させた状態で移動させる。一方、検知部は、画面上における、指先やペン先などが接触している位置(以下、「タッチ位置」という。)を所定周期毎に監視することにより、なぞり操作を検知する。ここで、なぞり操作とは、例えば、ユーザの指先やタッチペンのペン先が画面上に接している状態で、指先やペン先が画面上を移動する操作のことをいう。なお、タッチ位置は、例えば、画面上における直交座標で表される。また、なぞり操作は、例えば、タッチ位置とこのタッチ位置の検知時刻との組の集合により表される。   That is, in the present invention, a touch screen can be adopted as the screen. In this case, the user moves the fingertip, the pen tip of the touch pen, or the like in contact with the screen. On the other hand, the detection unit detects a tracing operation by monitoring a position (hereinafter referred to as a “touch position”) where a fingertip or a pen tip is in contact on the screen at predetermined intervals. Here, the tracing operation refers to, for example, an operation in which the fingertip or the pen tip moves on the screen while the user's fingertip or the touch pen pen tip is in contact with the screen. Note that the touch position is represented by, for example, orthogonal coordinates on the screen. The tracing operation is represented by a set of a touch position and a detection time of the touch position, for example.

本発明の情報表示装置によれば、タッチスクリーンを有する情報表示装置において、ユーザから受け付けた操作に基づいて、画面内に表示する情報を適切に決定することができる。   According to the information display device of the present invention, in the information display device having a touch screen, information to be displayed in the screen can be appropriately determined based on an operation received from the user.

また、本発明の情報表示装置において、表示部は、以下に示す場合に、最後に検知された移動操作の軌跡を画面から消去することができる。その場合とは、最後に検知された移動操作の軌跡が画面に表示された後、移動操作が検知されないまま所定の猶予時間が経過する場合である。また、この場合において、操作量取得部は、(c)画面に最後に検知された移動操作の軌跡が表示されていない場合、最後に検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を操作量として取得することができる。   In the information display device of the present invention, the display unit can erase the trajectory of the last detected movement operation from the screen in the following cases. In this case, after the trajectory of the last detected moving operation is displayed on the screen, a predetermined grace period elapses without detecting the moving operation. In this case, the operation amount acquisition unit (c) corresponds in advance to the length or speed of the last detected movement operation locus when the last detected movement operation locus is not displayed on the screen. The attached default value can be acquired as the operation amount.

本発明では、軌跡が互いに類似する移動操作を繰り返すと、1回の移動操作による操作量が大きくなる。しかしながら、1回の移動操作による操作量が大きい状態がいつまでも続くと、操作量の微調整が難しくなる。従って、画面に対する移動操作が検知されないまま所定の猶予時間が経過した場合、最後に検知された移動操作の軌跡を画面から消去することにより、移動操作が繰り返されることを防止するのである。なお、最後に検知された移動操作の軌跡が画面から消去された後は、操作量が既定値に戻されることが望ましい。従って、操作量取得部は、(c)画面に最後に検知された移動操作の軌跡が表示されていない場合、最後に検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を操作量として取得することが望ましい。   In the present invention, when a moving operation with similar trajectories is repeated, the amount of operation by one moving operation increases. However, if the amount of operation by a single moving operation continues to be large, fine adjustment of the operation amount becomes difficult. Accordingly, when a predetermined grace period elapses without detecting a movement operation on the screen, the movement operation is detected by deleting the trajectory of the last detected movement operation from the screen, thereby preventing the movement operation from being repeated. Note that it is desirable that the operation amount be returned to the default value after the trajectory of the last detected moving operation is deleted from the screen. Therefore, the operation amount acquisition unit (c), when the trajectory of the last detected moving operation is not displayed on the screen, the default value associated in advance with the length or speed of the trajectory of the last detected moving operation. Is preferably acquired as the operation amount.

本発明の情報表示装置によれば、ユーザからの移動操作を適切に受け付けて、受け付けた移動操作に基づいて画面内に表示する情報を適切に決定することができる。   According to the information display device of the present invention, it is possible to appropriately receive a moving operation from a user and appropriately determine information to be displayed on the screen based on the received moving operation.

また、本発明の情報表示装置において、検知された移動操作のうち最後に検知された移動操作の軌跡が、その直前に検知されたN個の移動操作の軌跡のそれぞれと類似する場合、操作量取得部は、以下の(A)もしくは(B)の値を、上述の規定値より大きい値として採用することができる。なお、最後に検知された移動操作の軌跡が、その直前に検知されたN個の移動操作の軌跡のそれぞれと類似する場合とは、ユーザにより(N+1)回連続して同様の移動操作が実行された場合である。   Further, in the information display device of the present invention, when the trajectory of the last detected moving operation among the detected moving operations is similar to each of the N moving operation trajectories detected immediately before, the operation amount The acquisition unit can employ the following value (A) or (B) as a value larger than the above-mentioned specified value. When the trajectory of the last detected movement operation is similar to each of the N moving operation trajectories detected immediately before, the same movement operation is executed by the user continuously (N + 1) times. This is the case.

(A)正の値域を有する単調増加関数にNを適用した値を既定値に加算した値。
(B)1以上の値域を有する単調増加関数にNを適用した値を既定値に乗算した値。
なお、単調増加関数としてどのような関数を採用するかは、適宜調整が可能である。ただし、どのような単調増加関数を採用したとしても、1回の移動操作に対応する操作量は、移動操作が繰り返されるたびに増加する。このように、同様の移動操作がなされる度に、1回の移動操作に対応する操作量が増加することにより、ユーザの操作負担をさらに減らすことができる。
(A) A value obtained by adding a value obtained by applying N to a monotonically increasing function having a positive range to a predetermined value.
(B) A value obtained by multiplying a predetermined value by a value obtained by applying N to a monotonically increasing function having a range of 1 or more.
It should be noted that what function is adopted as the monotonically increasing function can be appropriately adjusted. However, no matter what monotonously increasing function is employed, the operation amount corresponding to one moving operation increases each time the moving operation is repeated. Thus, every time a similar movement operation is performed, the operation amount corresponding to one movement operation increases, so that the operation burden on the user can be further reduced.

本発明の情報表示装置によれば、ユーザの操作負担をさらに減らしつつ、ユーザから受け付けた操作に基づいて、画面内に表示する情報を適切に決定することができる。   According to the information display device of the present invention, it is possible to appropriately determine information to be displayed on the screen based on the operation received from the user while further reducing the operation burden on the user.

また、本発明の情報表示装置において、表示部が、検知された移動操作のうち最後に検知された移動操作の軌跡をさらに画面に表示し、表示部が、最後に検知された移動操作の軌跡を画面に表示する体裁を、Nに基づいて定めることができる。つまり、本発明においては、最後に検知された移動操作の軌跡を画面に表示する体裁を、移動操作の繰り返し回数に応じて、変化させるようにしてもよい。   In the information display device of the present invention, the display unit further displays on the screen the trajectory of the last detected moving operation among the detected moving operations, and the display unit displays the trajectory of the last detected moving operation. Can be determined based on N. That is, in the present invention, the appearance of displaying the trajectory of the last detected moving operation on the screen may be changed according to the number of times the moving operation is repeated.

移動操作の繰り返し回数に応じてどのように体裁を変化させるかは、適宜調整が可能である。例えば、繰り返し回数が増加するとともに、移動操作の軌跡を表す線の太さ、移動操作の軌跡を表す線の色、もしくは、移動操作の軌跡を表す線の形状を変化させる。具体的には、例えば、繰り返し回数が増加するとともに、移動操作の軌跡を表す線の太さが太く(もしくは細く)なるようにする。あるいは、繰り返し回数が増加するとともに、移動操作の軌跡を表す線の色が明るく(もしくは暗く)または派手に(もしくは地味に)なるようにする。   It is possible to appropriately adjust how the appearance is changed according to the number of repetitions of the moving operation. For example, as the number of repetitions increases, the thickness of the line representing the trajectory of the moving operation, the color of the line representing the trajectory of the moving operation, or the shape of the line representing the trajectory of the moving operation is changed. Specifically, for example, the number of repetitions is increased, and the thickness of the line representing the trajectory of the movement operation is increased (or decreased). Alternatively, as the number of repetitions increases, the color of the line representing the trajectory of the movement operation is made bright (or dark) or flashy (or plain).

本発明の情報表示装置によれば、移動操作の繰り返し回数を提示されたユーザから受け付けられる適切な移動操作に基づいて、画面内に表示する情報を適切に決定することができる。   According to the information display device of the present invention, it is possible to appropriately determine information to be displayed on the screen based on an appropriate moving operation that is accepted from a user who is presented with the number of repetitions of the moving operation.

また、本発明の情報表示装置において、対象情報は文書内における注目範囲の位置または大きさであってもよい。この場合、変化部は、取得された操作量に基づいて、文書内における注目範囲の位置または大きさを変化させる。また、表示情報取得部は、文書内のうち位置または大きさが変化した注目範囲に含まれる情報を、表示情報として取得する。ここで、文書は、ワードプロセッサなどにより作成された文章であってもよいし、カメラなどにより取得された画像であってもよいし、CAD(Computer Aided Design)などの図面作成ソフトにより作成された図面であってもよいし、地図であってもよい。つまり、本明細書において、文書は、文字のみにより構成されるものに限定されず、文字、記号、アイコン、線など様々なものにより構成されるものを含む。   In the information display device of the present invention, the target information may be the position or size of the range of interest in the document. In this case, the changing unit changes the position or size of the range of interest in the document based on the acquired operation amount. In addition, the display information acquisition unit acquires information included in the attention range whose position or size has changed in the document as display information. Here, the document may be a sentence created by a word processor or the like, an image obtained by a camera or the like, or a drawing created by drawing creation software such as CAD (Computer Aided Design). It may be a map. That is, in this specification, a document is not limited to what is comprised only by a character, but includes what is comprised by various things, such as a character, a symbol, an icon, and a line.

かかる構成によれば、文書内における注目範囲の位置または大きさが操作量に基づいて変化し、位置または大きさが変化後の注目範囲に含まれる情報が画面内に表示される。ここで、注目範囲は、文書内における、画面内に表示される情報を含む範囲である。なお、スクロール操作に対応付けられた移動操作がなされると、文書内における注目範囲の位置が変化する。一方、拡大/縮小操作に対応付けられた移動操作がなされると、文書内における注目範囲の大きさが変化する。   According to this configuration, the position or size of the attention range in the document changes based on the operation amount, and information included in the attention range after the position or size change is displayed on the screen. Here, the attention range is a range including information displayed on the screen in the document. Note that when the movement operation associated with the scroll operation is performed, the position of the range of interest in the document changes. On the other hand, when a movement operation associated with the enlargement / reduction operation is performed, the size of the range of interest in the document changes.

例えば、横書きの文書全体のうちその一部(以下「部分文書」という。)が画面内に表示される場合、注目範囲の位置は、部分文書の先頭の行の文書全体における行番号により表され、注目範囲の大きさは、部分文書の行数により表される。また、例えば、地図全体のうちその一部(以下「部分地図」という。)が画面内に表示される場合、注目範囲の位置は、部分地図の代表点(典型的には中心点)の地図全体における座標により表され、注目範囲の大きさは、部分地図が地図全体に対して占める範囲の大きさにより表される。   For example, when a part of the entire horizontally written document (hereinafter referred to as “partial document”) is displayed on the screen, the position of the range of interest is represented by the line number in the entire document of the first line of the partial document. The size of the attention range is represented by the number of lines in the partial document. For example, when a part of the entire map (hereinafter referred to as “partial map”) is displayed on the screen, the position of the range of interest is a map of the representative point (typically the center point) of the partial map. The size of the attention range is expressed by the size of the range that the partial map occupies with respect to the entire map.

本発明の情報表示装置によれば、文書の編集中などに、ユーザから受け付けた操作に基づいて、画面内に表示する情報を適切に決定することができる。   According to the information display device of the present invention, information to be displayed on the screen can be appropriately determined based on an operation received from the user during editing of a document.

また、本発明の情報表示装置において、対象情報は、ゲームのキャラクタのパラメータであってもよい。この場合、変化部は、取得された操作量に基づいて、パラメータを変化させる。一方、表示情報取得部は、変化されたパラメータを、表示情報として取得する。   In the information display device of the present invention, the target information may be a parameter of a game character. In this case, the changing unit changes the parameter based on the acquired operation amount. On the other hand, the display information acquisition unit acquires the changed parameter as display information.

かかる構成によれば、ゲームのキャラクタのパラメータが操作量に基づいて変化し、変化後のパラメータに基づく画像が画面内に表示される。例えば、格闘ゲームにおいては、ゲームのキャラクタのパラメータは敵キャラクタの体力であり、操作量はユーザの移動操作によって決定される攻撃力である。この場合、敵キャラクタの体力が、攻撃力に応じて減らされる様子が画面内に表示される。   According to this configuration, the parameter of the game character changes based on the operation amount, and an image based on the changed parameter is displayed on the screen. For example, in a fighting game, the parameter of the game character is the physical strength of the enemy character, and the operation amount is the attack power determined by the user's movement operation. In this case, a state in which the physical strength of the enemy character is reduced according to the attack power is displayed on the screen.

本発明の情報表示装置によれば、ユーザがゲームをプレイしている間に、ユーザから受け付けた操作に基づいて、画面内に表示する情報を適切に決定することができる。   According to the information display device of the present invention, information to be displayed on the screen can be appropriately determined based on an operation received from the user while the user is playing the game.

また、本発明の情報表示装置において、検知部は、第1のプレイヤーによる第1の動作と、第2のプレイヤーによる第2の動作と、から上記所定の移動操作を検知してもよい。この場合、上記画面は、上記表示情報と上記軌跡とを表示する第1のディスプレイと、上記表示情報と上記軌跡とを表示する第2のディスプレイと、を有するように構成される。   In the information display device of the present invention, the detection unit may detect the predetermined movement operation from a first action by the first player and a second action by the second player. In this case, the screen is configured to include a first display that displays the display information and the trajectory, and a second display that displays the display information and the trajectory.

つまり、本発明の情報表示装置は、第1のプレイヤーおよび第2のプレイヤーという複数のプレイヤーに対して、検知部および画面というユーザインターフェースを提供してもよい。なお、情報表示装置のシステム構成は、どのようなものであってもよい。例えば、情報表示装置が、第1のプレイヤーによる第1の動作から上記所定の移動操作を検知するとともに第1のプレイヤーに対して上記表示情報と上記軌跡とを表示する第1のタッチスクリーンと、第2のプレイヤーによる第2の動作から上記所定の移動操作を検知するとともに第2のプレイヤーに対して上記表示情報と上記軌跡とを表示する第2のタッチスクリーンと、を備える構成とすることができる。   That is, the information display device of the present invention may provide a user interface including a detection unit and a screen to a plurality of players, that is, a first player and a second player. Note that the system configuration of the information display apparatus may be anything. For example, the information display device detects the predetermined movement operation from the first movement by the first player and displays the display information and the trajectory on the first player; And a second touch screen that detects the predetermined movement operation from the second action by the second player and displays the display information and the trajectory to the second player. it can.

なお、第1のタッチスクリーンや第2のタッチスクリーンと情報表示装置本体とは、ケーブルを使用した有線通信により接続されてもよいし、無線LANを使用した無線通信により接続されてもよい。無線通信では、例えば、インフラストラクチャモードによる通信もしくはアドホックモードによる通信が可能である。   Note that the first touch screen, the second touch screen, and the information display device main body may be connected by wired communication using a cable, or may be connected by wireless communication using a wireless LAN. In wireless communication, for example, communication in infrastructure mode or communication in ad hoc mode is possible.

ここで、第1のディスプレイと第2のディスプレイとには、第1の動作もしくは第2の動作から検知された移動操作のうち最後に検知された移動操作の軌跡が表示される。そして、表示された軌跡により表される移動操作と類似する移動操作が、第1の動作もしくは第2の動作から検知される毎に、上述の操作量が増大していく。   Here, on the first display and the second display, the trajectory of the last detected movement operation among the movement operations detected from the first operation or the second operation is displayed. Each time a movement operation similar to the movement operation represented by the displayed trajectory is detected from the first action or the second action, the amount of operation described above increases.

本発明の情報表示装置によれば、複数のユーザから受け付けた操作に基づいて、画面内に表示する情報を適切に決定することができる。   According to the information display device of the present invention, information to be displayed in the screen can be appropriately determined based on operations received from a plurality of users.

上記目的を達成するために、本発明のその他の観点に係るゲーム制御方法は、検知部、操作量取得部、変化部、表示情報取得部、表示部を備える情報表示装置が実行する情報表示方法であって、検知工程、操作量取得工程、変化工程、表示情報取得工程、表示工程を備え、以下のように構成する。   In order to achieve the above object, a game control method according to another aspect of the present invention includes an information display method executed by an information display device including a detection unit, an operation amount acquisition unit, a change unit, a display information acquisition unit, and a display unit. In addition, a detection process, an operation amount acquisition process, a change process, a display information acquisition process, and a display process are provided and configured as follows.

まず、検知工程では、検知部が、ユーザの動作から所定の移動操作を検知する。つまり、ユーザは、現実空間において身体の所定の部位を動かすことによって、情報表示装置に移動操作を与える。一方、検知部は、例えば、現実空間におけるユーザの身体の所定の部位(以下、「注目部位」という。)の位置を所定周期毎に監視することにより、移動操作を検知する。なお、注目部位の位置は、例えば、現実空間における直交座標で表される。また、移動操作は、例えば、注目部位の位置とこの注目部位の位置の検知時刻との組の集合により表される。   First, in a detection process, a detection part detects predetermined | prescribed movement operation from a user's operation | movement. That is, the user gives a movement operation to the information display device by moving a predetermined part of the body in the real space. On the other hand, for example, the detection unit detects a moving operation by monitoring the position of a predetermined part of the user's body (hereinafter referred to as “target part”) in the real space at predetermined intervals. Note that the position of the region of interest is represented by, for example, orthogonal coordinates in the real space. Further, the moving operation is represented by a set of a set of the position of the attention site and the detection time of the position of the attention site, for example.

そして、操作量取得工程では、操作量取得部は、検知された移動操作の軌跡の長さもしくは速度から、対象情報に対する操作量を取得する。なお、検知された移動操作の軌跡の長さは、検知された注目部位の位置の軌跡の長さである。また、検知された移動操作の速度は、検知された注目部位の位置が移動する速度である。ここで、移動操作の軌跡の長さや速度は、注目部位の位置とこの注目部位の位置の検知時刻との組の集合から求められる。例えば、移動操作の軌跡が線分に近い形状であり、移動操作の速度がほぼ一定である場合、移動操作の軌跡の長さと速度とを以下のように近似することができる。つまり、検知時刻が最も早い注目部位の位置から検知時刻が最も遅い注目部位の位置までの長さを、移動操作の軌跡の長さと近似する。また、移動操作の軌跡の長さを、最も早い検知時刻から最も遅い検知時刻までの経過時間で除算した値を、移動操作の速度と近似する。   In the operation amount acquisition step, the operation amount acquisition unit acquires the operation amount for the target information from the detected length or speed of the trajectory of the moving operation. The detected length of the trajectory of the movement operation is the length of the detected trajectory of the position of the target region. Further, the detected speed of the moving operation is a speed at which the detected position of the target region moves. Here, the length and speed of the trajectory of the movement operation are obtained from a set of a set of the position of the attention site and the detection time of the position of the attention site. For example, when the trajectory of the moving operation has a shape close to a line segment and the speed of the moving operation is substantially constant, the length and speed of the trajectory of the moving operation can be approximated as follows. That is, the length from the position of the target region with the earliest detection time to the position of the target region with the latest detection time is approximated to the length of the trajectory of the movement operation. Further, a value obtained by dividing the length of the trajectory of the moving operation by the elapsed time from the earliest detection time to the latest detection time is approximated with the speed of the movement operation.

ここで、操作量取得工程では、操作量取得部は、移動操作の軌跡の長さ、移動操作の速度、もしくは、その両方から、対象情報に対する操作量を取得する。ここで対象情報は、操作対象のパラメータである。例えば、ナビゲーション装置の場合、操作対象のパラメータは、画面に表示される地図の範囲を表すパラメータである。この場合、対象情報に対する操作量は、画面に表示される地図の範囲を表すパラメータに対する操作量であり、例えば、拡大/縮小率、各方向へのスクロール量などである。   Here, in the operation amount acquisition step, the operation amount acquisition unit acquires the operation amount for the target information from the length of the trajectory of the movement operation, the speed of the movement operation, or both. Here, the target information is an operation target parameter. For example, in the case of a navigation device, the operation target parameter is a parameter representing the range of the map displayed on the screen. In this case, the operation amount for the target information is an operation amount for a parameter representing the range of the map displayed on the screen, such as an enlargement / reduction ratio, a scroll amount in each direction, and the like.

なお、移動操作の軌跡の長さ(もしくは、移動操作の速さ)と操作量との関係は適宜調整することができる。例えば、移動操作の軌跡の長さが長いほど、操作量が大きくなるようにすることができる。あるいは、移動操作の速度が速いほど、操作量が大きくなるようにすることができる。   The relationship between the length of the trajectory of the moving operation (or the speed of the moving operation) and the operation amount can be adjusted as appropriate. For example, the operation amount can be increased as the length of the trajectory of the moving operation is longer. Alternatively, the operation amount can be increased as the speed of the moving operation increases.

そして、変化工程では、変化部は、取得された操作量に基づいて、対象情報を変化させる。例えば、ナビゲーション装置の場合、変化部は、取得されたスクロール量に基づいて、画面内に表示される地図の範囲を表すパラメータを変更する。   In the changing process, the changing unit changes the target information based on the acquired operation amount. For example, in the case of a navigation device, the changing unit changes a parameter representing the range of the map displayed on the screen based on the acquired scroll amount.

ここで、表示情報取得工程では、表示情報取得部は、変化後の対象情報に基づいて、画面に表示すべき表示情報を取得する。例えば、ナビゲーション装置の場合、地図全体から、変化部による変更後のパラメータにより指定される範囲の地図を抽出する。   Here, in the display information acquisition step, the display information acquisition unit acquires display information to be displayed on the screen based on the changed target information. For example, in the case of a navigation device, a map in a range specified by a parameter after change by the changing unit is extracted from the entire map.

そして、表示工程では、表示部は、取得された表示情報を画面に表示する。つまり、表示部は、移動操作によって変更された操作対象のパラメータに基づいて生成される画像を画面に表示する。   In the display step, the display unit displays the acquired display information on the screen. That is, the display unit displays an image generated on the screen based on the operation target parameter changed by the moving operation.

ここで、操作量取得工程では、操作量取得部は、以下の(a)および(b)に示すルールに従って、操作量を取得する。   Here, in the operation amount acquisition step, the operation amount acquisition unit acquires the operation amount according to the rules shown in the following (a) and (b).

まず、(a)検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似しない場合、検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を操作量として取得する。   First, (a) when the detected trajectory of the moving operation is not similar to the trajectory of the moving operation detected immediately before the detected moving operation, the length or speed of the detected trajectory of the moving operation is set. A predetermined value associated in advance is acquired as an operation amount.

一方、(b)検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似する場合、検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値より大きい値を操作量として取得する。   On the other hand, if (b) the detected trajectory of the moving operation is similar to the trajectory of the moving operation detected immediately before the detected moving operation, the length or speed of the detected trajectory of the moving operation is set. A value larger than a predetermined value associated in advance is acquired as an operation amount.

検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似するか否かを判別する手法は適宜調整が可能である。   The method for determining whether or not the detected trajectory of the moving operation is similar to the trajectory of the moving operation detected immediately before the detected moving operation can be adjusted as appropriate.

典型的には、2つの移動操作の軌跡の重なり具合が大きい場合、2つの移動操作の軌跡が互いに類似していると判別することができる。例えば、2つの移動操作の軌跡のそれぞれが注目部位の位置の集合により構成される場合、一方の移動操作の軌跡を構成する注目部位の位置の個数に対する、一方の移動操作の軌跡と他方の移動操作の軌跡とで共通する注目部位の位置の個数の割合が所定の閾値以上である場合、2つの移動操作の軌跡が互いに類似すると判別し、当該割合が当該所定の閾値未満である場合、2つの移動操作の軌跡が互いに類似しないと判別することができる。2つの移動操作の軌跡のうちの一方を画面内において平行移動させた上で、このような判別を行っても良い。   Typically, when the degree of overlap between two movement operations is large, it can be determined that the two movement operations are similar to each other. For example, in the case where each of two movement operation trajectories is configured by a set of positions of a target region, the trajectory of one movement operation and the other movement with respect to the number of positions of the target region constituting the trajectory of one movement operation If the ratio of the number of positions of the target region common to the operation trajectory is equal to or greater than a predetermined threshold, it is determined that the trajectories of the two moving operations are similar to each other, and if the ratio is less than the predetermined threshold, 2 It can be determined that the trajectories of the two moving operations are not similar to each other. Such determination may be made after one of the two movement operation trajectories is translated in the screen.

また、検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値をどのように設定するかは適宜調整することが可能である。例えば、ナビゲーション装置の場合、検知された移動操作の軌跡の長さを既定値とすることができる。このように既定値が設定されると、検知された移動操作の軌跡とその直前に検知された移動操作の軌跡とが類似しない場合、検知された移動操作の軌跡の長さがスクロール量として取得される。   In addition, it is possible to appropriately adjust how to set a predetermined value that is associated in advance with the length or speed of the detected trajectory of the moving operation. For example, in the case of a navigation device, the length of the detected trajectory of the moving operation can be set as a default value. When the default value is set in this way, if the detected trajectory of the moving operation and the trajectory of the moving operation detected immediately before are not similar, the length of the detected trajectory of the moving operation is acquired as the scroll amount. Is done.

つまり、検知された移動操作の軌跡とその直前に検知された移動操作の軌跡とが互いに類似する場合、これら2つの移動操作の軌跡が互いに類似しない場合よりも大きな操作量が取得される。例えば、ナビゲーション装置の場合、検知された移動操作の軌跡の長さが既定値に設定されると、検知された移動操作の軌跡とその前に検知された移動操作の軌跡とが類似する場合、検知された移動操作の軌跡の長さよりも長いスクロール量が取得される。   That is, when the detected trajectory of the moving operation and the trajectory of the moving operation detected immediately before are similar to each other, a larger operation amount is acquired than when the trajectories of these two moving operations are not similar to each other. For example, in the case of a navigation device, when the length of the detected movement operation locus is set to a default value, the detected movement operation locus is similar to the movement operation locus detected before, A scroll amount that is longer than the detected length of the trajectory of the movement operation is acquired.

以上説明した構成によれば、直前の移動操作と軌跡が類似する移動操作が行われることにより、1回の移動操作による操作量が大きくなる。このため、比較的少ない回数の移動操作により、ユーザが望む表示状態にすることができる。   According to the configuration described above, the amount of operation by one moving operation is increased by performing a moving operation whose trajectory is similar to the previous moving operation. For this reason, the display state desired by the user can be achieved by a relatively small number of movement operations.

以上説明したように、本発明の情報表示装置によれば、ユーザから受け付けた操作に基づいて、画面内に表示する情報を適切に決定することができる。   As described above, according to the information display device of the present invention, it is possible to appropriately determine information to be displayed on the screen based on an operation received from the user.

本発明の他の観点に係るプログラムは、コンピュータを、上記の情報表示装置の各部として機能させ、または、コンピュータに、上記の情報表示方法の各工程を実行させるように構成する。
また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、デジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、コンピュータとは独立して配布・販売することができる。
A program according to another aspect of the present invention is configured to cause a computer to function as each unit of the above information display device or to cause the computer to execute each step of the above information display method.
The program of the present invention can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory. The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明によれば、ユーザの動作から検知した移動操作に基づいて、画面内に表示する情報を適切に決定するのに好適な情報表示装置、情報表示方法、ならびに、これらをコンピュータにより実現するためのプログラムを提供することができる。   According to the present invention, an information display device and an information display method suitable for appropriately determining information to be displayed on a screen based on a moving operation detected from a user's operation, and for realizing these by a computer Programs can be provided.

本発明の第1の実施形態に係る情報表示装置が実現される典型的な情報処理装置の概要構成を示す模式図である。It is a mimetic diagram showing the outline composition of the typical information processor with which the information display device concerning a 1st embodiment of the present invention is realized. 本発明の第1の実施形態に係る情報表示装置の外観を示す模式図である。It is a mimetic diagram showing appearance of an information display device concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る情報表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information display apparatus which concerns on the 1st Embodiment of this invention. 文書内における注目範囲を示す図である。It is a figure which shows the attention range in a document. 注目範囲が変更される様子を示す図である。It is a figure which shows a mode that an attention range is changed. (a)〜(f)は、軌跡画像の体裁が変化する様子を示す図である。(A)-(f) is a figure which shows a mode that the appearance of a locus | trajectory image changes. 操作量が増加する様子を示す図である。It is a figure which shows a mode that the operation amount increases. 本発明の第1の実施形態に係る情報表示装置が実行する情報表示処理を示すフローチャートである。It is a flowchart which shows the information display process which the information display apparatus which concerns on the 1st Embodiment of this invention performs. 本発明の第2の実施形態に係る情報表示装置が表示する画像を示す図である。It is a figure which shows the image which the information display apparatus which concerns on the 2nd Embodiment of this invention displays. なぞり操作の軌跡と基本攻撃力との関係を示す図である。It is a figure which shows the relationship between the trace of a tracing operation, and basic attack power. 入力時間と倍率との関係を示す図である。It is a figure which shows the relationship between input time and a magnification. 連続入力回数と倍率との関係を示す図である。It is a figure which shows the relationship between the continuous input frequency | count and magnification. 攻撃力を求める計算式を示す図である。It is a figure which shows the calculation formula which calculates | requires attack power. 本発明の第2の実施形態に係る情報表示装置が実行する情報表示処理を示すフローチャートである。It is a flowchart which shows the information display process which the information display apparatus which concerns on the 2nd Embodiment of this invention performs. 地図内における注目範囲を示す図である。It is a figure which shows the attention range in a map. 画面内に軌跡画像が表示されている様子を示す図である。It is a figure which shows a mode that the locus | trajectory image is displayed in the screen. 本発明の第4の実施形態に係る情報表示装置が実現される典型的な情報処理装置の概要構成を示す模式図である。It is a schematic diagram which shows schematic structure of the typical information processing apparatus with which the information display apparatus which concerns on the 4th Embodiment of this invention is implement | achieved. 本発明の第4の実施形態に係る情報処理装置の外観を模式的に表す図である。It is a figure which represents typically the external appearance of the information processing apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る情報表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information display apparatus which concerns on the 4th Embodiment of this invention. ユーザが移動操作を実行している様子を示す図である。It is a figure which shows a mode that the user is performing movement operation. 移動操作の種類と成立条件との関係を示す図である。It is a figure which shows the relationship between the kind of movement operation, and establishment conditions. 連続入力回数と倍率との関係を示す図である。It is a figure which shows the relationship between the continuous input frequency | count and magnification. 移動操作が連続して検知されることによって、仮想カメラの位置および角度が変化する様子を示す図である。It is a figure which shows a mode that the position and angle of a virtual camera change by moving operation being detected continuously. 模範キャラクタを正面から見た様子を示す図である。It is a figure which shows a mode that the model character was seen from the front. 模範キャラクタを正面よりも右側から見た様子を示す図である。It is a figure which shows a mode that the model character was seen from the right side rather than the front. 模範キャラクタを模範キャラクタに向かって右側から見た様子を示す図である。It is a figure which shows a mode that the model character was seen from the right side toward the model character. 模範キャラクタを背面から見た様子を示す図である。It is a figure which shows a mode that the model character was seen from the back. 本発明の第4の実施形態に係る情報表示装置が実行する情報表示処理を示すフローチャートである。It is a flowchart which shows the information display process which the information display apparatus which concerns on the 4th Embodiment of this invention performs. 移動操作検知処理を示すフローチャートである。It is a flowchart which shows a movement operation detection process. 本発明の第5の実施形態に係る情報処理装置の外観を模式的に表す図である。It is a figure which represents typically the external appearance of the information processing apparatus which concerns on the 5th Embodiment of this invention. モニターに特定部位オブジェクトが表示されている様子を示す図である。It is a figure which shows a mode that the specific part object is displayed on the monitor. 本発明の第6の実施形態に係る情報表示システムの構成を示す図である。It is a figure which shows the structure of the information display system which concerns on the 6th Embodiment of this invention. 本発明の第6の実施形態の第1の変形例に係る情報表示システムの構成を示す図である。It is a figure which shows the structure of the information display system which concerns on the 1st modification of the 6th Embodiment of this invention. 本発明の第6の実施形態の第2の変形例に係る情報表示装置が実現される典型的な情報処理装置の概要構成を示す模式図である。It is a schematic diagram which shows schematic structure of the typical information processing apparatus with which the information display apparatus which concerns on the 2nd modification of the 6th Embodiment of this invention is implement | achieved.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、PDA(Personal Data Assistants)とゲーム装置とに本発明が適用される実施形態を説明する。しかしながら、携帯電話などの情報処理装置にも同様に本発明を適用することができる。すなわち、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。ここで、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することができる。従って、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, in order to facilitate understanding, an embodiment in which the present invention is applied to a PDA (Personal Data Assistant) and a game device will be described. However, the present invention can be similarly applied to an information processing apparatus such as a mobile phone. That is, the embodiment described below is for explanation, and does not limit the scope of the present invention. Here, those skilled in the art can adopt an embodiment in which each or all of these elements are replaced with equivalent ones. Therefore, these embodiments are also included in the scope of the present invention.

(第1の実施形態)
(情報処理装置の説明)
図1は、本発明の第1の実施形態に係る情報表示装置が実現される典型的な情報処理装置100の概要構成を示す模式図である。
(First embodiment)
(Description of information processing device)
FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing apparatus 100 in which the information display apparatus according to the first embodiment of the present invention is realized.

情報処理装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、インターフェース104と、入力部105と、メモリカセット106と、画像処理部107と、タッチスクリーン108と、NIC(Network Interface Card)109と、音声処理部110と、マイク111と、スピーカ112と、RTC(Real Time Clock)113と、を備える。   The information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, an input unit 105, a memory cassette 106, and an image processing unit. 107, a touch screen 108, a NIC (Network Interface Card) 109, an audio processing unit 110, a microphone 111, a speaker 112, and an RTC (Real Time Clock) 113.

ワードプロセッサ用のプログラムおよびデータを記憶したメモリカセット106(詳細は後述)がインターフェース104に接続されたスロット(図示せず)に装着されている状態において、情報処理装置100の電源が投入されると、ワードプロセッサ用のプログラムが実行される。これにより、本実施形態に係る情報表示装置が実現される。なお、本実施形態に係る情報表示装置は、ワードプロセッサとして機能する情報表示装置である。   When the information processing apparatus 100 is turned on in a state in which a memory cassette 106 (details will be described later) storing a word processor program and data is mounted in a slot (not shown) connected to the interface 104, A word processor program is executed. Thereby, the information display apparatus according to the present embodiment is realized. Note that the information display device according to the present embodiment is an information display device that functions as a word processor.

CPU 101は、情報処理装置100全体の動作を制御する。CPU 101は、各構成要素と接続され、制御信号やデータをやりとりする。CPU 101は、各構成要素から、各種のデータを取得する。CPU 101は、当該各種のデータを、種々の演算により加工する。CPU 101は、加工結果を示すデータや制御信号を、各構成要素に供給する。CPU 101は、内部にキャッシュやレジスタを備える。CPU 101に取得された各種のデータは、一旦キャッシュに格納される。その後、当該各種のデータは、レジスタに取り出されてから各種の演算が施される。   The CPU 101 controls the overall operation of the information processing apparatus 100. The CPU 101 is connected to each component and exchanges control signals and data. The CPU 101 acquires various data from each component. The CPU 101 processes the various data by various operations. The CPU 101 supplies data indicating a processing result and a control signal to each component. The CPU 101 includes a cache and a register inside. Various data acquired by the CPU 101 is temporarily stored in a cache. Thereafter, the various types of data are extracted into a register and subjected to various operations.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録される。IPLが実行されることにより、メモリカセット106に記録されたプログラムがRAM 103に読み出され、CPU 101によるプログラムの実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムやデータが記録される。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on. By executing the IPL, the program recorded in the memory cassette 106 is read out to the RAM 103, and execution of the program by the CPU 101 is started. The ROM 102 stores operating system programs and data necessary for operation control of the entire information processing apparatus 100.

RAM 103は、データやプログラムを一時的に記憶する。RAM 103には、メモリカセット106から読み出されたプログラムやデータなどが保持される。このほか、RAM 103は、外部機器に伝達する情報や、外部機器から伝達された情報も、一時的に記憶する。   The RAM 103 temporarily stores data and programs. The RAM 103 holds programs and data read from the memory cassette 106. In addition, the RAM 103 temporarily stores information transmitted to the external device and information transmitted from the external device.

インターフェース104は、情報処理装置100にメモリカセット106を接続するためのインターフェースである。   The interface 104 is an interface for connecting the memory cassette 106 to the information processing apparatus 100.

入力部105は、図2に示すコントロールボタンなどであり、ユーザによる指示入力を受け付ける。入力部105は、上、右、下、もしくは、左を指定する方向ボタンや、決定ボタンなどから構成される。   The input unit 105 is a control button or the like shown in FIG. 2, and receives an instruction input from the user. The input unit 105 includes direction buttons for designating up, right, down, or left, a determination button, and the like.

メモリカセット106は、インターフェース104を介して、情報処理装置100に着脱自在に接続される。メモリカセット106は、読出し専用のROM領域と、SRAM領域と、を有する。読出し専用のROM領域は、ワードプロセッサ用のプログラムおよび当該プログラムで使用する画像データや音声データなどが記憶される領域である。SRAM領域は、文書編集結果などのデータがセーブされる領域である。CPU 101は、メモリカセット106に対する読み出し処理を行って、必要なプログラムやデータを読み出し、読み出したデータをRAM 103等に一時的に記憶する。   The memory cassette 106 is detachably connected to the information processing apparatus 100 via the interface 104. The memory cassette 106 has a read-only ROM area and an SRAM area. The read-only ROM area is an area in which a word processor program and image data and audio data used in the program are stored. The SRAM area is an area where data such as a document editing result is saved. The CPU 101 performs a reading process on the memory cassette 106 to read out necessary programs and data, and temporarily stores the read data in the RAM 103 or the like.

画像処理部107は、メモリカセット106から読み出されたデータを加工する。画像処理部107は、画像演算プロセッサ(図示せず)と、フレームメモリ(図示せず)と、を備える。加工処理は、画像演算プロセッサによって実行される。加工されたデータ(画像情報)はフレームメモリ(図示せず)に記録される。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換される。ビデオ信号に変換された画像情報は、タッチセンサ式のディスプレイ(タッチスクリーン108)へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 107 processes the data read from the memory cassette 106. The image processing unit 107 includes an image arithmetic processor (not shown) and a frame memory (not shown). The processing is executed by an image arithmetic processor. The processed data (image information) is recorded in a frame memory (not shown). The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing. The image information converted into the video signal is output to a touch sensor type display (touch screen 108). Thereby, various image displays are possible.

画像演算プロセッサは、2次元の画像の重ね合わせ演算、αブレンディング等の透過演算、ならびに、各種の飽和演算などを高速に実行する。また、画像演算プロセッサは、レンダリング画像を得る演算の高速実行も可能である。レンダリング画像は、所定の視点位置から三次元仮想空間に配置されたポリゴンを俯瞰した様子を表す画像である。レンダリング画像は、ポリゴン情報を、Zバッファ法によりレンダリングすることにより生成される。なお、ポリゴン情報は、三次元仮想空間に配置され、各種のテクスチャが付加されたポリゴンを表す情報である。画像演算プロセッサは、点光源や平行光源、円錐光源などの典型的な(正)光源によってポリゴンが照らされる度合を計算する機能を有する。これらの機能は、ライブラリ化もしくはハードウェア化されている。これにより、これらの計算の高速化が実現されている。   The image calculation processor executes a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed. In addition, the image arithmetic processor can also execute a calculation for obtaining a rendered image at high speed. The rendering image is an image representing a state where a polygon placed in the three-dimensional virtual space is looked down from a predetermined viewpoint position. The rendered image is generated by rendering polygon information by the Z buffer method. The polygon information is information representing a polygon arranged in a three-dimensional virtual space and to which various textures are added. The image arithmetic processor has a function of calculating the degree to which a polygon is illuminated by a typical (positive) light source such as a point light source, a parallel light source, or a cone light source. These functions are made into a library or hardware. Thereby, speeding up of these calculations is realized.

さらに、画像演算プロセッサは、文字の形状を定義するフォント情報にしたがって、文字列を、2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画したりする。画像演算プロセッサは、ROM 102に記録されている一般的なフォント情報を利用しても良いし、メモリカセット106に記録されている専用のフォント情報を利用してもよい。なお、画像演算プロセッサは、適宜、CPU 101と協調動作して、上述した各種の処理を実行する。   Further, the image arithmetic processor draws the character string as a two-dimensional image on the frame memory or draws it on the surface of each polygon in accordance with the font information defining the character shape. The image arithmetic processor may use general font information recorded in the ROM 102, or may use dedicated font information recorded in the memory cassette 106. Note that the image arithmetic processor appropriately performs the various processes described above in cooperation with the CPU 101.

タッチスクリーン108は、タッチセンサを重畳して構成される液晶パネルである。タッチスクリーン108は、ユーザが指もしくはタッチペンなどによって押圧した位置に応じた位置情報を検知し、CPU 101へ入力する。つまり、タッチスクリーン108は、入力部105と同様、ユーザからの指示入力を受け付ける。タッチスクリーン108は、例えば、図2に示すように、情報処理装置100の前面の中央部に配置される。   The touch screen 108 is a liquid crystal panel configured by overlapping touch sensors. The touch screen 108 detects position information corresponding to the position pressed by the user with a finger or a touch pen, and inputs the position information to the CPU 101. That is, the touch screen 108 accepts an instruction input from the user, like the input unit 105. For example, as shown in FIG. 2, the touch screen 108 is disposed at the center of the front surface of the information processing apparatus 100.

なお、入力部105やタッチスクリーン108を介してユーザにより入力された指示に応じて、RAM 103に一時的に記憶されたデータを適宜メモリカセット106に記憶することができる。   Note that data temporarily stored in the RAM 103 can be appropriately stored in the memory cassette 106 in accordance with an instruction input by the user via the input unit 105 or the touch screen 108.

NIC 109は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものである。NIC 109は、例えば、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格に従うインターフェース(図示せず)により構成される。あるいは、NIC 109は、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integraged Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line Modem)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、CPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 109 is for connecting the information processing apparatus 100 to a computer communication network (not shown) such as the Internet. The NIC 109 is configured by, for example, an interface (not shown) that conforms to the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). Alternatively, the NIC 109 uses an analog modem to connect to the Internet using a telephone line, an ISDN (Integrated Services Digital Network) modem, an ADSL (Asymmetric Digital Subscriber Modem) modem, or a cable television line to connect to the Internet. For example, and an interface (not shown) that mediates between the CPU 101 and the like.

情報処理装置100は、NIC 109を介してインターネット内のSNTPサーバに接続し、SNTPサーバから情報を取得することによって、現在の日時情報を得ることもできる。   The information processing apparatus 100 can obtain current date and time information by connecting to an SNTP server in the Internet via the NIC 109 and acquiring information from the SNTP server.

音声処理部110は、メモリカセット106から読み出した音声データをアナログ音声信号に変換する。音声処理部110は、音声処理部110に接続されたスピーカ112にアナログ音声信号を供給し、当該アナログ音声信号に基づく音声をスピーカに出力させる。また、音声処理部110は、CPU 101の制御の下、文書の編集中に発生させるべき効果音を生成し、これに対応した音声をスピーカ112から出力させる。   The audio processing unit 110 converts the audio data read from the memory cassette 106 into an analog audio signal. The audio processing unit 110 supplies an analog audio signal to the speaker 112 connected to the audio processing unit 110, and causes the speaker to output audio based on the analog audio signal. In addition, the sound processing unit 110 generates sound effects to be generated during document editing under the control of the CPU 101 and outputs sound corresponding to the sound effects from the speaker 112.

音声処理部110は、メモリカセット106に記録された音声データがMIDIデータである場合には、これが有する音源データを参照して、MIDIデータをPCMデータに変換する。また、音声処理部110は、メモリカセット106に記録された音声データがADPCM(Adaptive Differential Pulse Code Modulation)形式やOgg Vorbis形式等の圧縮済音声データである場合には、これを展開してPCMデータに変換する。PCMデータは、そのサンプリング周波数に応じたタイミングでD/A(Digital/Analog)変換されて、スピーカ112などに出力されることにより、音声出力が実現される。   When the audio data recorded in the memory cassette 106 is MIDI data, the audio processing unit 110 refers to the sound source data included in the audio data and converts the MIDI data into PCM data. In addition, when the audio data recorded in the memory cassette 106 is compressed audio data in the ADPCM (Adaptive Differential Pulse Code Modulation) format or the Ogg Vorbis format, the audio processing unit 110 expands the PCM data. Convert to The PCM data is D / A (Digital / Analog) converted at a timing corresponding to the sampling frequency and output to the speaker 112 or the like, thereby realizing voice output.

また、音声処理部110は、マイク111から入力されたアナログ信号を適当なサンプリング周波数でA/D(Analog/Digital)変換を行い、PCM形式のデジタル信号を生成する。   The audio processing unit 110 performs A / D (Analog / Digital) conversion on the analog signal input from the microphone 111 at an appropriate sampling frequency, and generates a digital signal in the PCM format.

マイク111は、音声をアナログ信号に変換し、変換により得られたアナログ信号を音声処理部に供給する。マイク111は、例えば、図2に示すように、情報処理装置100の前面の端部に配置される。   The microphone 111 converts sound into an analog signal and supplies the analog signal obtained by the conversion to the sound processing unit. For example, as illustrated in FIG. 2, the microphone 111 is disposed at the front end of the information processing apparatus 100.

スピーカ112は、音声処理部110から供給されたアナログ信号を音声に変換して出力する。スピーカ112は、例えば、図2に示すように、情報処理装置100の前面の端部に配置される。   The speaker 112 converts the analog signal supplied from the sound processing unit 110 into sound and outputs the sound. For example, as shown in FIG. 2, the speaker 112 is disposed at the front end of the information processing apparatus 100.

RTC 113は、水晶振動子や発振回路などを備える計時用のデバイスである。RTC 113は、内蔵電池から電源を供給され、情報処理装置100の電源がオフのときでも動作し続ける。   The RTC 113 is a timekeeping device including a crystal resonator and an oscillation circuit. The RTC 113 is supplied with power from the built-in battery, and continues to operate even when the information processing apparatus 100 is powered off.

このほか、情報処理装置100はメモリカセット106に替えて、DVD−ROMからプログラムやデータを読み出す、DVD−ROMドライブを備えるように構成して、DVD−ROMにメモリカセット106と同様の機能を持たせるようにしてもよい。また、インターフェース104は、メモリカセット106以外の外部メモリ媒体からデータを読み出すように構成してもよい。あるいは、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、メモリカセット106等と同じ機能を果たすように構成してもよい。   In addition, the information processing apparatus 100 includes a DVD-ROM drive that reads programs and data from a DVD-ROM instead of the memory cassette 106, and the DVD-ROM has the same function as the memory cassette 106. You may make it let. The interface 104 may be configured to read data from an external memory medium other than the memory cassette 106. Alternatively, the information processing apparatus 100 may be configured to perform the same function as the ROM 102, the RAM 103, the memory cassette 106, and the like using a large-capacity external storage device such as a hard disk.

(情報表示装置の説明)
次に、本実施形態に係る情報表示装置300の機能について、図面を参照して説明する。まず、図3を参照して、本発明の実施形態に係る情報表示装置300の構成を説明する。なお、インターフェース104にメモリカセット106が装着されている状態において、情報処理装置100の電源が投入されると、本実施形態に係る情報表示装置300が構成される。
(Description of information display device)
Next, functions of the information display apparatus 300 according to the present embodiment will be described with reference to the drawings. First, the configuration of the information display apparatus 300 according to the embodiment of the present invention will be described with reference to FIG. Note that, when the information processing apparatus 100 is turned on while the memory cassette 106 is attached to the interface 104, the information display apparatus 300 according to the present embodiment is configured.

図3に示すように、情報表示装置300は、検知部301と、操作量取得部302と、変化部303と、表示情報取得部304と、表示部305と、を備える。   As illustrated in FIG. 3, the information display device 300 includes a detection unit 301, an operation amount acquisition unit 302, a change unit 303, a display information acquisition unit 304, and a display unit 305.

検知部301は、画面に対するなぞり操作を検知する。なぞり操作は、例えば、ユーザの指先やタッチペンのペン先が画面上に接している状態で、指先やペン先が画面上を移動する操作である。検知部301は、例えば、画面上における指先やペン先のタッチ位置を検知することにより、なぞり操作を検知する。検知部301は、例えば、タッチスクリーン108により構成される。   The detection unit 301 detects a tracing operation on the screen. The tracing operation is, for example, an operation in which the fingertip or the pen tip moves on the screen while the user's fingertip or the pen tip of the touch pen is in contact with the screen. The detection unit 301 detects the tracing operation by detecting the touch position of the fingertip or the pen tip on the screen, for example. The detection unit 301 is configured by the touch screen 108, for example.

操作量取得部302は、検知されたなぞり操作の軌跡の長さもしくは速度から、対象情報に対する操作量を取得する。対象情報は、例えば、文書内における注目範囲の位置である。ここで、注目範囲は、文書全体のうち、ユーザが注目する範囲であり、画面内に表示される範囲である。本実施形態では、操作量は、スクロール量である。操作量取得部302は、例えば、CPU 101により構成される。   The operation amount acquisition unit 302 acquires the operation amount for the target information from the detected length or speed of the tracing operation. The target information is, for example, the position of the attention range in the document. Here, the attention range is a range in which the user pays attention to the entire document and is a range displayed on the screen. In the present embodiment, the operation amount is a scroll amount. The operation amount acquisition unit 302 is configured by the CPU 101, for example.

変化部303は、取得された操作量に基づいて、対象情報を変化させる。例えば、変化部303は、スクロール量に基づいて、文書内における注目範囲の位置を変化させる。変化部303は、例えば、CPU 101により構成される。   The changing unit 303 changes the target information based on the acquired operation amount. For example, the changing unit 303 changes the position of the range of interest in the document based on the scroll amount. The change unit 303 is configured by the CPU 101, for example.

表示情報取得部304は、変化後の対象情報に基づいて、画面に表示すべき表示情報を取得する。例えば、表示情報取得部304は、変化後の注目範囲の位置に基づいて、スクロール後に画面に表示されるべき表示情報を取得する。表示情報取得部304は、例えば、CPU 101により構成される。   The display information acquisition unit 304 acquires display information to be displayed on the screen based on the target information after the change. For example, the display information acquisition unit 304 acquires display information to be displayed on the screen after scrolling based on the position of the attention range after the change. The display information acquisition unit 304 is configured by the CPU 101, for example.

表示部305は、検知されたなぞり操作のうち最後に検知されたなぞり操作の軌跡と、取得された表示情報と、を画面に表示する。かかる構成によれば、例えば、ユーザは、編集中の文書の一部を確認しながら、最後になしたなぞり操作がどのような軌跡を描いたかを確認することができる。表示部305は、例えば、CPU 101と画像処理部107とタッチスクリーン108とにより構成される。   The display unit 305 displays the trace of the last detected tracing operation among the detected tracing operations and the acquired display information on the screen. According to such a configuration, for example, the user can confirm what locus the last tracing operation has drawn while confirming a part of the document being edited. The display unit 305 includes, for example, a CPU 101, an image processing unit 107, and a touch screen 108.

ここで、操作量取得部302は、検知されたなぞり操作のうち最後に検知されたなぞり操作の軌跡と、当該最後に検知されたなぞり操作の直前に検知されたなぞり操作の軌跡とが、類似するか否かによって、場合分けして、以下に示す処理を実行する。   Here, the operation amount acquisition unit 302 is similar in that the trajectory of the last detected tracing operation among the detected tracing operations is similar to the trajectory of the tracing operation detected immediately before the last detected tracing operation. Depending on whether or not, the following processing is executed for each case.

すなわち、操作量取得部302は、(a)これらの軌跡が互いに類似しない場合、最後に検知されたなぞり操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を操作量として取得する。   That is, (a) when these trajectories are not similar to each other, the operation amount acquisition unit 302 acquires, as the operation amount, a predetermined value that is associated in advance with the length or speed of the trajectory of the last detected tracing operation.

一方、操作量取得部302は、(b)これらの軌跡が互いに類似する場合、最後に検知されたなぞり操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値より大きい値を操作量として取得する。   On the other hand, the operation amount acquisition unit 302 (b) acquires, as an operation amount, a value larger than a predetermined value associated in advance with the length or speed of the trajectory of the last detected tracing operation when these trajectories are similar to each other. To do.

つまり、操作量取得部302は、最新の2つのなぞり操作の軌跡が互いに一致する場合、これらの軌跡が互いに一致しない場合に取得する操作量よりも大きな値の操作量を取得する。なお、これらの軌跡が互いに一致しない場合に取得される操作量は、最後に検知されたなぞり操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値となる。この既定値は、例えば、最後に検知されたなぞり操作の軌跡の長さが長いほど大きな値になるように設定され、この軌跡の長さが短いほど小さな値になるように設定される。あるいは、この既定値は、このなぞり操作の速度が速いほど大きな値になるように設定され、このなぞり操作の速度が遅いほど小さな値になるように設定される。   That is, the operation amount acquisition unit 302 acquires an operation amount having a value larger than the operation amount acquired when the two latest tracing operation trajectories coincide with each other when the trajectories do not coincide with each other. It should be noted that the operation amount acquired when these trajectories do not match each other is a predetermined value that is associated in advance with the length or speed of the trajectory of the last detected tracing operation. This default value is set, for example, such that it becomes larger as the length of the trajectory of the last detected tracing operation becomes longer, and is set so as to become smaller as the length of this locus becomes shorter. Alternatively, the default value is set so as to increase as the speed of the tracing operation increases, and to decrease as the speed of the tracing operation decreases.

次に、本実施形態に係る情報表示装置300において、軌跡が互いに類似するなぞり操作が連続して実行されることにより、1回のなぞり操作に対応する操作量を増加させる手法について説明する。なお、本実施形態では、ワードプロセッサにおける文書の編集中に、タッチスクリーン108に対してなぞり操作がなされると、タッチスクリーン108に表示される画像が、なぞり操作に基づいて決定される操作量に基づいてスクロールされる例について説明する。   Next, in the information display apparatus 300 according to the present embodiment, a method for increasing the amount of operation corresponding to one tracing operation by continuously performing tracing operations with similar trajectories will be described. In the present embodiment, when a drag operation is performed on the touch screen 108 while editing a document in the word processor, an image displayed on the touch screen 108 is based on an operation amount determined based on the trace operation. An example of scrolling will be described.

ここで、本実施形態では、この操作量は、なぞり操作の軌跡の長さに基づいて決定されるものとする。つまり、操作量は、基本的には、なぞり操作の軌跡の長さが長いほど大きく、なぞり操作の軌跡の長さが短いほど小さい。   Here, in the present embodiment, this operation amount is determined based on the length of the trajectory of the tracing operation. In other words, the operation amount is basically larger as the length of the tracing operation trajectory is longer, and is smaller as the tracing operation trajectory is shorter.

まず、図4を参照して、情報表示装置300により文書情報が表示される様子について説明する。   First, the manner in which document information is displayed by the information display device 300 will be described with reference to FIG.

情報表示装置300は、前面にタッチスクリーン108を備える。文書のサイズが大きい場合、文書全体を同時にこのタッチスクリーン108に表示しようとすると、表示される画像が小さくなりすぎてしまう。そこで、タッチスクリーン108には、文書全体のうち、一部の文書が表示されることが望ましい。ここで、文書全体のうち、タッチスクリーン108に表示される文書の範囲を、注目範囲という。図4には、文書全体を表す文書401のうち、注目範囲402の内容(文書)が、タッチスクリーン108に表示される様子を示している。   The information display device 300 includes a touch screen 108 on the front surface. When the size of the document is large, if the entire document is displayed on the touch screen 108 at the same time, the displayed image becomes too small. Therefore, it is desirable that a part of the entire document is displayed on the touch screen 108. Here, of the entire document, the range of the document displayed on the touch screen 108 is referred to as an attention range. FIG. 4 shows a state in which the content (document) of the attention range 402 of the document 401 representing the entire document is displayed on the touch screen 108.

注目範囲402は、例えば、タッチスクリーン108に表示される先頭の行の番号(以下「表示開始行番号」という。)Psttにより特定される。この表示開始行番号Psttは、例えば、タッチスクリーン108に対して、縦方向(長手方向)のなぞり操作が受け付けられると変更される。つまり、タッチスクリーン108に対する縦方向のなぞり操作が受け付けられると、タッチスクリーン108に表示される文書がスクロールする。なお、本実施形態では、タッチスクリーン108に表示される文書の行数が固定(10行)であり、表示開始行番号Psttが決定されると、注目範囲が特定されるものとする。   The attention range 402 is specified by, for example, the number of the first line displayed on the touch screen 108 (hereinafter referred to as “display start line number”) Pst. The display start line number Pstt is changed when, for example, a vertical (longitudinal) tracing operation is accepted on the touch screen 108. That is, when a vertical tracing operation on the touch screen 108 is accepted, the document displayed on the touch screen 108 scrolls. In the present embodiment, the number of lines of the document displayed on the touch screen 108 is fixed (10 lines), and when the display start line number Pst is determined, the attention range is specified.

次に、図5を参照して、縦方向のなぞり操作によりタッチスクリーン108に表示される画像がスクロールされる様子について説明する。   Next, with reference to FIG. 5, how the image displayed on the touch screen 108 is scrolled by a vertical tracing operation will be described.

タッチスクリーン108と指410との位置関係が、図4に示す状態から図5に示す状態になるように、1回目のなぞり操作がなされたとする。このなぞり操作により、タッチスクリーン108に対する指410の位置が、図5における上方に距離L1だけ移動したものとする。このとき、表示開始行番号Psttは、距離L1にあらかじめ対応付けられているスクロール量S0だけ増加する。なお、図5においては、なぞり操作が検知される前の注目範囲402と指410とを破線で示し、なぞり操作が検知された後の注目範囲402と指410とを実線で示している。   Assume that the first tracing operation is performed so that the positional relationship between the touch screen 108 and the finger 410 changes from the state illustrated in FIG. 4 to the state illustrated in FIG. 5. It is assumed that the position of the finger 410 with respect to the touch screen 108 is moved upward by a distance L1 in FIG. 5 by this tracing operation. At this time, the display start line number Pstt is increased by the scroll amount S0 associated in advance with the distance L1. In FIG. 5, the attention range 402 and the finger 410 before the tracing operation is detected are indicated by broken lines, and the attention range 402 and the finger 410 after the tracing operation is detected are indicated by solid lines.

ここで、なぞり操作が検知された後、このなぞり操作の軌跡を表す画像(以下「軌跡画像」という。)が、タッチスクリーン108に表示される。ここで、本実施形態では、軌跡が互いに類似するなぞり操作が連続して実行されると、タッチスクリーン108に表示される軌跡画像の体裁が変化する。ここで、直前のなぞり操作が検知されてから猶予時間が経過する前に次のなぞり操作が検知される場合、これらのなぞり操作が連続して実行されたとみなす。   Here, after the tracing operation is detected, an image representing the locus of the tracing operation (hereinafter referred to as “trajectory image”) is displayed on the touch screen 108. Here, in this embodiment, the appearance of the trajectory image displayed on the touch screen 108 changes when the tracing operations having similar trajectories are continuously executed. Here, when the next tracing operation is detected before the grace period elapses after the previous tracing operation is detected, it is considered that these tracing operations are continuously executed.

図6(a)〜(f)には、軌跡が互いに類似するなぞり操作が連続して3回実行され、3回目のなぞり操作の軌跡を表す軌跡画像600がタッチスクリーン108に表示された後、所定の猶予時間が経過してから、1〜3回目のなぞり操作のそれぞれと軌跡が類似する4回目のなぞり操作が検知された例を示す。図6(a)は、なぞり操作前のタッチスクリーン108aを示す図である。図6(b)は、1回目のなぞり操作直後のタッチスクリーン108bを示す図である。図6(c)は、2回目のなぞり操作直後のタッチスクリーン108cを示す図である。図6(d)は、3回目のなぞり操作直後のタッチスクリーン108dを示す図である。図6(e)は、3回目のなぞり操作から猶予時間が経過したときのタッチスクリーン108eを示す図である。図6(f)は、4回目のなぞり操作直後のタッチスクリーン108fを示す図である。なお、タッチスクリーン108a〜fを総称して、適宜、タッチスクリーン108とする。   In FIGS. 6A to 6F, after the tracing operation similar to each other is performed three times in succession, the locus image 600 representing the locus of the third tracing operation is displayed on the touch screen 108, An example is shown in which a fourth tracing operation having a similar trajectory to each of the first to third tracing operations has been detected after a predetermined grace period has elapsed. FIG. 6A is a diagram showing the touch screen 108a before the tracing operation. FIG. 6B is a diagram showing the touch screen 108b immediately after the first tracing operation. FIG. 6C is a diagram showing the touch screen 108c immediately after the second tracing operation. FIG. 6D is a diagram showing the touch screen 108d immediately after the third tracing operation. FIG. 6E is a diagram showing the touch screen 108e when a grace time has elapsed since the third tracing operation. FIG. 6F illustrates the touch screen 108f immediately after the fourth tracing operation. Note that the touch screens 108a to 108f are collectively referred to as the touch screen 108 as appropriate.

なお、どのような場合に、なぞり操作の軌跡が互いに類似するとみなすかは、適宜調整が可能である。例えば、なぞり操作の軌跡の重なり具合が比較的大きい場合、なぞり操作の軌跡が互いに類似するとみなすことができる。なぞり操作の軌跡の重なり具合は、なぞり操作が検知された際のタッチ位置が、互いにどの程度一致するかにより定めることができる。例えば、1回目のなぞり操作におけるタッチ位置の数をP1、2回目のなぞり操作におけるタッチ位置の数をP2、2回のなぞり操作における共通のタッチ位置の数をP12、として、P12/(P1+P2)が所定の閾値以上の場合に、1回目のなぞり操作と2回目のなぞり操作とが類似すると判別することができる。   Note that it is possible to appropriately adjust in which case the traces of the tracing operation are considered to be similar to each other. For example, when the tracing operation has a relatively large overlap, the tracing operations can be regarded as similar to each other. The degree of overlap of the trace of the tracing operation can be determined by how much the touch positions when the tracing operation is detected match each other. For example, P12 / (P1 + P2) where the number of touch positions in the first tracing operation is P1, the number of touch positions in the first tracing operation is P2, and the number of common touch positions in the second tracing operation is P12. Can be determined that the first tracing operation and the second tracing operation are similar to each other.

あるいは、なぞり操作の軌跡を構成する代表点の座標が、互いに所定の距離以内である場合に、なぞり操作の軌跡が互いに類似していると判定することができる。代表点は、始点、終点、重心、もしくは、中間点などである。なお、中間点は、例えば、始点が検知された時刻と終点が検知された時刻との中間の時刻において接触が検知された点である。   Alternatively, when the coordinates of the representative points constituting the trajectory of the tracing operation are within a predetermined distance from each other, it can be determined that the trajectory of the tracing operation is similar to each other. The representative point is a start point, an end point, a center of gravity, or an intermediate point. The intermediate point is, for example, a point where contact is detected at a time intermediate between the time when the start point is detected and the time when the end point is detected.

まず、図6(a)に示すように、なぞり操作が検知されるまでは、なぞり操作の軌跡を表す軌跡画像600は、タッチスクリーン108aに表示されない。なお、後述する軌跡画像600b、600c、600d、600fを総称して、適宜、軌跡画像600とする。そして、1回目のなぞり操作が検知されると、図6(b)に示すように、この1回目のなぞり操作の軌跡を表す軌跡画像600bがタッチスクリーン108bに表示される。軌跡画像600bは、例えば、最後に検知されたタッチ位置に矢印の頭がくるような矢印を表す画像であって、所定の色、および、所定の太さの矢印により表される画像である。   First, as shown in FIG. 6A, the trajectory image 600 representing the trajectory of the tracing operation is not displayed on the touch screen 108a until the tracing operation is detected. Note that trajectory images 600b, 600c, 600d, and 600f, which will be described later, are collectively referred to as a trajectory image 600 as appropriate. When the first tracing operation is detected, a trajectory image 600b representing the trajectory of the first tracing operation is displayed on the touch screen 108b, as shown in FIG. 6B. The trajectory image 600b is, for example, an image representing an arrow with the head of the arrow at the last detected touch position, and is an image represented by an arrow having a predetermined color and a predetermined thickness.

ここで、1回目のなぞり操作の軌跡を表す軌跡画像600bが表示されてから所定の猶予時間が経過する前に、軌跡画像600bに重なるような2回目のなぞり操作が検知されると、図6(c)に示すように、この2回目のなぞり操作の軌跡を表す軌跡画像600cがタッチスクリーン108cに表示される。2回目のなぞり操作の軌跡を表す軌跡画像600cは、1回目のなぞり操作の軌跡を表す軌跡画像600bとは異なる体裁で表示される。例えば、2回目のなぞり操作の軌跡を表す軌跡画像600cは、1回目のなぞり操作の軌跡を表す軌跡画像600bよりも太い矢印により表される。   Here, when a second tracing operation that overlaps the locus image 600b is detected before a predetermined grace period elapses after the locus image 600b representing the locus of the first tracing operation is displayed, FIG. As shown in (c), a trajectory image 600c representing the trajectory of the second tracing operation is displayed on the touch screen 108c. The trajectory image 600c representing the trajectory of the second tracing operation is displayed in a different form from the trajectory image 600b representing the trajectory of the first tracing operation. For example, the trajectory image 600c representing the trajectory of the second tracing operation is represented by a thicker arrow than the trajectory image 600b representing the trajectory of the first tracing operation.

同様に、2回目のなぞり操作の軌跡を表す軌跡画像600cが表示されてから所定の猶予時間が経過する前に、軌跡画像600cに重なるような3回目のなぞり操作が検知されると、図6(d)に示すように、この3回目のなぞり操作の軌跡を表す軌跡画像600dがタッチスクリーン108dに表示される。3回目のなぞり操作の軌跡を表す軌跡画像600dは、2回目のなぞり操作の軌跡を表す軌跡画像600cとは異なる体裁で表示される。例えば、3回目のなぞり操作の軌跡を表す軌跡画像600dは、2回目のなぞり操作の軌跡を表す軌跡画像600cよりも太い矢印により表される。   Similarly, when a third tracing operation that overlaps the locus image 600c is detected before a predetermined grace period elapses after the locus image 600c representing the locus of the second tracing operation is displayed, FIG. As shown in (d), a trajectory image 600d representing the trajectory of the third tracing operation is displayed on the touch screen 108d. The trajectory image 600d representing the trajectory of the third tracing operation is displayed in a different form from the trajectory image 600c representing the trajectory of the second tracing operation. For example, the trajectory image 600d representing the trajectory of the third tracing operation is represented by a thicker arrow than the trajectory image 600c representing the trajectory of the second tracing operation.

このように、最後に検知されたなぞり操作の軌跡が、その直前に検知されたN(ただし、Nは自然数)個のなぞり操作の軌跡のそれぞれと類似する場合、最後に検知されたなぞり操作の軌跡をタッチスクリーン108に表示する体裁は、Nに基づいて定められる。本実施形態では、Nが大きいほど、太い矢印を表す軌跡画像600が表示される。従って、軌跡が互いに類似するなぞり操作が、猶予時間よりも短い間隔で連続して検知されると、より太い矢印を表す軌跡画像600がタッチスクリーン108に表示されるようになる。   In this way, when the trajectory of the last detected tracing operation is similar to each of the N tracing operations detected immediately before (where N is a natural number), the tracing operation last detected is the same. The appearance of displaying the locus on the touch screen 108 is determined based on N. In the present embodiment, as N is larger, a trajectory image 600 representing a thick arrow is displayed. Accordingly, when tracing operations having similar trajectories are continuously detected at intervals shorter than the grace period, a trajectory image 600 representing a thicker arrow is displayed on the touch screen 108.

ただし、軌跡画像600がタッチスクリーン108に表示された後、新たななぞり操作が検知されないまま所定の猶予時間が経過すると、軌跡画像600はタッチスクリーン108から消去される。図6(e)には、3回目のなぞり操作の軌跡を表す軌跡画像600dがタッチスクリーン108dに表示された後、4回目のなぞり操作が検知されないまま猶予時間が経過して、3回目のなぞり操作の軌跡を表す軌跡画像600dがタッチスクリーン108dから消去された例を示している。   However, after the trajectory image 600 is displayed on the touch screen 108, the trajectory image 600 is deleted from the touch screen 108 when a predetermined grace period elapses without detecting a new tracing operation. In FIG. 6E, after the trajectory image 600d representing the trajectory of the third tracing operation is displayed on the touch screen 108d, the grace time elapses without detecting the fourth tracing operation, and the third tracing operation is performed. In the example, a trajectory image 600d representing an operation trajectory is deleted from the touch screen 108d.

そして、3回目のなぞり操作の軌跡を表す軌跡画像600dがタッチスクリーン108dから消去された後、4回目のなぞり操作が検知されると、図6(f)に示すように、タッチスクリーン108fに4回目のなぞり操作の軌跡を表す軌跡画像600fが表示される。しかし、4回目のなぞり操作の軌跡を表す軌跡画像600fの体裁は、4回目のなぞり操作の軌跡と3回目のなぞり操作の軌跡とが類似する場合であっても、1回目のなぞり操作の軌跡を表す軌跡画像600bと同様の体裁となる。   Then, after the trajectory image 600d representing the trajectory of the third tracing operation is erased from the touch screen 108d, when the fourth tracing operation is detected, 4 is displayed on the touch screen 108f as shown in FIG. A trajectory image 600f representing the trajectory of the second tracing operation is displayed. However, the appearance of the trajectory image 600f representing the trajectory of the fourth tracing operation is the trajectory of the first tracing operation even when the trajectory of the fourth tracing operation is similar to the trajectory of the third tracing operation. Is the same appearance as the trajectory image 600b.

また、最後に検知されたなぞり操作の軌跡が、その直前に検知されたN(ただし、Nは自然数)個のなぞり操作の軌跡のそれぞれと類似する場合、以下の(A)もしくは(B)の値が、スクロール量(操作量)とされる。
(A)正の値域を有する単調増加関数にNを適用した値を既定値に加算した値。
(B)1以上の値域を有する単調増加関数にNを適用した値を既定値に乗算した値。
In addition, when the trajectory of the tracing operation detected last is similar to each of the N tracing operations detected immediately before (where N is a natural number), the following (A) or (B) The value is the scroll amount (operation amount).
(A) A value obtained by adding a value obtained by applying N to a monotonically increasing function having a positive range to a predetermined value.
(B) A value obtained by multiplying a predetermined value by a value obtained by applying N to a monotonically increasing function having a range of 1 or more.

つまり、軌跡が互いに類似するなぞり操作が連続して(猶予時間以上の間隔をおかずに)検知されたときのスクロール量を表す関数をS(N)、単調増加関数をF(N)とすると、自然数であるNについて、以下の式(1)もしくは式(2)を満たす。ここで、S0は、なぞり操作が単発で検知されたときのスクロール量であり、なぞり操作の軌跡の長さL1に対応付けられる規定値である。
(N) = F(N) + S0 (1)
(N) = F(N) × S0 (2)
In other words, if the tracing operation when the tracing operations having similar trajectories are continuously detected (without an interval equal to or longer than the grace time ) , the function indicating the scroll amount is S (N) and the monotonically increasing function is F (N) . For N which is a natural number, the following expression (1) or expression (2) is satisfied. Here, S0 is the scroll amount when the tracing operation is detected in a single shot, and is a specified value associated with the length L1 of the tracing operation trajectory.
S (N) = F (N) + S0 (1)
S (N) = F (N) x S0 (2)

単調増加関数としてどのような関数を採用するかは、適宜調整が可能である。ただし、どのような単調増加関数を採用したとしても、1回のなぞり操作に対応するスクロール量は、軌跡が互いに類似するなぞり操作が連続して検知されると、なぞり操作が検知される毎に増加する。つまり、式(1)と式(2)とは、いずれも、S0<S(1)<S(2)<S(3)・・・であることを意味している。 What function is adopted as the monotonically increasing function can be appropriately adjusted. However, no matter what monotonically increasing function is adopted, the scroll amount corresponding to one tracing operation is determined every time a tracing operation is detected if tracing operations with similar trajectories are detected continuously. To increase. That is, both the formula (1) and the formula (2) mean that S0 <S (1) <S (2) <S (3) .

以下、図7を参照して、1回のなぞり操作に対するスクロール量が変化する様子について説明する。なお、図7は、軌跡が互いに類似するなぞり操作が連続して3回実行され、3回目のなぞり操作の軌跡がタッチスクリーン108に表示された後、所定の猶予時間が経過してから、1〜3回目のなぞり操作のそれぞれと軌跡が類似する4回目のなぞり操作が検知された例を示す。   Hereinafter, with reference to FIG. 7, a state in which the scroll amount with respect to one tracing operation changes will be described. Note that FIG. 7 shows a case where a tracing operation having similar trajectories is executed three times in succession, and after a predetermined grace period has elapsed after the tracing operation trajectory for the third time is displayed on the touch screen 108. An example in which a fourth tracing operation having a locus similar to each of the third tracing operation is detected is shown.

まず、1回目のなぞり操作が検知されると、注目範囲402は、S0だけスクロールする。次に、1回目のなぞり操作が検知された後、猶予期間が経過する前に2回目のなぞり操作が検知されると、注目範囲402は、S(1)だけスクロールする。さらに、2回目のなぞり操作が検知された後、猶予期間が経過する前に3回目のなぞり操作が検知されると、注目範囲402は、S(2)だけスクロールする。ここで、3回目のなぞり操作が検知された後、猶予期間が経過した後に4回目のなぞり操作が検知されると、注目範囲402は、S0だけスクロールする。 First, when the first tracing operation is detected, the attention range 402 is scrolled by S0. Next, after the first tracing operation is detected, if the second tracing operation is detected before the grace period elapses, the attention range 402 is scrolled by S (1) . Furthermore, if the third tracing operation is detected before the grace period elapses after the second tracing operation is detected, the attention range 402 scrolls by S (2) . When the fourth tracing operation is detected after the grace period has elapsed after the third tracing operation is detected, the attention range 402 is scrolled by S0.

このように、最後に検知されたなぞり操作の軌跡を表す軌跡画像600がタッチスクリーン108に表示されている間(最後になぞり操作が検知されてから猶予期間が経過するまでの間)に、最後に検知されたなぞり操作の軌跡と類似する軌跡のなぞり操作が検知されると、1回のなぞり操作に対するスクロール量が増加していく。一方、最後に検知されたなぞり操作の軌跡を表す軌跡画像600がタッチスクリーン108から消去された後(最後になぞり操作が検知されてから猶予期間が経過した後)に、最後に検知されたなぞり操作の軌跡と類似する軌跡のなぞり操作が検知されると、1回のなぞり操作に対するスクロール量は、既定値に戻される。   As described above, while the trajectory image 600 representing the trajectory of the last detected tracing operation is displayed on the touch screen 108 (from when the last tracing operation is detected until the grace period elapses), the last image is displayed. When a tracing operation similar to the tracing operation detected in the step is detected, the scroll amount for one tracing operation increases. On the other hand, after the trajectory image 600 representing the trajectory of the last detected tracing operation is deleted from the touch screen 108 (after the grace period has elapsed since the last tracing operation was detected), the last detected tracing operation is performed. When a tracing operation similar to the operation locus is detected, the scroll amount for one tracing operation is returned to the default value.

次に、本実施形態に係る情報表示装置300の動作について、図8を参照して説明する。図8は、本実施形態に係る情報表示装置300が実行する情報表示処理を示すフローチャートである。なお、図8に示す情報表示処理は、例えば、ワードプロセッサとして機能する情報表示装置300が、編集対象の文書の内容が保存されているファイルのファイル名が指定された後に実行する処理である。   Next, the operation of the information display apparatus 300 according to the present embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing information display processing executed by the information display apparatus 300 according to the present embodiment. Note that the information display process shown in FIG. 8 is a process executed by the information display apparatus 300 functioning as a word processor, for example, after the file name of the file storing the contents of the document to be edited is specified.

まず、CPU 101は、初期化処理を実行する(ステップS101)。ここでは、CPU 101は、タッチスクリーン108に表示される文書の内容が保存されているファイルを、メモリカセット106からRAM 103に読み出すなどの処理を実行する。また、CPU 101は、表示開始行番号Psttを1にセットする。さらに、CPU 101は、後述するタイマカウンタの値を0にクリアする。なお、表示開始行番号Psttやタイマカウンタの値は、RAM 103などに記憶されているものとする。   First, the CPU 101 executes an initialization process (step S101). Here, the CPU 101 executes processing such as reading a file storing the contents of the document displayed on the touch screen 108 from the memory cassette 106 to the RAM 103. Further, the CPU 101 sets the display start line number Pstt to 1. Further, the CPU 101 clears the value of a timer counter described later to zero. It is assumed that the display start line number Pstt and the value of the timer counter are stored in the RAM 103 or the like.

CPU 101は、ステップS101の処理を完了すると、注目範囲の内容をタッチスクリーン108に表示する(ステップS102)。具体的には、CPU 101は、画像処理部110と協働して、RAM 103に読み出したファイルの内容のうち、表示開始行番号Psttにより指定される注目範囲の内容を表す画像を生成し、この画像を表す信号をタッチスクリーン108に供給する。一方、タッチスクリーン108は、供給された信号に基づいて、注目範囲の内容を表示する。ここでは、注目範囲の内容は、1行目から10行目の文書の内容である。   When the CPU 101 completes the process of step S101, the CPU 101 displays the contents of the attention range on the touch screen 108 (step S102). Specifically, the CPU 101 cooperates with the image processing unit 110 to generate an image representing the content of the attention range designated by the display start line number Pst among the content of the file read to the RAM 103, A signal representing this image is supplied to the touch screen 108. On the other hand, the touch screen 108 displays the contents of the attention range based on the supplied signal. Here, the content of the attention range is the content of the document from the first line to the tenth line.

CPU 101は、ステップS102の処理を完了すると、タッチ位置を検知する(ステップS103)。例えば、CPU 101は、タッチスクリーン108から供給される信号に基づいて、タッチ位置を表す座標を取得する。なお、CPU 101は、検知時刻と対応付けてタッチ位置を表す座標をRAM 103などに記憶する。   CPU101 will detect a touch position, if the process of step S102 is completed (step S103). For example, the CPU 101 acquires coordinates representing the touch position based on a signal supplied from the touch screen 108. The CPU 101 stores coordinates representing the touch position in association with the detection time in the RAM 103 or the like.

CPU 101は、ステップS103の処理を完了すると、タイマの値が閾値以上であるか否かを判別する(ステップS104)。なお、このタイマカウンタの値は、後述するステップS111において、軌跡画像600がタッチスクリーン108に表示された時刻からの経過時間を表す。また、このタイマカウンタの値を自動的にカウントアップするタイマカウンタは、後述するステップS112において起動される。そして、この閾値は、タッチスクリーン108に軌跡画像600が表示された時刻から表示が消去される時刻までの時間である猶予時間を表す値である。   When completing the process in step S103, the CPU 101 determines whether or not the timer value is equal to or greater than a threshold value (step S104). Note that the value of the timer counter represents an elapsed time from the time when the trajectory image 600 is displayed on the touch screen 108 in step S111 described later. A timer counter that automatically counts up the value of the timer counter is activated in step S112 described later. This threshold value is a value representing a grace period that is the time from the time when the trajectory image 600 is displayed on the touch screen 108 to the time when the display is erased.

CPU 101は、タイマカウンタの値が閾値以上であると判別すると(ステップS104:YES)、画像処理部110を制御して、タッチスクリーン108に表示している軌跡画像600を消去する(ステップS105)。   When the CPU 101 determines that the value of the timer counter is equal to or greater than the threshold (step S104: YES), the CPU 101 controls the image processing unit 110 to erase the trajectory image 600 displayed on the touch screen 108 (step S105). .

CPU 101は、タイマカウンタの値が閾値以上ではないと判別した場合(ステップS104:NO)、もしくは、ステップS105の処理を完了した場合、なぞり操作があったか否かを判別する(ステップS106)。CPU 101は、例えば、検知時刻と対応付けられてRAM 103に記憶されている、タッチ位置を表す座標に基づいて、なぞり操作があったか否かを判別する。   When the CPU 101 determines that the value of the timer counter is not equal to or greater than the threshold (step S104: NO), or when the process of step S105 is completed, the CPU 101 determines whether a tracing operation has been performed (step S106). For example, the CPU 101 determines whether or not there has been a stroking operation based on the coordinates representing the touch position stored in the RAM 103 in association with the detection time.

CPU 101は、なぞり操作がなかったと判別すると(ステップS106:NO)、ステップS103に処理を戻す。   When the CPU 101 determines that there is no tracing operation (step S106: NO), the CPU 101 returns the process to step S103.

一方、CPU 101は、なぞり操作があったと判別すると(ステップS106:YES)、今回検知されたなぞり操作の軌跡が、直前に検知されたなぞり操作の軌跡と類似するか否かを判別する(ステップS107)。つまり、ステップS107においては、直前に検知されたなぞり操作の軌跡を表す軌跡画像600がタッチスクリーン108に表示されており、かつ、今回検知されたなぞり操作の軌跡と直前に検知されたなぞり操作の軌跡とが類似しているか否かが判別される。なお、なぞり操作の軌跡が互いに類似しているか否かは、例えば、これらの軌跡の重なり具合が所定の閾値よりも大きいか否かにより判別される。   On the other hand, when determining that the tracing operation has been performed (step S106: YES), the CPU 101 determines whether or not the tracing operation detected this time is similar to the tracing operation detected immediately before (step S106). S107). That is, in step S107, the trajectory image 600 representing the trajectory of the tracing operation detected immediately before is displayed on the touch screen 108, and the trajectory of the tracing operation detected this time and the tracing operation detected immediately before are displayed. It is determined whether or not the trajectory is similar. Whether the trajectories of the tracing operation are similar to each other is determined based on, for example, whether the overlapping degree of these trajectories is greater than a predetermined threshold.

CPU 101は、今回検知されたなぞり操作の軌跡が、直前に検知されたなぞり操作の軌跡と類似していると判別した場合(ステップS107:YES)、Nに(N+1)を代入、つまり、Nの値を1つ増加させる(ステップS108)。ここで、Nは、今回検知されたなぞり操作の軌跡と軌跡が類似するなぞり操作が、今回のなぞり操作が検知される直前に、何回連続して検知されているかの回数を示す値である。ここで、連続とは、直前のなぞり操作の軌跡を表す軌跡画像600がタッチスクリーン108に表示された時刻から猶予時間が経過する前に(直前のなぞり操作の軌跡を表す軌跡画像600がタッチスクリーン108に表示されている間に)、次のなぞり操作が検知されることを意味する。なお、Nの値は、RAM 103に記憶される。   If the CPU 101 determines that the trajectory of the tracing operation detected this time is similar to the trajectory of the tracing operation detected immediately before (step S107: YES), the CPU 101 substitutes (N + 1) for N, that is, N Is incremented by one (step S108). Here, N is a value indicating the number of times that the tracing operation similar to the tracing operation detected this time is continuously detected immediately before the tracing operation is detected. . Here, “continuous” means that the trajectory image 600 representing the trajectory of the previous tracing operation is displayed before the grace time elapses from the time when the trajectory image 600 representing the trajectory of the previous tracing operation is displayed on the touch screen 108. Means that the next stroking operation is detected). Note that the value of N is stored in the RAM 103.

一方、CPU 101は、今回検知されたなぞり操作の軌跡が、直前に検知されたなぞり操作の軌跡と類似していないと判別した場合(ステップS107:NO)、Nに0を代入、つまり、Nの値を0にする(ステップS109)。なお、Nの値は、RAM 103に記憶される。   On the other hand, when the CPU 101 determines that the tracing operation detected this time is not similar to the tracing operation detected immediately before (step S107: NO), the CPU 101 substitutes 0 for N, that is, N Is set to 0 (step S109). Note that the value of N is stored in the RAM 103.

CPU 101は、ステップS108もしくはステップS109の処理を完了すると、Nの値に基づいてスクロール量を決定する(ステップS110)。ここで、Nの値が0である場合、スクロール量は、検知されたなぞり操作の軌跡の長さにあらかじめ対応付けられる既定値に決定される。一方、Nの値が1以上である場合、スクロール量は、検知されたなぞり操作の軌跡の長さにあらかじめ対応付けられる既定値よりも大きな値であって、Nが大きいほど大きな値に決定される。決定されたスクロール量は、RAM 103に記憶される。   When the CPU 101 completes the process of step S108 or step S109, the CPU 101 determines the scroll amount based on the value of N (step S110). Here, when the value of N is 0, the scroll amount is determined to be a predetermined value that is associated in advance with the detected length of the tracing operation. On the other hand, when the value of N is 1 or more, the scroll amount is larger than a predetermined value that is associated in advance with the length of the detected tracing operation, and is determined to be larger as N is larger. The The determined scroll amount is stored in the RAM 103.

CPU 101は、ステップS110の処理を完了すると、RAM 103に記憶されているタッチ位置を表す座標に基づいて、最後に検知されたなぞり操作の軌跡を表す軌跡画像600をタッチスクリーン108に表示する(ステップS111)。   When the CPU 101 completes the process of step S110, based on the coordinates representing the touch position stored in the RAM 103, the CPU 101 displays a trajectory image 600 representing the trajectory of the last detected tracing operation on the touch screen 108 ( Step S111).

CPU 101は、ステップS111の処理を終了すると、タイマカウンタを起動する(ステップS112)。なお、このタイマカウンタは、なぞり操作の軌跡を表す軌跡画像600がタッチスクリーン108に表示された時刻からの経過時間を表す値を、所定の周期毎に自動でカウントアップする。このタイマカウンタは、例えば、CPU 101とRTC113とが協働することにより実現される。   CPU101 starts a timer counter, after complete | finishing the process of step S111 (step S112). The timer counter automatically counts up a value representing the elapsed time from the time when the trajectory image 600 representing the trajectory of the tracing operation is displayed on the touch screen 108 every predetermined cycle. This timer counter is realized by the cooperation of the CPU 101 and the RTC 113, for example.

CPU 101は、ステップS112の処理を終了すると、スクロール処理を実行する(ステップS113)。例えば、CPU 101は、ステップS110において決定されたスクロール量に従って、表示開始行番号Psttを変化させる。そして、CPU 101は、画像処理部107を制御して、RAM 103に読み出されているファイルの内容のうち、表示開始行番号Psttにより指定される注目範囲の内容を表す画像を生成し、この画像を表す信号をタッチスクリーン108に供給する。一方、タッチスクリーン108は、CPU 101から供給された信号に基づいて、注目範囲の内容を表示する。なお、CPU 101が表示開始行番号Psttを徐々に変化させながら、表示開始行番号Psttにより指定される注目範囲の内容を表す画像を生成、供給することにより、タッチスクリーン108に表示される画像がスクロールする。   When the CPU 101 finishes the process of step S112, the CPU 101 executes a scroll process (step S113). For example, the CPU 101 changes the display start line number Pstt according to the scroll amount determined in step S110. Then, the CPU 101 controls the image processing unit 107 to generate an image representing the contents of the attention range designated by the display start line number Pst among the contents of the file read to the RAM 103. A signal representing the image is supplied to the touch screen 108. On the other hand, the touch screen 108 displays the contents of the attention range based on the signal supplied from the CPU 101. The CPU 101 generates and supplies an image representing the content of the range of interest specified by the display start line number Pst while gradually changing the display start line number Pstt, whereby the image displayed on the touch screen 108 is displayed. Scroll.

CPU 101は、ステップS113の処理を終了すると、ステップS103に処理を戻す。   When the CPU 101 ends the process of step S113, the process returns to step S103.

本実施形態に係る情報表示装置300によれば、軌跡が互いに類似するなぞり操作が連続して検知された場合、なぞり操作が検知される毎に、なぞり操作に対応付けられるスクロール量が大きくなる。このため、タッチスクリーン108に表示されている画像を、比較的少ない回数のなぞり操作により、速やかにスクロールすることができる。   According to the information display apparatus 300 according to the present embodiment, when a tracing operation with similar trajectories is continuously detected, the scroll amount associated with the tracing operation increases each time the tracing operation is detected. Therefore, the image displayed on the touch screen 108 can be quickly scrolled by a relatively small number of tracing operations.

(第2の実施形態)
第1の実施形態では、本発明を、ワードプロセッサとして機能する情報表示装置300に適用する例を示した。しかし、本発明を、種々の装置として機能する情報表示装置300に適用してもよい。本実施形態では、本発明を、ゲーム装置として機能する情報表示装置300に適用する例について説明する。ゲーム装置により制御されるゲームは、どのようなゲームであってもよいが、本実施形態では、味方キャラクタと敵キャラクタとがボクシングで対戦するボクシングゲームである場合について説明する。なお、図1に示す情報処理装置100のインターフェース104に、ボクシングゲームを制御するプログラムならびにデータが格納されたメモリカセット106が装着されている状態において、情報処理装置100の電源が投入されると、本実施形態に係る情報表示装置300が実現される。
(Second Embodiment)
In 1st Embodiment, the example which applies this invention to the information display apparatus 300 which functions as a word processor was shown. However, the present invention may be applied to the information display device 300 that functions as various devices. In the present embodiment, an example in which the present invention is applied to an information display device 300 that functions as a game device will be described. The game controlled by the game device may be any game, but in the present embodiment, a case will be described in which the teammate character and the enemy character are a boxing game in which boxing matches. When the information processing apparatus 100 is turned on while the memory cassette 106 storing the program and data for controlling the boxing game is attached to the interface 104 of the information processing apparatus 100 shown in FIG. The information display device 300 according to the present embodiment is realized.

まず、図9を参照して、本実施形態に係る情報表示装置300により制御されるボクシングゲームの対戦中画面について説明する。   First, with reference to FIG. 9, a screen during a boxing game controlled by the information display apparatus 300 according to the present embodiment will be described.

ボクシングゲームのプレイ中は、図9に示すように、タッチスクリーン108には、味方キャラクタ901と、敵キャラクタ901と、味方体力ゲージ911と、敵体力ゲージ912と、が表示される。   During the play of the boxing game, as shown in FIG. 9, the teammate character 901, the enemy character 901, the teammate physical strength gauge 911, and the enemy physical strength gauge 912 are displayed on the touch screen 108.

味方キャラクタ901は、ゲームのユーザが操作する仮想空間内の味方キャラクタである。   The teammate character 901 is a teammate character in the virtual space operated by the game user.

敵キャラクタ902は、仮想空間内において味方キャラクタと対戦する敵キャラクタである。敵キャラクタ902は、コンピュータにより操作される。   The enemy character 902 is an enemy character that fights against a teammate character in the virtual space. The enemy character 902 is operated by a computer.

味方体力ゲージ911は、味方キャラクタ901の体力を表すゲージである。味方キャラクタ901の体力は、0〜100の数値により表される。味方キャラクタ901が敵キャラクタ902から攻撃を受けると、味方キャラクタ901の体力は、敵キャラクタ902の攻撃力の分だけ減少する。味方キャラクタ901の体力が0以下になると、味方キャラクタ901の敗北が決定する。   The teammate physical strength gauge 911 is a gauge representing the physical strength of the teammate character 901. The physical strength of the teammate character 901 is represented by a numerical value of 0-100. When the teammate character 901 is attacked by the enemy character 902, the physical strength of the teammate character 901 decreases by the amount of the attack power of the enemy character 902. When the physical strength of the teammate character 901 becomes 0 or less, the defeat of the teammate character 901 is determined.

敵体力ゲージ912は、敵キャラクタ902の体力を表すゲージである。敵キャラクタ902の体力は、0〜100の数値により表される。敵キャラクタ902が味方キャラクタ901から攻撃を受けると、敵キャラクタ902の体力は、味方キャラクタ901の攻撃力の分だけ減少する。敵キャラクタ902の体力が0以下になると、敵キャラクタ902の敗北が決定する。   The enemy physical strength gauge 912 is a gauge representing the physical strength of the enemy character 902. The physical strength of the enemy character 902 is represented by a numerical value of 0-100. When the enemy character 902 is attacked by the teammate character 901, the physical strength of the enemy character 902 decreases by the amount of the attack power of the teammate character 901. When the physical strength of the enemy character 902 becomes 0 or less, the defeat of the enemy character 902 is determined.

ここで、ユーザは、味方キャラクタ901に敵キャラクタ902を攻撃させたい場合、攻撃の種類に対応付けられている軌跡を描くように、タッチスクリーン108に対してなぞり操作を行う。なお、最新のなぞり操作が検知されてから所定の猶予期間が経過するまでの間、タッチスクリーン108には、この最新のなぞり操作の軌跡を表す軌跡画像920が表示される。   Here, when the user wants the teammate character 901 to attack the enemy character 902, the user performs a tracing operation on the touch screen 108 so as to draw a trajectory associated with the type of attack. Note that a trajectory image 920 representing the trajectory of the latest tracing operation is displayed on the touch screen 108 from when the latest tracing operation is detected until a predetermined grace period elapses.

次に、図10Aを参照して、味方キャラクタ901が実行することが可能な攻撃について説明する。   Next, an attack that can be executed by the teammate character 901 will be described with reference to FIG. 10A.

図10Aに示す例では、味方キャラクタ901が実行することが可能な攻撃の種類は、“ストレート”と“フック”と“アッパー”と“必殺技”との4つである。攻撃の種類のそれぞれには、なぞり操作の軌跡と、基本攻撃力と、が対応付けられている。   In the example shown in FIG. 10A, there are four types of attacks that can be executed by the teammate character 901: “straight”, “hook”, “upper”, and “deadly technique”. Each type of attack is associated with the trace of the tracing operation and the basic attack power.

なぞり操作の軌跡は、味方キャラクタ901に攻撃を出させるためにユーザが実行すべきなぞり操作の軌跡である。
“ストレート”に対応付けられるなぞり操作の軌跡は、タッチスクリーン108上において、味方キャラクタ901から敵キャラクタ902に向かって真っ直ぐになぞることにより描かれる軌跡である。
“フック”に対応付けられるなぞり操作の軌跡は、タッチスクリーン108上において、味方キャラクタ901から敵キャラクタ902に向かって、山を描くようになぞることにより描かれる軌跡である。
“アッパー”に対応付けられるなぞり操作の軌跡は、タッチスクリーン108上において、味方キャラクタ901から敵キャラクタ902に向かって、谷を描くようになぞることにより描かれる軌跡である。
“必殺技”に対応付けられるなぞり操作の軌跡は、タッチスクリーン108上において、味方キャラクタ901から敵キャラクタ902に向かって真っ直ぐなぞった後、一度味方キャラクタ901のいる方にやや下方に移動させながらなぞり、再度敵キャラクタ902に向かって真っ直ぐになぞることにより描かれる軌跡である。
The trajectory of the tracing operation is a trajectory of the tracing operation that should be executed by the user in order to cause the teammate character 901 to attack.
The trajectory of the tracing operation associated with “straight” is a trajectory drawn by tracing straight from the teammate character 901 toward the enemy character 902 on the touch screen 108.
The trajectory of the tracing operation associated with “hook” is a trajectory drawn by tracing a mountain from the teammate character 901 toward the enemy character 902 on the touch screen 108.
The trajectory of the tracing operation associated with “upper” is a trajectory drawn by tracing the valley from the ally character 901 toward the enemy character 902 on the touch screen 108.
The trajectory of the tracing operation associated with the “deadly move” is traced on the touch screen 108 while tracing straight from the ally character 901 toward the enemy character 902 and then moving slightly downward toward the ally character 901. This is a trajectory drawn by tracing straight toward the enemy character 902 again.

基本攻撃力は、この基本攻撃力に対応付けられている攻撃が敵キャラクタ902にヒットした場合に決定される攻撃力の基本となる攻撃力である。“ストレート”に対応付けられた基本攻撃力は3である。“フック”に対応付けられた基本攻撃力は2である。“アッパー”に対応付けられた基本攻撃力は5である。“必殺技”に対応付けられた基本攻撃力は10である。ここで、攻撃力は、攻撃の種類に対応付けられた基本攻撃力と、入力時間に対応付けられた倍率と、連続入力回数に対応付けられた倍率と、の積である。攻撃力は、攻撃を受けた敵キャラクタ902の体力の減少分、つまり、攻撃を受けた敵キャラクタ902が受けるダメージと等しい。   The basic attack power is an attack power that is the basis of the attack power determined when the attack associated with the basic attack power hits the enemy character 902. The basic attack power associated with “straight” is 3. The basic attack power associated with “hook” is 2. The basic attack power associated with “Upper” is 5. The basic attack power associated with the “killer technique” is 10. Here, the attack power is the product of the basic attack power associated with the type of attack, the magnification associated with the input time, and the magnification associated with the number of consecutive inputs. The attack power is equal to the decrease in the physical strength of the attacked enemy character 902, that is, the damage received by the attacked enemy character 902.

ここで、図10Bを参照して、入力時間に対応付けられる倍率について説明する。本実施形態では、なぞり操作が開始された時刻からなぞり操作が完了した時刻までの経過時間である入力時間が短いほど、高い倍率が設定される。   Here, the magnification associated with the input time will be described with reference to FIG. 10B. In this embodiment, a higher magnification is set as the input time, which is the elapsed time from the time when the tracing operation is started to the time when the tracing operation is completed, is shorter.

図10Bに示す例では、入力時間が0.2sec未満である場合、倍率は3倍であり、入力時間が0.2sec以上かつ0.5sec未満である場合、倍率が2倍であり、入力時間が0.5sec以上である場合、倍率が1倍である。   In the example shown in FIG. 10B, when the input time is less than 0.2 sec, the magnification is 3 times, and when the input time is 0.2 sec or more and less than 0.5 sec, the magnification is 2 times, and the input time Is 0.5 sec or more, the magnification is 1 time.

次に、図10Cを参照して、連続入力回数に対応付けられる倍率について説明する。本実施形態では、軌跡が互いに類似するなぞり操作が連続して入力された回数である連続入力回数が多いほど、高い倍率が設定される。ここで、直前のなぞり操作が検知された時刻から所定の猶予時間が経過するまでに、次のなぞり操作が検知される場合に、これらのなぞり操作が連続しているものとする。   Next, with reference to FIG. 10C, the magnification associated with the number of continuous inputs will be described. In the present embodiment, a higher magnification is set as the number of continuous inputs, that is, the number of times that tracing operations having similar trajectories are successively input, is increased. Here, when the next tracing operation is detected before the predetermined grace time elapses from the time when the previous tracing operation was detected, these tracing operations are assumed to be continuous.

図10Cに示す例では、連続入力回数が1である場合、倍率は1倍であり、連続入力回数が2である場合、倍率が2倍であり、連続入力回数が3である場合、倍率が3倍であり、連続入力回数が4である場合、倍率が4倍であり、連続入力回数が5である場合、倍率が5倍である。   In the example shown in FIG. 10C, when the number of continuous inputs is 1, the magnification is 1 time, when the number of continuous inputs is 2, the magnification is 2 times, and when the number of continuous inputs is 3, the magnification is When the number of continuous inputs is 4, the magnification is 4 times, and when the number of continuous inputs is 5, the magnification is 5 times.

以下、図11を参照して、攻撃の種類と、入力時間と、連続入力回数と、に基づいて、攻撃力を計算する例について説明する。なお、図11に示す例では、“必殺技”に対応付けられた軌跡を描くなぞり操作が1回検知されてから、“フック”に対応付けられた軌跡を描くなぞり操作が4回検知され、これら5回のなぞり操作がいずれも連続しているものとする。   Hereinafter, an example in which the attack power is calculated based on the type of attack, the input time, and the number of continuous inputs will be described with reference to FIG. In the example shown in FIG. 11, after a tracing operation that draws a trajectory associated with “deadly move” is detected once, a tracing operation that draws a trajectory associated with “hook” is detected four times. Assume that these five tracing operations are all continuous.

まず、1回目のなぞり操作によって、“必殺技”に対応付けられた軌跡が0.1secで入力されると、攻撃力は、10×3×1=30となる。
次に、2回目のなぞり操作によって、“フック”に対応付けられた軌跡が0.3secで入力されると、攻撃力は、3×2×1=6となる。
次に、3回目のなぞり操作によって、“フック”に対応付けられた軌跡が0.3secで入力されると、攻撃力は、3×2×2=12となる。
次に、3回目のなぞり操作によって、“フック”に対応付けられた軌跡が0.1secで入力されると、攻撃力は、3×3×3=27となる。
最後に、5回目のなぞり操作によって、“フック”に対応付けられた軌跡が0.1secで入力されると、攻撃力は、3×3×4=36となる。
First, when a trajectory associated with “A Special Move” is input in 0.1 sec by the first tracing operation, the attack power is 10 × 3 × 1 = 30.
Next, when the trajectory associated with “hook” is input in 0.3 sec by the second tracing operation, the attack power becomes 3 × 2 × 1 = 6.
Next, when the trajectory associated with “hook” is input in 0.3 sec by the third tracing operation, the attack power becomes 3 × 2 × 2 = 12.
Next, when the trajectory associated with “hook” is input in 0.1 sec by the third tracing operation, the attack power becomes 3 × 3 × 3 = 27.
Finally, if the locus associated with “hook” is input in 0.1 sec by the fifth tracing operation, the attack power becomes 3 × 3 × 4 = 36.

このように、本実施形態では、軌跡が互いに類似するなぞり操作が連続して検知されると、操作量が増大する。つまり、なぞり操作が単発で行われると攻撃力が低い攻撃であっても、なぞり操作が連続で行われると攻撃力が増大する。例えば、図11に示す例では、5回目のなぞり操作により繰り出される“フック”の攻撃力は、1回目のなぞり操作により繰り出される“必殺技”の攻撃力よりも高くなっている。つまり、本実施形態では、互いに同じ軌跡を描くなぞり操作が連続して正確に実行された場合に、攻撃力が増大するように設定される。このように攻撃力が設定されることは、現実世界のボクシングにおいて、同じ箇所に連続して同じ攻撃を受けた場合に、ダメージが増大することに対応させることになる。   As described above, in the present embodiment, the operation amount increases when the tracing operations having similar trajectories are detected continuously. That is, even when the stroking operation is performed in a single shot, even if the attack power is low, the attack power increases when the stroking operation is performed continuously. For example, in the example shown in FIG. 11, the attack power of the “hook” delivered by the fifth tracing operation is higher than the attack power of the “deadly skill” delivered by the first tracing operation. In other words, in the present embodiment, the attack power is set to increase when the tracing operations that draw the same trajectory are continuously executed accurately. Setting the attack power in this way corresponds to an increase in damage when boxing in the real world is subjected to the same attack continuously at the same location.

次に、本実施形態に係る情報表示装置300の動作について、図12を参照して説明する。図12は、本実施形態に係る情報表示装置300が実行する情報表示処理を示すフローチャートである。なお、図12に示す情報表示処理は、例えば、ボクシングゲームを実行するゲーム装置として機能する情報表示装置300が、ボクシングゲームの開始を指示する操作入力を受け付けた後に実行される処理である。   Next, the operation of the information display apparatus 300 according to the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing information display processing executed by the information display apparatus 300 according to the present embodiment. Note that the information display process shown in FIG. 12 is a process that is executed after the information display device 300 that functions as a game device that executes a boxing game receives an operation input that instructs the start of the boxing game, for example.

まず、CPU 101は、初期化処理を実行する(ステップS201)。例えば、CPU 101は、味方キャラクタ901、敵キャラクタ902、味方体力ゲージ911、敵体力ゲージ912など、初期画面に表示するオブジェクトの情報を、メモリカセット106からRAM 103に読み出すなどの処理を実行する。また、CPU 101は、味方キャラクタ901の体力を表す変数、ならびに、敵キャラクタ902の体力を表す変数に100をセットする。さらに、CPU 101は、後述するタイマカウンタの値を0にクリアする。なお、体力を表す変数やタイマカウンタの値は、RAM 103などに記憶されているものとする。   First, the CPU 101 executes an initialization process (step S201). For example, the CPU 101 executes processing such as reading information of objects to be displayed on the initial screen, such as the teammate character 901, the enemy character 902, the teammate physical strength gauge 911, and the enemy physical strength gauge 912 from the memory cassette 106 to the RAM 103. Further, the CPU 101 sets 100 to a variable representing the physical strength of the teammate character 901 and a variable representing the physical strength of the enemy character 902. Further, the CPU 101 clears the value of a timer counter described later to zero. It is assumed that variables representing physical strength and timer counter values are stored in the RAM 103 or the like.

CPU 101は、ステップS201の処理を完了すると、初期画面を表す画像をタッチスクリーン108に表示する(ステップS202)。具体的には、CPU 101は、画像処理部110と協働して、RAM 103に読み出したオブジェクトの情報や各キャラクタの体力を表す変数に基づいて、初期画面を表す画像信号を生成し、タッチスクリーン108に供給する。一方、タッチスクリーン108は、供給された画像信号に基づいて、初期画面を表示する。ここでは、初期画面に含まれる味方体力ゲージ911と敵体力ゲージ912とは、100を表す画像である。   When completing the process in step S201, the CPU 101 displays an image representing the initial screen on the touch screen 108 (step S202). Specifically, the CPU 101 cooperates with the image processing unit 110 to generate an image signal representing the initial screen based on the object information read into the RAM 103 and the variables representing the physical strength of each character, and touch Supply to the screen 108. On the other hand, the touch screen 108 displays an initial screen based on the supplied image signal. Here, the teammate physical strength gauge 911 and the enemy physical strength gauge 912 included in the initial screen are images representing 100.

CPU 101は、ステップS202の処理を完了すると、タッチ位置を検知する(ステップS203)。例えば、CPU 101は、タッチスクリーン108から供給される信号に基づいて、タッチ位置を表す座標を取得する。なお、CPU 101は、検知時刻と対応付けてタッチ位置を表す座標をRAM 103などに記憶する。   CPU101 will detect a touch position, if the process of step S202 is completed (step S203). For example, the CPU 101 acquires coordinates representing the touch position based on a signal supplied from the touch screen 108. The CPU 101 stores coordinates representing the touch position in association with the detection time in the RAM 103 or the like.

CPU 101は、ステップS203の処理を完了すると、タイマカウンタの値が閾値以上であるか否かを判別する(ステップS204)。なお、このタイマカウンタの値は、後述するステップS211において、軌跡画像920がタッチスクリーン108に表示された時刻からの経過時間を表す。また、このタイマカウンタの値を自動的にカウントアップするタイマカウンタは、後述するステップS212において起動される。そして、この閾値は、タッチスクリーン108に軌跡画像920が表示された時刻から表示が消去される時刻までの時間である猶予時間を表す値である。   When completing the process of step S203, the CPU 101 determines whether or not the value of the timer counter is equal to or greater than a threshold value (step S204). Note that the value of the timer counter represents an elapsed time from the time when the trajectory image 920 is displayed on the touch screen 108 in step S211 described later. A timer counter that automatically counts up the value of the timer counter is started in step S212, which will be described later. This threshold value is a value representing a grace period that is the time from the time when the trajectory image 920 is displayed on the touch screen 108 to the time when the display is deleted.

CPU 101は、タイマカウンタの値が閾値以上であると判別すると(ステップS204:YES)、画像処理部110を制御するなどして、タッチスクリーン108に表示している軌跡画像920を消去する(ステップS205)。   If the CPU 101 determines that the value of the timer counter is equal to or greater than the threshold value (step S204: YES), the CPU 101 erases the trajectory image 920 displayed on the touch screen 108 by controlling the image processing unit 110 (step S204). S205).

CPU 101は、タイマカウンタの値が閾値以上ではないと判別した場合(ステップS204:NO)、もしくは、ステップS205の処理を完了した場合、なぞり操作があったか否かを判別する(ステップS206)。CPU 101は、例えば、検知時刻と対応付けられてRAM 103に記憶されている、タッチ位置を表す座標に基づいて、なぞり操作があったか否かを判別する。   When the CPU 101 determines that the value of the timer counter is not equal to or greater than the threshold (step S204: NO), or when the process of step S205 is completed, the CPU 101 determines whether a tracing operation has been performed (step S206). For example, the CPU 101 determines whether or not there has been a stroking operation based on the coordinates representing the touch position stored in the RAM 103 in association with the detection time.

CPU 101は、なぞり操作がなかったと判別すると(ステップS206:NO)、ステップS203に処理を戻す。   If the CPU 101 determines that no tracing operation has been performed (step S206: NO), the process returns to step S203.

一方、CPU 101は、なぞり操作があったと判別すると(ステップS206:YES)、今回検知されたなぞり操作の軌跡が、直前に検知されたなぞり操作の軌跡と類似するか否かを判別する(ステップS207)。つまり、ステップS207においては、直前に検知されたなぞり操作の軌跡を表す軌跡画像920がタッチスクリーン108に表示されており、かつ、今回検知されたなぞり操作の軌跡と直前に検知されたなぞり操作の軌跡とが類似しているか否かが判別される。なお、なぞり操作の軌跡が互いに類似しているか否かは、例えば、これらの軌跡の重なり具合が所定の閾値よりも大きいか否かにより判別される。   On the other hand, when determining that the tracing operation has been performed (step S206: YES), the CPU 101 determines whether or not the tracing operation detected this time is similar to the tracing operation detected immediately before (step S206). S207). That is, in step S207, a trajectory image 920 representing the trajectory of the tracing operation detected immediately before is displayed on the touch screen 108, and the trajectory of the tracing operation detected this time and the tracing operation detected immediately before are displayed. It is determined whether or not the trajectory is similar. Whether the trajectories of the tracing operation are similar to each other is determined based on, for example, whether the overlapping degree of these trajectories is greater than a predetermined threshold.

CPU 101は、今回検知されたなぞり操作の軌跡が、直前に検知されたなぞり操作の軌跡と類似していると判別した場合(ステップS207:YES)、Nに(N+1)を代入、つまり、Nの値を1つ増加させる(ステップS208)。ここで、Nは、今回検知されたなぞり操作の軌跡と軌跡が類似するなぞり操作が、今回のなぞり操作が検知される直前に、何回連続して検知されているかの回数を示す値である。ここで、連続とは、直前のなぞり操作の軌跡を表す軌跡画像920がタッチスクリーン108に表示された時刻から猶予時間が経過する前に(直前のなぞり操作の軌跡を表す軌跡画像920がタッチスクリーン108に表示されている間に)、次のなぞり操作が検知されることを意味する。なお、Nの値は、RAM 103に記憶される。   If the CPU 101 determines that the tracing operation detected this time is similar to the tracing operation detected immediately before (step S207: YES), the CPU 101 substitutes (N + 1) for N, that is, N Is incremented by one (step S208). Here, N is a value indicating the number of times that the tracing operation similar to the tracing operation detected this time is continuously detected immediately before the tracing operation is detected. . Here, “continuous” means that the trajectory image 920 representing the trajectory of the previous tracing operation is displayed before the grace time elapses from the time when the trajectory image 920 is displayed on the touch screen 108. Means that the next stroking operation is detected). Note that the value of N is stored in the RAM 103.

一方、CPU 101は、今回検知されたなぞり操作の軌跡が、直前に検知されたなぞり操作の軌跡と類似していないと判別した場合(ステップS207:NO)、Nに0を代入、つまり、Nの値を0にする(ステップS209)。なお、Nの値は、RAM 103に記憶される。   On the other hand, when the CPU 101 determines that the trace operation trace detected this time is not similar to the trace action trace detected immediately before (step S207: NO), the CPU 101 substitutes 0 for N, that is, N Is set to 0 (step S209). Note that the value of N is stored in the RAM 103.

CPU 101は、ステップS208もしくはステップS209の処理を完了すると、Nの値に基づいて攻撃力を決定する(ステップS210)。ここで、Nの値が0である場合、攻撃力は、検知されたなぞり操作の軌跡に対応する攻撃の種類となぞり操作の速さとにあらかじめ対応付けられる既定値に設定される。一方、Nの値が1以上である場合、攻撃力は、この既定値よりも大きな値であって、Nが大きいほど大きな値に設定される。決定された攻撃力は、RAM 103に記憶される。   When the CPU 101 completes the process of step S208 or step S209, the CPU 101 determines the attack power based on the value of N (step S210). Here, when the value of N is 0, the attack power is set to a default value associated in advance with the type of attack corresponding to the trace of the detected tracing operation and the speed of the tracing operation. On the other hand, when the value of N is 1 or more, the attack power is a value larger than the predetermined value, and is set to a larger value as N is larger. The determined attack power is stored in the RAM 103.

CPU 101は、ステップS210の処理を完了すると、RAM 103に記憶されているタッチ位置を表す座標に基づいて、最後に検知されたなぞり操作の軌跡を表す軌跡画像920をタッチスクリーン108に表示する(ステップS211)。   When the CPU 101 completes the process of step S210, the trajectory image 920 representing the trajectory of the last detected tracing operation is displayed on the touch screen 108 based on the coordinates representing the touch position stored in the RAM 103 ( Step S211).

CPU 101は、ステップS211の処理を終了すると、タイマカウンタを起動する(ステップS212)。なお、このタイマカウンタは、なぞり操作の軌跡を表す軌跡画像920がタッチスクリーン108に表示された時刻からの経過時間を表す値を、所定の周期毎に自動でカウントアップする。このタイマカウンタは、例えば、CPU 101とRTC113とが協働することにより実現される。   When the CPU 101 ends the process of step S211, the CPU 101 starts a timer counter (step S212). The timer counter automatically counts up a value representing the elapsed time from the time when the trajectory image 920 representing the trajectory of the tracing operation is displayed on the touch screen 108 every predetermined cycle. This timer counter is realized by the cooperation of the CPU 101 and the RTC 113, for example.

CPU 101は、ステップS212の処理を終了すると、体力を減算して表示する(ステップS213)。例えば、CPU 101は、画像処理部107を制御して、敵体力ゲージ912により表される体力からステップS210において決定された攻撃力分を減じた体力を敵体力ゲージ912により表す画像信号を生成し、タッチスクリーン108に供給する。一方、タッチスクリーン108は、CPU 101から供給された画像信号に基づいて、ステップS210において決定された攻撃力分だけ体力が減じられた敵体力ゲージ912を表す画像を含む画面を表示する。   When the CPU 101 ends the process of step S212, the CPU 101 subtracts and displays the physical strength (step S213). For example, the CPU 101 controls the image processing unit 107 to generate an image signal representing the physical strength, which is obtained by subtracting the attack strength determined in step S210 from the physical strength represented by the enemy physical strength gauge 912, by the enemy physical strength gauge 912. , Supplied to the touch screen 108. On the other hand, based on the image signal supplied from the CPU 101, the touch screen 108 displays a screen including an image representing the enemy physical strength gauge 912 whose physical strength has been reduced by the attack strength determined in step S210.

CPU 101は、ステップS213の処理を終了すると、ステップS203に処理を戻す。   When the CPU 101 ends the process of step S213, the process returns to step S203.

本実施形態に係る情報表示装置300によれば、軌跡が互いに類似するなぞり操作が連続して行われた場合、なぞり操作が検知される毎に、なぞり操作に対応付けられる攻撃力が大きくなる。このため、軌跡が互いに類似するなぞり操作が繰り返して検知されると、比較的少ない回数のなぞり操作により、速やかに敵キャラクタ902にダメージを与えることができる。   According to the information display apparatus 300 according to the present embodiment, when stroking operations with similar trajectories are continuously performed, the attack power associated with the stroking operation increases each time the stroking operation is detected. For this reason, if a tracing operation with similar trajectories is repeatedly detected, the enemy character 902 can be quickly damaged by a relatively small number of tracing operations.

(第3の実施形態)
第1の実施形態では、タッチスクリーン108に表示されている文書を表す画像が、なぞり操作により縦方向にスクロールされる例を示した。しかし、タッチスクリーン108に表示される画像は任意であり、また、なぞり操作により画像がスクロールされる方向も任意である。例えば、タッチスクリーン108に表示される画像が地図を表す画像であり、なぞり操作により画像が任意の方向にスクロールされてもよい。
(Third embodiment)
In the first embodiment, an example is shown in which an image representing a document displayed on the touch screen 108 is scrolled in the vertical direction by a tracing operation. However, the image displayed on the touch screen 108 is arbitrary, and the direction in which the image is scrolled by the tracing operation is also arbitrary. For example, the image displayed on the touch screen 108 may be an image representing a map, and the image may be scrolled in an arbitrary direction by a tracing operation.

例えば、図13に示すように、地図全体を表す地図1301のうち、注目範囲の地図がタッチスクリーン108に表示される場合、なぞり操作が検知されると、注目範囲が変更されて、タッチスクリーン108に表示される画像がスクロールされる。ここで、注目範囲は、例えば、表示開始座標Csttにより特定される。表示開始座標Csttは、注目範囲の左上隅の地図1301における座標である。つまり、本実施形態では、決定された操作量に基づいて、表示開始座標Csttが変更される。   For example, as shown in FIG. 13, when a map of the attention range is displayed on the touch screen 108 out of a map 1301 representing the entire map, when the tracing operation is detected, the attention range is changed and the touch screen 108 is changed. The image displayed on is scrolled. Here, the attention range is specified by, for example, the display start coordinates Cstt. The display start coordinates Cstt are coordinates on the map 1301 at the upper left corner of the range of interest. That is, in this embodiment, the display start coordinates Cstt are changed based on the determined operation amount.

ここで、画像がスクロールされる方向は、なぞり操作がなされた方向にあらかじめ対応付けられた方向である。例えば、図13に示すように、なぞり操作が左下方向に向けてなされると、地図1301における注目範囲1302は、右上方向に移動する。なお、図13において、なぞり操作後の注目範囲1302と指410とは、実線で示される。そして、なぞり操作前の注目範囲1302と指410とは、破線で示される。   Here, the direction in which the image is scrolled is a direction associated in advance with the direction in which the tracing operation is performed. For example, as shown in FIG. 13, when the tracing operation is performed in the lower left direction, the attention range 1302 in the map 1301 moves in the upper right direction. In FIG. 13, the attention range 1302 and the finger 410 after the tracing operation are indicated by solid lines. The attention range 1302 and the finger 410 before the tracing operation are indicated by broken lines.

ここで、スクロール量は、なぞり操作の軌跡の長さ(もしくは、なぞり操作の速さ)にあらかじめ対応付けられた規定値と、軌跡が互いに類似するなぞり操作が連続してなされた回数と、に基づいて定められる。そして、この回数が多いほど、スクロール量が多くなるように、スクロール量が決定される。   Here, the scroll amount is defined as a predetermined value previously associated with the length of the trajectory of the tracing operation (or the speed of the tracing operation) and the number of times that the tracing operation having similar trajectories is performed continuously. Determined based on. Then, the scroll amount is determined so that the scroll amount increases as the number of times increases.

また、図14に示すように、最後に検知されたなぞり操作の軌跡を表す軌跡画像1400が、このなぞり操作が検知された時刻から猶予時間が経過するまでの時刻までの間、タッチスクリーン108に表示される。このように、軌跡画像1400がユーザに提示されることにより、ユーザは、既になされたなぞり操作と同様のなぞり操作をし易くなる。   Further, as shown in FIG. 14, a trajectory image 1400 representing the trajectory of the last detected tracing operation is displayed on the touch screen 108 from the time when the tracing operation is detected to the time until the grace time elapses. Is displayed. Thus, by presenting the trajectory image 1400 to the user, the user can easily perform the tracing operation similar to the tracing operation already performed.

本実施形態に係る情報表示装置300によれば、軌跡が互いに類似するなぞり操作が連続して行われた場合、なぞり操作が検知される毎に、なぞり操作に対応付けられるスクロール量が大きくなる。このため、軌跡が互いに類似するなぞり操作が繰り返して検知されると、比較的少ない回数のなぞり操作により、速やかに所望の範囲の地図が画面内に表示されるようにすることができる。   According to the information display apparatus 300 according to the present embodiment, when a tracing operation with similar trajectories is continuously performed, the scroll amount associated with the tracing operation increases each time the tracing operation is detected. For this reason, when a tracing operation with similar trajectories is repeatedly detected, a map in a desired range can be quickly displayed on the screen by a relatively small number of tracing operations.

(第4の実施形態)
第1〜3の実施形態では、本発明を、タッチスクリーンを備える情報表示装置に適用する例を示した。しかし、本発明が適用される情報表示装置は、タッチスクリーンを備えるものに限られない。以下、本実施形態に係る情報表示装置について説明する。なお、本実施形態に係る情報表示装置は、ダンスゲームを制御するゲーム装置として機能するものとする。
(Fourth embodiment)
In 1st-3rd embodiment, the example which applies this invention to an information display apparatus provided with a touch screen was shown. However, the information display device to which the present invention is applied is not limited to one provided with a touch screen. Hereinafter, the information display apparatus according to the present embodiment will be described. Note that the information display device according to the present embodiment functions as a game device that controls a dance game.

(情報処理装置の説明)
図15は、本発明の情報表示装置の機能を果たす典型的な情報処理装置150の概要構成を示す模式図である。
(Description of information processing device)
FIG. 15 is a schematic diagram showing a schematic configuration of a typical information processing apparatus 150 that performs the function of the information display apparatus of the present invention.

情報処理装置150は、CPU 101と、ROM 102と、RAM 103と、インターフェース104と、画像処理部107と、NIC 109と、音声処理部110と、RTC 113と、ハードディスク114と、外部メモリ115と、入力装置116と、DVD−ROM(Digital Versatile Disk − Read Only Memory)ドライブ117と、を備える。   The information processing apparatus 150 includes a CPU 101, a ROM 102, a RAM 103, an interface 104, an image processing unit 107, a NIC 109, a sound processing unit 110, an RTC 113, a hard disk 114, an external memory 115, and the like. , An input device 116, and a DVD-ROM (Digital Versatile Disk-Read Only Memory) drive 117.

ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ117に装着し、情報処理装置150の電源を投入することにより、当該プログラムが実行され、本実施形態のゲーム装置が実現される。   When a DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 117 and the information processing apparatus 150 is turned on, the program is executed and the game apparatus of the present embodiment is realized. .

CPU 101は、情報処理装置150全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。また、CPU 101は、ALU(Arithmetic Logic Unit)(図示せず)を用いて、レジスタという高速アクセスが可能な記憶領域に記憶されたデータの加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さらに、CPU 101は、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベクトル演算などを高速に行うことができるコプロセッサを備える。   The CPU 101 controls the overall operation of the information processing apparatus 150 and is connected to each component to exchange control signals and data. In addition, the CPU 101 uses an arithmetic logic unit (ALU) (not shown) to perform arithmetic operations such as addition, subtraction, multiplication, and division of data stored in a high-speed storage area called a register, logical sum, logical product, Logical operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed. Further, the CPU 101 includes a coprocessor that can perform saturation calculation such as addition / subtraction / multiplication / division for multimedia processing, vector calculation such as trigonometric function at high speed.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録される。IPLがCPU 101によって実行されることにより、DVD−ROMに記録されたプログラムがRAM 103に読み出され、CPU 101による起動処理が開始される。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on. When the IPL is executed by the CPU 101, the program recorded on the DVD-ROM is read to the RAM 103, and the startup process by the CPU 101 is started.

RAM 103は、データやプログラムを一時的に記憶するためのもので、例えば、DVD−ROMから読み出されたプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。また、CPU 101は、RAM 103に変数領域を設け、当該変数に格納された値に対して直接ALUを作用させて演算を行ったり、RAM 103に格納された値を一旦レジスタに格納してからレジスタに対して演算を行い、演算結果をメモリに書き戻す、などの処理を行う。   The RAM 103 is for temporarily storing data and programs, and holds, for example, programs and data read from a DVD-ROM, and other data necessary for game progress and chat communication. Further, the CPU 101 provides a variable area in the RAM 103 and performs an operation by directly operating the ALU on the value stored in the variable, or temporarily stores the value stored in the RAM 103 in the register. Perform operations such as performing operations on registers and writing back the operation results to memory.

インターフェース104は、情報処理装置150に外部メモリ115を接続するためのインターフェースである。また、情報処理装置150は、インターフェース104を介して、増設用のハードディスクを接続することができる。   The interface 104 is an interface for connecting the external memory 115 to the information processing apparatus 150. Further, the information processing apparatus 150 can connect an additional hard disk via the interface 104.

画像処理部107は、DVD−ROMから読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、画像処理部107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され、画像処理部107に接続されるモニター250へ出力される。   The image processing unit 107 processes the data read from the DVD-ROM by the CPU 101 or an image arithmetic processor (not shown) provided in the image processing unit 107, and then performs a frame memory (not shown) provided in the image processing unit 107. Record). Image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing, and is output to a monitor 250 connected to the image processing unit 107.

画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。また、画像演算プロセッサは、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速実行も可能である。   The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed. Further, the image arithmetic processor renders polygon information arranged in the virtual three-dimensional space and added with various pieces of texture information by the Z buffer method, so that the polygon arranged in the virtual three-dimensional space from a predetermined viewpoint position is rendered. It is also possible to perform a high-speed execution of a calculation for obtaining a rendering image viewed from a predetermined line of sight.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報に従って、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。   Furthermore, by the cooperative operation of the CPU 101 and the image arithmetic processor, it is possible to draw a character string as a two-dimensional image on a frame memory or draw it on the surface of each polygon according to font information that defines the character shape. .

また、CPU 101と画像演算プロセッサがDVD−ROMに予め格納された画像データをフレームメモリに書き込むことによって、ゲームの様子などを画面に表示することができる。画像データをフレームメモリに書き込み表示させる処理を、定期的なタイミング(典型的には垂直同期割り込み(VSYNC)のタイミング)で繰り返し行うことにより、モニター250にアニメーションを表示することが可能になる。   In addition, the CPU 101 and the image arithmetic processor can write the image data stored in advance in the DVD-ROM into the frame memory, thereby displaying the state of the game on the screen. By repeatedly performing the process of writing and displaying the image data in the frame memory at a regular timing (typically the timing of the vertical synchronization interrupt (VSYNC)), an animation can be displayed on the monitor 250.

NIC 109は、情報処理装置150をインターネット等のコンピュータ通信網(図示せず)に接続するためのものである。NIC 109は、例えば、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格に従うインターフェース(図示せず)により構成される。あるいは、NIC 109は、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integraged Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line Modem)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、CPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 109 is for connecting the information processing apparatus 150 to a computer communication network (not shown) such as the Internet. The NIC 109 is configured by, for example, an interface (not shown) that conforms to the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). Alternatively, the NIC 109 uses an analog modem to connect to the Internet using a telephone line, an ISDN (Integrated Services Digital Network) modem, an ADSL (Asymmetric Digital Subscriber Modem) modem, or a cable television line to connect to the Internet. For example, and an interface (not shown) that mediates between the CPU 101 and the like.

音声処理部110は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、スピーカから出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲などの音声データを生成し、生成された音声データをデコードすることにより、様々な音声をスピーカから出力させる。   The audio processing unit 110 converts audio data read from the DVD-ROM into an analog audio signal and outputs it from a speaker. Also, under the control of the CPU 101, sound data such as sound effects and music to be generated during the progress of the game is generated, and the generated sound data is decoded to output various sounds from the speaker.

音声処理部110は、DVD−ROMに記録された音声データがMIDIデータである場合には、音声処理部110が有する音源データを参照して、MIDIデータをPCMデータに変換する。また、音声処理部110は、ADPCM形式やOgg Vorbis形式等により圧縮された音声データである場合には、圧縮された音声データをPCMデータに変換する。PCMデータは、サンプリング周波数に応じたタイミングでD/A変換を行って、スピーカに出力することにより、音声出力が可能となる。   When the audio data recorded on the DVD-ROM is MIDI data, the audio processing unit 110 refers to the sound source data included in the audio processing unit 110 and converts the MIDI data into PCM data. In addition, when the audio processing unit 110 is audio data compressed in the ADPCM format, the Ogg Vorbis format, or the like, the audio processing unit 110 converts the compressed audio data into PCM data. The PCM data can be output by performing D / A conversion at a timing corresponding to the sampling frequency and outputting it to a speaker.

RTC 113は、水晶振動子や発振回路などを備える計時用のデバイスである。RTC 113は、内蔵電池から電源を供給され、情報処理装置105の電源がオフのときでも動作し続ける。   The RTC 113 is a timekeeping device including a crystal resonator and an oscillation circuit. The RTC 113 is supplied with power from the built-in battery, and continues to operate even when the information processing apparatus 105 is powered off.

ハードディスク114は、情報処理装置150全体の動作制御に必要なオペレーティングシステム(OS)のプログラムや各種のゲームデータ等を格納する。CPU 101は、ハードディスク114に記憶される情報を随時書き換えることができる。   The hard disk 114 stores an operating system (OS) program and various game data necessary for operation control of the entire information processing apparatus 150. The CPU 101 can rewrite information stored in the hard disk 114 at any time.

外部メモリ115は、インターフェース104を介して、情報処理装置150に着脱自在に接続される。外部メモリ115には、ゲームのプレイ状況(過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、ネットワークを用いた他の装置との通信のログ(記録)のデータなどが記憶される。CPU 101は、外部メモリ115に記憶される情報を随時書き換えることができる。   The external memory 115 is detachably connected to the information processing apparatus 150 via the interface 104. The external memory 115 stores data indicating game play status (past results, etc.), data indicating the progress of the game, data of logs (records) of communication with other devices using the network, and the like. . The CPU 101 can rewrite information stored in the external memory 115 at any time.

入力装置116は、図16に示すように、ゲーム画面が表示されるモニター250付近に設置される。入力装置116は、ユーザの様子などを撮影するカメラを備える。CPU 101は、カメラによって撮影された画像を表す画像データを解析し、画像に含まれるユーザの部位(例えばユーザの手、足、顔など)を判別する。画像解析の手法には、例えば、パターン認識による解析、特徴点の抽出による解析、空間周波数の算出による解析などがある。カメラによる撮影は、ゲーム中に継続的に行われる。   As shown in FIG. 16, the input device 116 is installed near a monitor 250 on which a game screen is displayed. The input device 116 includes a camera that captures a user's situation. The CPU 101 analyzes image data representing an image photographed by the camera, and determines a user part (for example, a user's hand, foot, face, etc.) included in the image. Image analysis methods include, for example, analysis by pattern recognition, analysis by extraction of feature points, analysis by calculation of spatial frequency, and the like. Shooting by the camera is continuously performed during the game.

また、入力装置116は、入力装置116からユーザ(もしくはユーザの任意の部位)までの距離を測定する深度センサーを備える。例えば、入力装置116は、赤外線を周囲に照射し、この赤外線の反射波を検知する。そして、入力装置116は、照射波と反射波との位相差や、赤外線が発射されてからその反射光が検知されるまでの時間(飛行時間)に基づいて、照射波の発射口から照射波を反射した物体までの距離(以下「深度」ともいう。)を求める。深度センサーによる深度の検知は、赤外線を発射可能な方向のそれぞれについて、所定の時間間隔で繰り返し行われる。   Further, the input device 116 includes a depth sensor that measures the distance from the input device 116 to the user (or any part of the user). For example, the input device 116 irradiates the surroundings with infrared rays and detects the reflected waves of the infrared rays. Then, the input device 116 detects the irradiation wave from the irradiation wave launcher based on the phase difference between the irradiation wave and the reflected wave and the time (flight time) from when the infrared ray is emitted until the reflected light is detected. The distance (hereinafter also referred to as “depth”) to the object that reflects is obtained. Depth detection by the depth sensor is repeatedly performed at predetermined time intervals in each of the directions in which infrared rays can be emitted.

深度センサーを備えることにより、情報処理装置150は、現実空間に配置された物体の3次元的な位置や形状をより詳しく把握することが可能になる。具体的には、CPU 101が第1の時刻に取得された第1の画像データと第2の時刻に取得された第2の画像データとを画像解析した結果、第1の画像データと第2の画像データの両方にユーザの頭部を表す部分が含まれていることを判別したとする。CPU 101は、第1の画像データ内における頭部の位置と、第2の画像データ内における頭部の位置と、の変化から、カメラから見てユーザの頭部が上下左右のどの方向にどの程度動いたのかを判別することができるだけでなく、第1の画像データにおける頭部の深度と、第2の画像データ内における頭部の深度と、の変化から、カメラから見てユーザの頭部が前後のどちらの方向にどの程度動いたのか(どの程度カメラに近づいたりカメラから遠ざかったりしたのか)を判別することもできる。   By providing the depth sensor, the information processing apparatus 150 can grasp the three-dimensional position and shape of the object arranged in the real space in more detail. Specifically, as a result of image analysis of the first image data acquired at the first time and the second image data acquired at the second time by the CPU 101, the first image data and the second image data Assume that it is determined that a part representing the user's head is included in both of the image data. The CPU 101 determines in which direction the user's head is up, down, left, or right as viewed from the camera based on the change in the position of the head in the first image data and the position of the head in the second image data. In addition to being able to determine whether it has moved to some extent, the head of the user as viewed from the camera from the change in the depth of the head in the first image data and the depth of the head in the second image data It is also possible to determine how far the camera has moved in either the forward or backward direction (how close or away from the camera).

このように、CPU 101は、入力装置116が備えるカメラによって撮影された画像と、入力装置116が備える深度センサーによって測定された距離(深度)と、に基づいて、いわゆるモーションキャプチャーのように、現実空間におけるユーザの3次元的な動きをデジタル化して把握することができる。   As described above, the CPU 101 uses the image captured by the camera included in the input device 116 and the distance (depth) measured by the depth sensor included in the input device 116 as in the case of so-called motion capture. The user's three-dimensional movement in the space can be digitized and grasped.

例えば、ダンスゲームにおいて、ユーザがモニター250画面の前(つまり入力装置116の前)でダンスを踊るモーションをすると、CPU 101は、ユーザがダンスを踊るモーションを行ったことを認識することができる。そして、CPU 101は、認識したモーションに応じて、ゲームを進行することができる。つまり、ユーザは、タッチパッド型のコントローラなどを持つことなく、自分の体を自由に動かすことによって、所望の指示を入力することができる。入力装置116は、ユーザからの指示入力を受け付ける、いわゆる“コントローラ”の役割を果たす。   For example, in a dance game, when the user performs a dance motion in front of the monitor 250 screen (that is, in front of the input device 116), the CPU 101 can recognize that the user has performed a dance motion. Then, the CPU 101 can proceed with the game according to the recognized motion. That is, the user can input a desired instruction by moving his / her body freely without having a touchpad controller or the like. The input device 116 serves as a so-called “controller” that receives an instruction input from the user.

撮影された画像を表すデジタルの画像データは、複数の画素の集合である。典型的には、画素のそれぞれに三原色(R,G,B)の強度を表す値が対応付けられる。画像深度センサーにより各方向の深度が測定されるということは、実質的には、1つの画素が、赤(R),緑(G),青(B)に加えて、深度(D)というもう一次元を用いて表されることを意味する。   Digital image data representing a captured image is a set of a plurality of pixels. Typically, a value representing the intensity of the three primary colors (R, G, B) is associated with each pixel. The fact that the depth in each direction is measured by the image depth sensor means that, in effect, one pixel has a depth (D) in addition to red (R), green (G), and blue (B). It is expressed using one dimension.

DVD−ROMドライブ117に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データなどが予め記録される。DVD−ROMドライブ117は、CPU 101の制御によって、装着されたDVD−ROMに記録されたプログラムやデータを読み出す。CPU 101は、読み出されたプログラムやデータをRAM 103等に一時的に記憶する。   A DVD-ROM mounted on the DVD-ROM drive 117 stores a program for realizing the game and image data, audio data, and the like accompanying the game in advance. The DVD-ROM drive 117 reads programs and data recorded on the attached DVD-ROM under the control of the CPU 101. The CPU 101 temporarily stores the read program and data in the RAM 103 or the like.

(情報表示装置の説明)
次に、DVD−ROMドライブ117にゲーム制御用のDVD−ROMが装着されている状態において、情報処理装置150の電源が投入されることにより実現される、本実施形態の情報表示装置1700の機能的な構成等について説明する。
(Description of information display device)
Next, the function of the information display apparatus 1700 of the present embodiment realized by turning on the power of the information processing apparatus 150 in a state where the DVD-ROM for game control is mounted in the DVD-ROM drive 117. A typical configuration will be described.

本実施形態の情報表示装置1700において実行されるゲームはダンスゲームである。CPU 101は、ゲームを開始すると、ダンス用の楽曲を再生すると共に、ユーザが達成すべきゲーム課題をユーザに順々に提示する。ゲーム課題は、ゲーム内時刻と、現実空間においてユーザがいるべき位置と取るべき姿勢とを表すデータと、が対応付けられることにより定義される。CPU 101は、ゲーム課題の内容を反映したキャラクターオブジェクト(以下、「模範キャラクタ」という。本実施形態ではダンスのインストラクターの姿をしている。)をモニター250に表示する。CPU 101は、模範キャラクタの位置や姿勢を変化させることにより、ユーザにゲーム課題を提示する。つまり、模範キャラクタは、ユーザがなすべき振り動作を三次元仮想空間内で実行するキャラクタである。   The game executed in the information display device 1700 of the present embodiment is a dance game. When starting the game, the CPU 101 reproduces music for dance and presents game tasks to be achieved by the user to the user in order. A game task is defined by associating in-game time with data representing the position that the user should be in the real space and the attitude to be taken. The CPU 101 displays a character object (hereinafter referred to as “exemplary character”, which is a dance instructor in this embodiment) reflecting the content of the game task on the monitor 250. The CPU 101 presents a game task to the user by changing the position and posture of the model character. In other words, the model character is a character that executes a swing motion to be performed by the user in the three-dimensional virtual space.

ユーザは、モニター250に動画で表示される模範キャラクタの動きを参考にしながら自分の体を動かす。ユーザの体の動きが入力装置116によって検知される。例えば、ユーザの両手の位置と向き、ユーザの両足の位置と向き、ユーザの頭の位置と向きなどがCPU 101によって識別される。そして、この識別結果に基づいて、予め設定されたゲーム課題通りにユーザが手、足、頭などを動かしたか否かが、つまりユーザの成績が、CPU 101によって判定される。ユーザは、模範キャラクタの動きを参考にして体を動かせば、楽曲に合わせてダンスを踊っている感覚を味わうことができる。   The user moves his / her body while referring to the movement of the model character displayed as a moving image on the monitor 250. The movement of the user's body is detected by the input device 116. For example, the CPU 101 identifies the position and orientation of both hands of the user, the position and orientation of both feet of the user, the position and orientation of the user's head, and the like. Then, based on the identification result, the CPU 101 determines whether or not the user has moved his / her hand, foot, head, and the like according to a preset game task, that is, the user's score. If the user moves his / her body with reference to the movement of the model character, the user can enjoy the feeling of dancing according to the music.

なお、本実施形態の情報表示装置1700は、ダンスゲームが開始される前や後に、ユーザの動作から移動操作を検知し、検知された移動操作に従って、画面内に表示される模範キャラクタの向きを変化させる。かかる構成によれば、ユーザは、模範キャラクタの向きを、参考にしたい身体の部位の動きが明確に確認できる向きに変化させることができる。   Note that the information display device 1700 of the present embodiment detects a moving operation from the user's action before or after the dance game is started, and determines the orientation of the model character displayed in the screen according to the detected moving operation. Change. According to such a configuration, the user can change the direction of the model character so that the movement of the body part to be referred to can be clearly confirmed.

なお、模範キャラクタの向きを変化させることは、三次元仮想空間内において模範キャラクタを撮影することにより画面内に表示する画像を生成する仮想カメラの位置や角度(向き)を変化させることと同義である。   Note that changing the orientation of the model character is equivalent to changing the position and angle (orientation) of the virtual camera that generates an image to be displayed on the screen by shooting the model character in the three-dimensional virtual space. is there.

図17は、本実施形態の情報表示装置1700の機能的な構成を示す図である。図17に示すように、情報表示装置1700は、検知部1701と、操作量取得部1702と、変化部1703と、表示情報取得部1704と、表示部1705と、を備える。   FIG. 17 is a diagram illustrating a functional configuration of the information display device 1700 according to the present embodiment. As illustrated in FIG. 17, the information display device 1700 includes a detection unit 1701, an operation amount acquisition unit 1702, a change unit 1703, a display information acquisition unit 1704, and a display unit 1705.

検知部1701は、ユーザの動作から所定の移動操作を検知する。移動操作は、現実空間において、ユーザが身体の所定の部位(以下、「注目部位」という。)を移動させることによって、情報表示装置1700に与える操作である。移動操作は、ユーザが注目部位を移動させる方向に対応付けられて用意されていてもよい。例えば、ユーザが、一方の手を静止させた状態から、ある方向に移動させる動作が、当該方向に対応付けられた移動操作とされる。   The detection unit 1701 detects a predetermined movement operation from the user's action. The moving operation is an operation given to the information display device 1700 when the user moves a predetermined part of the body (hereinafter referred to as “target part”) in the real space. The movement operation may be prepared in association with the direction in which the user moves the site of interest. For example, an operation in which the user moves in one direction from a state where one hand is stationary is a movement operation associated with the direction.

一方、検知部1701は、例えば、現実空間における注目部位の位置を所定周期毎に監視することにより、移動操作を検知する。具体的には、例えば、検知部1701は、垂直同期割り込みが所定回数発生する毎に、注目部位を被写体とする動画像内における注目部位の位置と情報表示装置1700から注目部位までの距離とを取得することにより、現実空間における注目部位の位置の変化を取得し、当該注目部位の位置の変化に基づいて移動操作を検知する。検知部1701は、例えば、CPU 101と入力装置116とにより構成される。   On the other hand, the detection unit 1701 detects the movement operation by monitoring the position of the target region in the real space at predetermined intervals, for example. Specifically, for example, every time a vertical synchronization interrupt occurs a predetermined number of times, the detection unit 1701 calculates the position of the target site in the moving image with the target site as the subject and the distance from the information display device 1700 to the target site. By acquiring, the change of the position of the attention site in the real space is acquired, and the movement operation is detected based on the change of the position of the attention site. The detection unit 1701 is configured by, for example, the CPU 101 and the input device 116.

操作量取得部1702は、検知された移動操作の軌跡の長さもしくは速度から、対象情報に対する操作量を取得する。対象情報は、例えば、仮想カメラの位置や角度(向き)を表す情報とすることができる。ここで、模範キャラクタが常に画面の中心に表示されるものとすると、仮想カメラの角度が決定すると当該仮想カメラの位置が決定する。本実施形態では、対象情報は、仮想カメラから模範キャラクタに向かうベクトル(以下、「撮影方向ベクトル」という。)の向きを表す情報とし、操作量は、撮影方向ベクトルの向きの変更量(仮想カメラの移動距離と同義)とする。操作量取得部302は、例えば、CPU 101により構成される。   The operation amount acquisition unit 1702 acquires the operation amount for the target information from the detected length or speed of the movement operation trajectory. The target information can be information representing the position and angle (orientation) of the virtual camera, for example. Here, assuming that the model character is always displayed at the center of the screen, the position of the virtual camera is determined when the angle of the virtual camera is determined. In the present embodiment, the target information is information indicating the direction of a vector (hereinafter referred to as “shooting direction vector”) from the virtual camera toward the model character, and the operation amount is the change amount of the direction of the shooting direction vector (virtual camera). The same as the moving distance of The operation amount acquisition unit 302 is configured by the CPU 101, for example.

変化部1703は、取得された操作量に基づいて、対象情報を変化させる。例えば、変化部1703は、撮影方向ベクトルの向きの変更量に基づいて、三次元仮想空間内に設置される仮想カメラの位置ならびに角度を変化させる。変化部1703は、例えば、CPU 101により構成される。   The changing unit 1703 changes the target information based on the acquired operation amount. For example, the changing unit 1703 changes the position and angle of the virtual camera installed in the three-dimensional virtual space based on the change amount of the direction of the shooting direction vector. The changing unit 1703 is configured by the CPU 101, for example.

表示情報取得部1704は、変化後の対象情報に基づいて、画面に表示すべき表示情報を取得する。例えば、表示情報取得部1704は、位置と角度とが変更された仮想カメラにより撮影される三次元仮想空間内の様子を表す画像を取得する。表示情報取得部1704は、例えば、CPU 101により構成される。   The display information acquisition unit 1704 acquires display information to be displayed on the screen based on the target information after the change. For example, the display information acquisition unit 1704 acquires an image representing a state in a three-dimensional virtual space photographed by a virtual camera whose position and angle are changed. The display information acquisition unit 1704 is configured by the CPU 101, for example.

表示部1705は、取得された表示情報を画面に表示する。また、表示部1705は、検知された移動操作のうち最後に検知された移動操作の軌跡を、適宜、画面に表示する。かかる構成によれば、例えば、ユーザは、画面内に表示された模範キャラクタの向きなどを確認しながら、最後になした移動操作がどのような軌跡を描いたかを確認することができる。表示部1705は、例えば、CPU 101と画像処理部107とモニター250とにより構成される。   The display unit 1705 displays the acquired display information on the screen. Further, the display unit 1705 appropriately displays the trajectory of the last detected moving operation on the screen. According to such a configuration, for example, the user can confirm what locus the last moving operation has drawn while confirming the orientation of the model character displayed in the screen. The display unit 1705 includes, for example, a CPU 101, an image processing unit 107, and a monitor 250.

ここで、操作量取得部1702は、検知された移動操作のうち最後に検知された移動操作の軌跡と、当該最後に検知された移動操作の直前に検知された移動操作の軌跡とが、類似するか否かによって、場合分けして、以下に示す処理を実行する。   Here, the operation amount acquisition unit 1702 is similar in that the trajectory of the last detected moving operation among the detected moving operations is similar to the trajectory of the moving operation detected immediately before the last detected moving operation. Depending on whether or not, the following processing is executed for each case.

すなわち、操作量取得部1702は、(a)これらの軌跡が互いに類似しない場合、最後に検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を操作量として取得する。   That is, the operation amount acquisition unit 1702 acquires (a) a default value associated in advance with the length or speed of the trajectory of the last detected movement operation as the operation amount when these trajectories are not similar to each other.

一方、操作量取得部1702は、(b)これらの軌跡が互いに類似する場合、最後に検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値より大きい値を操作量として取得する。   On the other hand, the operation amount acquisition unit 1702 acquires (b) a value larger than a predetermined value associated in advance with the length or speed of the trajectory of the last detected movement operation as the operation amount when these trajectories are similar to each other. To do.

つまり、操作量取得部1702は、最新の2つの移動操作の軌跡が互いに一致する場合、これらの軌跡が互いに一致しない場合に取得する操作量よりも大きな値の操作量を取得する。なお、これらの軌跡が互いに一致しない場合に取得される操作量は、最後に検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値となる。この既定値は、例えば、最後に検知された移動操作の軌跡の長さが長いほど大きな値になるように設定され、この軌跡の長さが短いほど小さな値になるように設定される。あるいは、この既定値は、例えば、この移動操作の速度が速いほど大きな値になるように設定され、この移動操作の速度が遅いほど小さな値になるように設定される。   That is, the operation amount acquisition unit 1702 acquires an operation amount having a value larger than the operation amount acquired when the latest two movement operation tracks match each other and the tracks do not match each other. It should be noted that the operation amount acquired when these trajectories do not coincide with each other is a default value associated in advance with the length or speed of the trajectory of the last detected movement operation. This default value is set, for example, such that it becomes larger as the length of the trajectory of the last detected movement operation becomes longer, and becomes smaller as the length of this trajectory becomes shorter. Alternatively, for example, the default value is set to be a larger value as the speed of the moving operation is faster, and is set to be a smaller value as the speed of the moving operation is slower.

次に、図18を参照して、ユーザの動作から検知される移動操作について説明する。   Next, with reference to FIG. 18, the moving operation detected from the user's action will be described.

図18に示すように、ユーザは、モニター250と対峙した状態において、注目部位を動かす。注目部位は、どこに設定されていてもよいが、本実施形態では、左手1811とする。一方、入力装置116は、カメラや深度センサーによって、注目部位の動きを検知する。ここでは、入力装置116は、所定の時間間隔で、注目部位の重心の座標を取得することにより、注目部位の動きを検知するものとする。現実空間における注目部位の座標は、例えば、X軸の座標、Y軸の座標、ならびにZ軸の座標により表される。   As shown in FIG. 18, the user moves the site of interest while facing the monitor 250. The attention site may be set anywhere, but in this embodiment, it is assumed to be the left hand 1811. On the other hand, the input device 116 detects the movement of the region of interest using a camera or a depth sensor. Here, it is assumed that the input device 116 detects the movement of the target region by acquiring the coordinates of the center of gravity of the target region at predetermined time intervals. The coordinates of the region of interest in the real space are represented by, for example, the X-axis coordinate, the Y-axis coordinate, and the Z-axis coordinate.

ここで、モニター250の表示面に直交する軸(ユーザとモニター250とを結ぶ軸)をX軸とし、ユーザからモニター250に向かう向きをX軸の+方向とする。また、モニター250の縦軸をY軸とし、画面の下から上に向かう向きをY軸の+方向とする。そして、モニター250の横軸をZ軸とし、画面の右から左に向かう向きをZ軸の+方向とする。   Here, an axis orthogonal to the display surface of the monitor 250 (an axis connecting the user and the monitor 250) is an X axis, and a direction from the user toward the monitor 250 is a positive direction of the X axis. The vertical axis of the monitor 250 is the Y axis, and the direction from the bottom to the top of the screen is the + direction of the Y axis. The horizontal axis of the monitor 250 is the Z axis, and the direction from the right to the left of the screen is the + direction of the Z axis.

また、図18に示すように、時刻がtの時点における注目部位の重心の座標をRP(t)(X(t),Y(t),Z(t))とする。ここで、X(t)は、時刻がtの時点における注目部位の重心のX座標であり、Y(t)は、時刻がtの時点における注目部位の重心のY座標であり、Z(t)は、時刻がtの時点における注目部位の重心のZ座標である。以下、注目部位の重心の座標を、適宜、注目部位の位置とする。 Also, as shown in FIG. 18, the coordinates of the center of gravity of the site of interest at the time t are RP (t) (X (t) , Y (t) , Z (t) ). Here, X (t) is the X coordinate of the center of gravity of the site of interest at time t, Y (t) is the Y coordinate of the center of gravity of the site of interest at time t, and Z (t ) Is the Z coordinate of the center of gravity of the site of interest at time t. Hereinafter, the coordinates of the center of gravity of the site of interest are appropriately set as the position of the site of interest.

ユーザが、注目部位の位置をどのように変化させた場合に、ユーザの動作が移動操作として検知されるかは、適宜、調整が可能である。また、移動操作は、注目部位が移動する方向に対応付けられて複数個用意されていてもよい。   It is possible to appropriately adjust how the user's action is detected as a moving operation when the user changes the position of the site of interest. Further, a plurality of movement operations may be prepared in association with the direction in which the site of interest moves.

本実施形態では、図19Aに示すように、上方向、下方向、左方向、および、右方向のそれぞれについて、移動操作が対応付けられている。
ここで、上方向に対応付けられる移動操作の成立条件は、Y座標の変化が所定値未満の状態が所定時間以上継続した後、Y座標が単調増加して所定値以上増加することである。
また、下方向に対応付けられる移動操作の成立条件は、Y座標の変化が所定値未満の状態が所定時間以上継続した後、Y座標が単調減少して所定値以上減少することである。
そして、左方向に対応付けられる移動操作の成立条件は、Z座標の変化が所定値未満の状態が所定時間以上継続した後、Z座標が単調増加して所定値以上増加することである。
また、右方向に対応付けられる移動操作の成立条件は、Z座標の変化が所定値未満の状態が所定時間以上継続した後、Z座標が単調減少して所定値以上減少することである。
In the present embodiment, as shown in FIG. 19A, the movement operation is associated with each of the upward direction, the downward direction, the left direction, and the right direction.
Here, the establishment condition of the moving operation associated with the upward direction is that the Y coordinate monotonously increases and increases by a predetermined value or more after a state in which the change of the Y coordinate is less than a predetermined value continues for a predetermined time or longer.
In addition, the condition for establishing the movement operation associated with the downward direction is that the Y coordinate decreases monotonously and decreases by a predetermined value or more after a change in the Y coordinate is less than a predetermined value for a predetermined time or longer.
A condition for establishing the moving operation associated with the left direction is that the Z coordinate is monotonously increased and increased by a predetermined value or more after a change in the Z coordinate is less than a predetermined value for a predetermined time or longer.
Further, the condition for establishing the moving operation associated with the right direction is that the Z coordinate is monotonously decreased and decreased by a predetermined value or more after a change in the Z coordinate is less than a predetermined value for a predetermined time or longer.

なお、図18は、左方向に対応付けられる移動操作が成立するときのユーザの動きを示している。具体的には、図18は、ユーザが、モニター250に対峙した状態で、注目部位である左手1811を、胴体に近い位置において所定時間以上静止させた後、所定距離以上Z軸の+方向に伸ばしている様子を示している。   FIG. 18 shows a user's movement when a moving operation associated with the left direction is established. Specifically, FIG. 18 shows that the user's left hand 1811 that is the site of interest is stationary at a position near the torso for a predetermined time or more in a state of facing the monitor 250, and then in the + direction of the Z axis for a predetermined distance or more. It shows how it stretches.

ここで、本実施形態では、軌跡が互いに類似する移動操作が連続して入力された回数である連続入力回数が多いほど、移動操作の軌跡の長さや速度にあらかじめ対応付けられている操作量に乗じられる倍率が高く設定される。ここで、直前の移動操作が検知された時刻から所定の猶予時間が経過するまでに、次の移動操作が検知される場合に、これらの移動操作が連続しているものとする。   Here, in the present embodiment, the greater the number of continuous inputs, which is the number of times that movement operations with similar trajectories are continuously input, the more the operation amount associated with the length and speed of the trajectory of the movement operation. The multiplication factor is set high. Here, when the next moving operation is detected before the predetermined grace time elapses from the time when the immediately preceding moving operation is detected, these moving operations are assumed to be continuous.

図19Bに示す例では、連続入力回数が1である場合、倍率は1倍であり、連続入力回数が2である場合、倍率が2倍であり、連続入力回数が3である場合、倍率が4倍であり、連続入力回数が4である場合、倍率が8倍であり、連続入力回数が5である場合、倍率が16倍である。このように、操作量は、連続入力回数を指数とするべき乗によって定まる量であってもよい。   In the example shown in FIG. 19B, when the number of continuous inputs is 1, the magnification is 1 time, when the number of continuous inputs is 2, the magnification is 2 times, and when the number of continuous inputs is 3, the magnification is When the number of continuous inputs is 4, the magnification is 8 times. When the number of continuous inputs is 5, the magnification is 16 times. As described above, the manipulated variable may be an amount determined by a power whose exponent is the number of continuous inputs.

図20に、移動操作が連続して検知されることによって、仮想カメラの位置および角度が変化する様子を示す。図20は、三次元仮想空間において、仮想カメラ2000と模範キャラクタ1801とを俯瞰した様子を示している。ここで、三次元仮想空間において、仮想カメラ2000から模範キャラクタ1801までの距離はr1で一定であり、仮想カメラ2000は模範キャラクタ1801が存在する方向を向いているものとする。この場合、仮想カメラ2000から模範キャラクタ1801に向かう撮影方向ベクトルの向きが決定されると、仮想カメラ2000の角度が決定されるとともに、仮想カメラ2000の位置も決定される。   FIG. 20 shows a state in which the position and angle of the virtual camera change as the moving operation is continuously detected. FIG. 20 shows a state where the virtual camera 2000 and the model character 1801 are looked down on in the three-dimensional virtual space. Here, in the three-dimensional virtual space, it is assumed that the distance from the virtual camera 2000 to the model character 1801 is constant at r1, and the virtual camera 2000 faces the direction in which the model character 1801 exists. In this case, when the direction of the shooting direction vector from the virtual camera 2000 toward the model character 1801 is determined, the angle of the virtual camera 2000 is determined and the position of the virtual camera 2000 is also determined.

ここで、撮影方向ベクトルの向きを対象情報とすると、対象情報に対する操作量は、撮影方向ベクトルの回転角度となる。つまり、移動操作が検知されると、撮影方向ベクトルの回転角度が決定され、仮想カメラ2000は、撮影方向ベクトルの回転角度に応じて、模範キャラクタ1801の方向を向くように角度が調整されつつ、模範キャラクタ1801を中心にして弧を描くように移動する。なお、図20は、左方向に対応付けられた移動操作が3回連続して検知され、当該移動操作が検知される毎に、連続入力回数に対応する回転角度分、三次元仮想空間の上方からみて反時計回りに、撮影方向ベクトルが回転する例を示している。以下、具体的に説明する。   Here, if the direction of the shooting direction vector is the target information, the operation amount for the target information is the rotation angle of the shooting direction vector. In other words, when a moving operation is detected, the rotation angle of the shooting direction vector is determined, and the virtual camera 2000 is adjusted to face the direction of the exemplary character 1801 according to the rotation angle of the shooting direction vector, It moves so as to draw an arc with the model character 1801 as the center. Note that FIG. 20 shows that the movement operation associated with the left direction is detected three times in succession, and every time the movement operation is detected, the rotation angle corresponding to the number of continuous inputs is displayed above the three-dimensional virtual space. An example is shown in which the shooting direction vector rotates counterclockwise as viewed from the viewpoint. This will be specifically described below.

初期状態において、仮想カメラ2000は、模範キャラクタ1801の正面を向く位置であるVP0に配置されているものとする。この時点においては、図21Aに示すように、模範キャラクタ1801を正面から見た様子を示す画像が、モニター250に表示される。   In the initial state, it is assumed that the virtual camera 2000 is arranged at VP0 that is a position facing the front of the model character 1801. At this time, as shown in FIG. 21A, an image showing the model character 1801 viewed from the front is displayed on the monitor 250.

ここで、左方向に対応付けられた1回目の移動操作が検知されると、仮想カメラ2000は、模範キャラクタ1801を中心にしてθ1により示される角度だけ反時計回りに移動した位置であるVP1に移動する。なお、θ1は、VP0と模範キャラクタ1801とを結ぶ直線と、VP1と模範キャラクタ1801とを結ぶ直線と、のなす角度である。   Here, when the first movement operation associated with the left direction is detected, the virtual camera 2000 moves to VP1, which is a position moved counterclockwise by an angle indicated by θ1 with the model character 1801 as the center. Moving. Θ1 is an angle formed by a straight line connecting VP0 and the exemplary character 1801 and a straight line connecting VP1 and the exemplary character 1801.

この時点においては、図21Bに示すように、模範キャラクタ1801を正面よりも右側から見た様子を示す画像が、モニター250に表示される。さらに、モニター250には、1回目の移動操作の軌跡を表す軌跡画像2101bが表示される。軌跡画像2101bは、図示するように、検知された移動操作に対応付けられた方向を示す矢印の画像とすることができる。ここで、軌跡画像2101bにより示される矢印の長さは、移動操作の軌跡の長さや速さに対応付けられた長さとすることができる。ただし、本実施形態では、移動操作の軌跡の長さや速さは、毎回一定であり、矢印の長さは一定であるものとする。なお、軌跡画像2101bは、移動操作が検知されたときに、特定部位の位置の軌跡をユーザに提示するための画像である。従って、ユーザの後方の所定の位置に視点(ユーザよりもX座標が小さい視点)を設定して、特定部位をモニター250に投影した場合に、モニター250の面に投影される特定部位の軌跡に重なるように、軌跡画像2101bをモニター250内に表示する。つまり、軌跡画像2101bは、モニター250を鏡に見立てた場合、特定部位の鏡像により描かれる軌跡を表す。   At this point in time, as shown in FIG. 21B, an image showing the model character 1801 viewed from the right side of the front is displayed on the monitor 250. Further, a trajectory image 2101b representing the trajectory of the first moving operation is displayed on the monitor 250. The trajectory image 2101b can be an arrow image indicating the direction associated with the detected moving operation, as shown in the figure. Here, the length of the arrow indicated by the trajectory image 2101b can be a length associated with the length or speed of the trajectory of the moving operation. However, in this embodiment, it is assumed that the length and speed of the trajectory of the moving operation are constant each time, and the length of the arrow is constant. The trajectory image 2101b is an image for presenting the trajectory of the position of the specific part to the user when a movement operation is detected. Accordingly, when a viewpoint (viewpoint having an X coordinate smaller than that of the user) is set at a predetermined position behind the user and the specific part is projected on the monitor 250, the locus of the specific part projected on the surface of the monitor 250 The trajectory image 2101b is displayed in the monitor 250 so as to overlap. That is, the trajectory image 2101b represents a trajectory drawn by a mirror image of a specific part when the monitor 250 is regarded as a mirror.

ここで、左方向に対応付けられた2回目の移動操作が1回目の移動操作に連続して検知されると、仮想カメラ2000は、模範キャラクタ1801を中心にしてθ2により示される角度だけ反時計回りに移動した位置であるVP2に移動する。なお、θ2は、VP1と模範キャラクタ1801とを結ぶ直線と、VP2と模範キャラクタ1801とを結ぶ直線と、のなす角度である。ここで、θ2=θ1×2である。   Here, when the second movement operation associated with the left direction is continuously detected after the first movement operation, the virtual camera 2000 counterclockwise by the angle indicated by θ2 with the model character 1801 as the center. It moves to VP2, which is the position moved around. Θ2 is an angle formed by a straight line connecting VP1 and the model character 1801 and a straight line connecting VP2 and the model character 1801. Here, θ2 = θ1 × 2.

この時点においては、図21Cに示すように、模範キャラクタ1801を模範キャラクタ1801に向かって右側から見た様子を示す画像が、モニター250に表示される。さらに、モニター250には、2回目の移動操作の軌跡を表す軌跡画像2101cが表示される。軌跡画像2101cは、図示するように、検知された移動操作に対応付けられた方向を示す矢印の画像とすることができる。ここで、軌跡画像2101cにより示される矢印の太さを、軌跡画像2101bにより示される矢印の太さよりも太くすることができる。   At this time, as shown in FIG. 21C, an image showing the model character 1801 viewed from the right side toward the model character 1801 is displayed on the monitor 250. Further, a trajectory image 2101c representing the trajectory of the second movement operation is displayed on the monitor 250. The trajectory image 2101c can be an arrow image indicating the direction associated with the detected movement operation, as shown in the figure. Here, the thickness of the arrow indicated by the trajectory image 2101c can be made larger than the thickness of the arrow indicated by the trajectory image 2101b.

そして、左方向に対応付けられた3回目の移動操作が2回目の移動操作に連続して検知されると、仮想カメラ2000は、模範キャラクタ1801を中心にしてθ3により示される角度だけ反時計回りに移動した位置であるVP3に移動する。なお、θ3は、VP2と模範キャラクタ1801とを結ぶ直線と、VP3と模範キャラクタ1801とを結ぶ直線と、のなす角度である。ここで、θ3=θ1×4である。   When the third movement operation associated with the left direction is detected continuously after the second movement operation, the virtual camera 2000 rotates counterclockwise by an angle indicated by θ3 with the model character 1801 as the center. Move to VP3 which is the position moved to. Θ3 is an angle formed by a straight line connecting VP2 and the model character 1801 and a straight line connecting VP3 and the model character 1801. Here, θ3 = θ1 × 4.

この時点においては、図21Dに示すように、模範キャラクタ1801を背面(後方)から見た様子を示す画像が、モニター250に表示される。さらに、モニター250には、3回目の移動操作の軌跡を表す軌跡画像2101dが表示される。軌跡画像2101dは、図示するように、検知された移動操作に対応付けられた方向を示す矢印の画像とすることができる。ここで、軌跡画像2101dにより示される矢印の太さを、軌跡画像2101cにより示される矢印の太さよりも太くすることができる。   At this point in time, as shown in FIG. 21D, an image showing the model character 1801 viewed from the back (back) is displayed on the monitor 250. Further, a trajectory image 2101d representing the trajectory of the third movement operation is displayed on the monitor 250. The trajectory image 2101d can be an image of an arrow indicating the direction associated with the detected movement operation, as illustrated. Here, the thickness of the arrow indicated by the trajectory image 2101d can be made larger than the thickness of the arrow indicated by the trajectory image 2101c.

このように、ユーザの移動操作に基づく操作量に応じて、仮想カメラ2000の位置および角度が変更される。   Thus, the position and angle of the virtual camera 2000 are changed according to the operation amount based on the user's movement operation.

次に、本実施形態に係る情報表示装置1700の動作について、図22を参照して説明する。図22は、本実施形態に係る情報表示装置1700が実行する情報表示処理を示すフローチャートである。なお、図22に示す情報表示処理は、例えば、ダンスゲームを実行するゲーム装置として機能する情報表示装置1700が、模範キャラクタ1801を見る角度を変更する旨を指示する操作入力を受け付けた後に実行される処理である。   Next, the operation of the information display apparatus 1700 according to this embodiment will be described with reference to FIG. FIG. 22 is a flowchart showing information display processing executed by the information display apparatus 1700 according to this embodiment. Note that the information display processing shown in FIG. 22 is executed after the information display device 1700 functioning as a game device for executing a dance game receives an operation input instructing to change the angle at which the model character 1801 is viewed, for example. Process.

まず、CPU 101は、初期化処理を実行する(ステップS301)。例えば、CPU 101は、模範キャラクタ1801など、初期画面に表示するオブジェクトの情報を、CD−ROMからRAM 103に読み出すなどの処理を実行する。また、CPU 101は、撮影方向ベクトルの向きを表す変数を0に設定する。なお、撮影方向ベクトルの向きを表す変数は、例えば、0以上360未満の数値により表され、仮想カメラ2000が初期位置であるVP0に存在する場合を0として、仮想カメラ2000が模範キャラクタ1801を中心にして反時計回りへ回転するのに従って回転角度分増加する数値であってもよい。さらに、CPU 101は、後述するタイマカウンタの値を0にクリアする。なお、撮影方向ベクトルの向きを表す変数やタイマカウンタの値は、RAM 103などに記憶されているものとする。   First, the CPU 101 executes an initialization process (step S301). For example, the CPU 101 executes processing such as reading information of an object to be displayed on the initial screen such as the model character 1801 from the CD-ROM to the RAM 103. Further, the CPU 101 sets a variable representing the direction of the shooting direction vector to 0. Note that the variable representing the direction of the shooting direction vector is represented by a numerical value of 0 or more and less than 360, for example, and the virtual camera 2000 is centered on the model character 1801 when the virtual camera 2000 exists in the initial position VP0. The numerical value may be increased by the rotation angle as it rotates counterclockwise. Further, the CPU 101 clears the value of a timer counter described later to zero. It is assumed that variables representing the direction of the shooting direction vector and timer counter values are stored in the RAM 103 or the like.

CPU 101は、ステップS301の処理を完了すると、初期画面を表す画像をモニター250に表示する(ステップS302)。具体的には、CPU 101は、画像処理部110と協働して、RAM 103に読み出したオブジェクトの情報に基づいて、初期画面を表す画像信号を生成し、モニター250に供給する。一方、モニター250は、供給された画像信号に基づいて、初期画面を表示する。初期画面は、例えば、図21Aに示す画面である。   When completing the process of step S301, the CPU 101 displays an image representing an initial screen on the monitor 250 (step S302). Specifically, in cooperation with the image processing unit 110, the CPU 101 generates an image signal representing an initial screen based on the object information read out to the RAM 103 and supplies the image signal to the monitor 250. On the other hand, the monitor 250 displays an initial screen based on the supplied image signal. The initial screen is, for example, the screen shown in FIG. 21A.

CPU 101は、ステップS302の処理を完了すると、注目部位の位置を検知する(ステップS303)。例えば、CPU 101は、入力装置116から供給される信号に基づいて、注目部位の位置を表す座標(X座標、Y座標、Z座標)を取得する。なお、CPU 101は、検知時刻と対応付けて注目部位の位置を表す座標をRAM 103などに記憶する。また、垂直同期割込が所定回数発生する毎に、注目部位の位置を検知する場合、CPU 101は、垂直同期割込が所定回数発生するまでウェイトした後に、当該注目部位の位置の検知を実行する。   When the CPU 101 completes the process of step S302, it detects the position of the site of interest (step S303). For example, based on a signal supplied from the input device 116, the CPU 101 acquires coordinates (X coordinate, Y coordinate, Z coordinate) representing the position of the target region. Note that the CPU 101 stores, in the RAM 103 or the like, coordinates representing the position of the target region in association with the detection time. In addition, when detecting the position of the attention site every time the vertical synchronization interrupt is generated a predetermined number of times, the CPU 101 waits until the vertical synchronization interrupt is generated a predetermined number of times and then detects the position of the attention site. To do.

CPU 101は、ステップS303の処理を完了すると、タイマの値が閾値以上であるか否かを判別する(ステップS304)。なお、このタイマカウンタの値は、後述するステップS311において、軌跡画像2101がモニター250に表示された時刻からの経過時間を表す。なお、軌跡画像2101は、軌跡画像2101b、軌跡画像2101c、軌跡画像2101dの総称である。また、このタイマカウンタの値を自動的にカウントアップするタイマカウンタは、後述するステップS312において起動される。そして、この閾値は、モニター250に軌跡画像2101が表示された時刻から表示が消去される時刻までの時間である猶予時間を表す値である。   When the CPU 101 completes the process of step S303, it determines whether or not the timer value is equal to or greater than a threshold value (step S304). Note that the value of the timer counter represents an elapsed time from the time when the trajectory image 2101 is displayed on the monitor 250 in step S311 described later. The trajectory image 2101 is a generic name for the trajectory image 2101b, the trajectory image 2101c, and the trajectory image 2101d. A timer counter that automatically counts up the value of the timer counter is started in step S312 described later. This threshold value is a value representing a grace period that is the time from the time when the trajectory image 2101 is displayed on the monitor 250 to the time when the display is erased.

CPU 101は、タイマカウンタの値が閾値以上であると判別すると(ステップS304:YES)、画像処理部110を制御するなどして、モニター250に表示している軌跡画像2101を消去する(ステップS305)。   When the CPU 101 determines that the value of the timer counter is equal to or greater than the threshold (step S304: YES), the CPU 101 deletes the trajectory image 2101 displayed on the monitor 250 by controlling the image processing unit 110 (step S305). ).

CPU 101は、タイマカウンタの値が閾値以上ではないと判別した場合(ステップS304:NO)、もしくは、ステップS305の処理を完了した場合、移動操作があったか否かを判別する(ステップS306)。CPU 101は、例えば、検知時刻と対応付けられてRAM 103に記憶されている、注目部位の位置を表す座標に基づいて、移動操作があったか否かを判別する。   If the CPU 101 determines that the value of the timer counter is not equal to or greater than the threshold (step S304: NO), or completes the process of step S305, it determines whether or not there has been a moving operation (step S306). The CPU 101 determines, for example, whether or not there has been a movement operation based on the coordinates representing the position of the region of interest stored in the RAM 103 in association with the detection time.

ここで、注目部位の位置を表す座標に基づいて、移動操作があったか否かを判別する手法の一例について説明する。   Here, an example of a method for determining whether or not a moving operation has been performed based on coordinates representing the position of the target region will be described.

まず、左方向に対応付けられる移動操作を検知する場合について説明する。なお、左方向に対応付けられる移動操作の成立条件は、図19Aに示す通り、Z座標の変化が所定値未満の状態が所定時間以上継続した後、Z座標が単調増加して所定値以上増加することである。   First, a case where a moving operation associated with the left direction is detected will be described. Note that, as shown in FIG. 19A, the conditions for establishing the movement operation associated with the left direction are as follows. After the state where the change in the Z coordinate is less than a predetermined value continues for a predetermined time or more, the Z coordinate monotonously increases and increases by a predetermined value or more. It is to be.

図23は、左方向に対応付けられる移動操作を検知する移動操作検知処理を示すフローチャートである。   FIG. 23 is a flowchart illustrating a moving operation detection process for detecting a moving operation associated with the left direction.

まず、CPU 101は、停止確定フラグがセット済みであるか否かを判別する(ステップS401)。ここで、停止確定フラグは、注目部位が静止状態であることが検知されたときにセットされるフラグである。なお、停止確定フラグは、RAM 103などに記憶され、ステップS301の初期化処理において、クリアされているものとする。   First, the CPU 101 determines whether or not a stop confirmation flag has been set (step S401). Here, the stop confirmation flag is a flag that is set when it is detected that the site of interest is stationary. Note that the stop confirmation flag is stored in the RAM 103 or the like and is cleared in the initialization process in step S301.

CPU 101は、停止確定フラグがセット済みではないと判別すると(ステップS401:NO)、Z座標の変化量が閾値未満であるか否かを判別する(ステップS402)。ここで、Z座標の変化量は、最も遅い検知時刻に対応付けられてRAM 103に記憶されているZ座標の、2番目に遅い検知時刻に対応付けられてRAM 103に記憶されているZ座標からの変化量である。   If the CPU 101 determines that the stop confirmation flag has not been set (step S401: NO), the CPU 101 determines whether or not the amount of change in the Z coordinate is less than a threshold (step S402). Here, the change amount of the Z coordinate is the Z coordinate stored in the RAM 103 in association with the second latest detection time of the Z coordinate stored in the RAM 103 in association with the latest detection time. The amount of change from

CPU 101は、Z座標の変化量が閾値未満でないと判別すると(ステップS402:NO)、停止時間カウンタを停止する(ステップS403)。ここで、停止時間カウンタは、Z座標の変化量が所定の閾値未満の状態が維持されている時間を示す変数の値(以下、「停止時間カウンタの値」という。)をカウントアップするカウンタである。なお、停止時間カウンタの値は、例えば、RAM 103に記憶される。停止時間カウンタは、例えば、CPU 101とRTC 113とが協働することにより実現される。   When the CPU 101 determines that the change amount of the Z coordinate is not less than the threshold (step S402: NO), the CPU 101 stops the stop time counter (step S403). Here, the stop time counter is a counter that counts up the value of a variable (hereinafter referred to as “stop time counter value”) indicating the time during which the amount of change in the Z coordinate is maintained below a predetermined threshold. is there. Note that the value of the stop time counter is stored in the RAM 103, for example. The stop time counter is realized, for example, by the cooperation of the CPU 101 and the RTC 113.

一方、CPU 101は、Z座標の変化量が閾値未満であると判別すると(ステップS402:YES)、停止時間カウンタを起動する(ステップS404)。なお、CPU 101は、停止時間カウンタが既に起動されている場合、何も処理しない。一方、CPU 101は、停止時間カウンタが停止されていた場合、停止時間カウンタの値を0にクリアした後、停止時間カウンタを起動する。   On the other hand, when the CPU 101 determines that the amount of change in the Z coordinate is less than the threshold (step S402: YES), the CPU 101 starts a stop time counter (step S404). Note that the CPU 101 does not perform any processing when the stop time counter is already activated. On the other hand, when the stop time counter is stopped, the CPU 101 clears the value of the stop time counter to 0 and then starts the stop time counter.

CPU 101は、ステップS404の処理を終了すると、停止時間カウンタの値が閾値以上であるか否かを判別する(ステップS405)。つまり、ステップS405では、所定時間以上継続して、注目部位のZ軸方向の変化がなかったか否かが判別される。   When the CPU 101 ends the process of step S404, it determines whether or not the value of the stop time counter is equal to or greater than a threshold value (step S405). That is, in step S405, it is determined whether or not there has been no change in the Z-axis direction of the site of interest for a predetermined time or more.

CPU 101は、停止時間カウンタの値が閾値以上であると判別すると(ステップS405:YES)、停止確定フラグをセットする(ステップS406)。   When the CPU 101 determines that the value of the stop time counter is equal to or greater than the threshold (step S405: YES), it sets a stop confirmation flag (step S406).

CPU 101は、ステップS406の処理を終了すると、停止時間カウンタを停止し(ステップS407)、停止位置を保存する(ステップS408)。停止位置は、例えば、最新の検知時刻に対応付けられてRAM 103に記憶されているY座標であり、RAM 103に記憶される。   When the CPU 101 finishes the process of step S406, it stops the stop time counter (step S407) and stores the stop position (step S408). The stop position is, for example, a Y coordinate stored in the RAM 103 in association with the latest detection time, and is stored in the RAM 103.

一方、CPUは 101は、停止確定フラグがセット済みであると判別すると(ステップS401:YES)、移動開始フラグがセット済みであるか否かを判別する(ステップS409)。ここで、移動開始フラグは、注目部位が静止状態からZ軸の+方向への移動状態に移行したことが検知されたときにセットされるフラグである。なお、移動開始フラグは、RAM 103などに記憶され、ステップS301の初期化処理において、クリアされているものとする。   On the other hand, when the CPU 101 determines that the stop confirmation flag has been set (step S401: YES), the CPU determines whether or not the movement start flag has been set (step S409). Here, the movement start flag is a flag that is set when it is detected that the region of interest has shifted from a stationary state to a movement state in the + direction of the Z axis. It is assumed that the movement start flag is stored in the RAM 103 or the like and has been cleared in the initialization process in step S301.

CPU 101は、移動開始フラグがセット済みではないと判別すると(ステップS409:NO)、Z座標の合計減少量が第1閾値以上であるか否かを判別する(ステップS410)。ここで、Z座標の合計減少量は、最も遅い検知時刻に対応付けられてRAM 103に記憶されたZ座標の、注目部位が停止したと判定された検知時刻に対応付けられてRAM 103に記憶されたZ座標(ステップS408で保存された停止位置)からの減少量である。また、第1閾値は、注目部位が静止状態から移動状態に移行したか否かを判別するための閾値である。つまり、ステップS410では、注目部位が、停止状態からZ軸の−方向への移動状態に移行したか否かが判別される。   When determining that the movement start flag has not been set (step S409: NO), the CPU 101 determines whether or not the total decrease amount of the Z coordinate is equal to or greater than the first threshold (step S410). Here, the total decrease amount of the Z coordinate is stored in the RAM 103 in association with the detection time of the Z coordinate stored in the RAM 103 that is associated with the latest detection time and determined that the target region has stopped. The amount of decrease from the Z coordinate (the stop position stored in step S408). The first threshold value is a threshold value for determining whether or not the target region has shifted from the stationary state to the moving state. That is, in step S410, it is determined whether or not the target region has shifted from a stopped state to a moving state in the negative direction of the Z axis.

CPU 101は、Z座標の合計減少量が第1閾値以上であると判別すると(ステップS410:YES)、停止確定フラグをクリアする(ステップS413)。つまり、本移動操作検知処理では、左方向に対応付けられる移動操作を検知することが目的であるため、注目部位が停止状態から右方向に移動したことが検知された場合、再度、注目部位が停止状態にあることを検知する処理に戻る。   If the CPU 101 determines that the total amount of decrease in the Z coordinate is equal to or greater than the first threshold (step S410: YES), the CPU 101 clears the stop confirmation flag (step S413). In other words, the purpose of this movement operation detection process is to detect a movement operation associated with the left direction. Therefore, when it is detected that the attention site has moved to the right from the stopped state, the attention site is again detected. The process returns to the process of detecting the stop state.

一方、CPU 101は、Z座標の合計減少量が第1閾値以上ではないと判別すると(ステップS410:NO)、Z座標の合計増加量が第1閾値以上であるか否かを判別する(ステップS411)。ここで、Z座標の合計増加量は、最も遅い検知時刻に対応付けられてRAM 103に記憶されたZ座標の、注目部位が停止したと判定された検知時刻に対応付けられてRAM 103に記憶されたZ座標(ステップS408で保存された停止位置)からの増加量である。つまり、ステップS411では、注目部位が、停止状態からZ軸の+方向への移動状態に移行したか否かが判別される。   On the other hand, if the CPU 101 determines that the total decrease amount of the Z coordinate is not equal to or greater than the first threshold value (step S410: NO), the CPU 101 determines whether the total increase amount of the Z coordinate is equal to or greater than the first threshold value (step S410). S411). Here, the total increase amount of the Z coordinate is stored in the RAM 103 in association with the detection time of the Z coordinate stored in the RAM 103 that is associated with the latest detection time and determined that the target region has stopped. This is the amount of increase from the Z coordinate (the stop position stored in step S408). That is, in step S411, it is determined whether or not the target region has shifted from a stopped state to a moving state in the + direction of the Z axis.

CPU 101は、Z座標の合計増加量が第1閾値以上であると判別すると(ステップS411:YES)、移動開始フラグをセットする(ステップS412)。   When the CPU 101 determines that the total increase amount of the Z coordinate is equal to or greater than the first threshold (step S411: YES), the CPU 101 sets a movement start flag (step S412).

一方、CPUは 101は、移動開始フラグがセット済みであると判別すると(ステップS409:YES)、Z座標の増加量が閾値未満であるか否かを判別する(ステップS414)。ここで、Z座標の増加量は、最も遅い検知時刻に対応付けられてRAM 103に記憶されているZ座標の、2番目に遅い検知時刻に対応付けられてRAM 103に記憶されているZ座標からの増加量である。つまり、ステップS414では、注目部位のZ軸の+方向への移動が終了したか否かが判別される。   On the other hand, when the CPU 101 determines that the movement start flag has been set (step S409: YES), the CPU determines whether or not the increase amount of the Z coordinate is less than the threshold (step S414). Here, the increase amount of the Z coordinate is the Z coordinate stored in the RAM 103 in association with the second latest detection time of the Z coordinate stored in the RAM 103 in association with the latest detection time. Increase from That is, in step S414, it is determined whether or not the movement of the target region in the + direction of the Z axis has been completed.

CPUは 101は、Z座標の増加量が閾値未満であると判別すると(ステップS414:YES)、停止確定フラグをクリアし(ステップS415)、さらに、移動開始フラグをクリアする(ステップS416)。   When the CPU 101 determines that the increase amount of the Z coordinate is less than the threshold (step S414: YES), the CPU clears the stop confirmation flag (step S415), and further clears the movement start flag (step S416).

CPU 101は、ステップS416の処理を終了すると、Z座標の合計増加量が第2閾値以上であるか否かを判別する(ステップS417)。ここで、第2閾値は、注目部位が移動操作とみなせる程度に移動したか否かを判別するための閾値である。従って、第2閾値は、第1閾値よりも大きい。   CPU 101 complete | finishes the process of step S416, and will discriminate | determine whether the total increase amount of Z coordinate is more than a 2nd threshold value (step S417). Here, the second threshold value is a threshold value for determining whether or not the target region has moved to such an extent that it can be regarded as a moving operation. Accordingly, the second threshold value is larger than the first threshold value.

CPUは 101は、Z座標の合計増加量が閾値以上であると判別すると(ステップS417:YES)、左方向に対応付けられる移動操作ありと判定する(ステップS418)。例えば、CPU 101は、左方向に対応付けられる移動操作があったことを示すフラグをセットする。このフラグは、例えば、RAM 103に記憶される。   When the CPU 101 determines that the total increase amount of the Z coordinate is equal to or greater than the threshold (step S417: YES), the CPU determines that there is a moving operation associated with the left direction (step S418). For example, the CPU 101 sets a flag indicating that there has been a moving operation associated with the left direction. This flag is stored in the RAM 103, for example.

一方、CPU 101は、ステップS403の処理を終了した場合、停止時間カウンタの値が閾値以上ではないと判定した場合(ステップS405:NO)、ステップS408の処理を終了した場合、Z座標の増加量が第1閾値以上ではないと判別した場合(ステップS411:NO)、ステップS412の処理を終了した場合、ステップS413の処理を終了した場合、Z座標の増加量が閾値未満ではないと判別した場合(ステップS414:NO)、もしくは、Z座標の合計増加量が第2閾値以上ではないと判別した場合(ステップS417:NO)、左方向に対応付けられる移動操作なしと判定する(ステップS419)。例えば、CPU 101は、左方向に対応付けられる移動操作があったことを示すフラグをクリアする。   On the other hand, when the CPU 101 completes the process of step S403, determines that the value of the stop time counter is not equal to or greater than the threshold value (step S405: NO), or ends the process of step S408, increases the amount of Z coordinates. Is determined not to be greater than or equal to the first threshold (step S411: NO), the process of step S412 is terminated, the process of step S413 is terminated, or the increase amount of the Z coordinate is determined not to be less than the threshold (Step S414: NO) Or, when it is determined that the total increase amount of the Z coordinate is not greater than or equal to the second threshold (Step S417: NO), it is determined that there is no moving operation associated with the left direction (Step S419). For example, the CPU 101 clears a flag indicating that there has been a moving operation associated with the left direction.

CPU 101は、ステップS418もしくはステップS419の処理を終了すると、移動操作検知処理を終了する。   When the CPU 101 ends the process of step S418 or step S419, the movement operation detection process ends.

なお、図23に示すフローチャートは、左方向に対応付けられる移動操作を検知する処理であるが、他の方向に対応付けられる移動操作についても同様の手法により検知することができる。つまり、図23に示すフローチャートにおける各ステップの処理を、以下に示す処理に置換することで、他の方向に対応付けられる移動操作が検知される。なお、停止確定フラグ、停止時間カウンタ、移動開始フラグは、方向毎に用意される。   Note that the flowchart shown in FIG. 23 is a process for detecting a moving operation associated with the left direction, but a moving operation associated with another direction can also be detected by the same method. That is, by replacing the process of each step in the flowchart shown in FIG. 23 with the process shown below, a moving operation associated with another direction is detected. A stop confirmation flag, a stop time counter, and a movement start flag are prepared for each direction.

まず、右方向に対応付けられる移動操作を検知する場合、ステップS410においてZ座標の合計増加量が第1閾値以上であるか否かが判別され、ステップS411においてZ座標の合計減少量が第1閾値以上であるか否かが判別され、ステップS414においてZ座標の減少量が閾値未満であるか否かが判別され、ステップS417においてZ座標の合計減少量が第2閾値以上であるか否かが判別され、ステップS418において右方向に対応付けられる移動操作ありと判定され、ステップS419において右方向に対応付けられる移動操作なしと判定される。   First, when a movement operation associated with the right direction is detected, it is determined in step S410 whether or not the total increase amount of the Z coordinate is greater than or equal to the first threshold value. In step S411, the total decrease amount of the Z coordinate is the first value. It is determined whether or not the threshold value is greater than or equal to a threshold value. In step S414, it is determined whether or not the decrease amount of the Z coordinate is less than the threshold value. In step S417, whether or not the total decrease amount of the Z coordinate is equal to or greater than the second threshold value. In step S418, it is determined that there is a moving operation associated with the right direction, and in step S419, it is determined that there is no moving operation associated with the right direction.

そして、上方向に対応付けられる移動操作を検知する場合、ステップS402においてY座標の変化量が閾値未満であるか否かが判別され、ステップS410においてY座標の合計減少量が第1閾値以上であるか否かが判別され、ステップS411においてY座標の合計増加量が第1閾値以上であるか否かが判別され、ステップS414においてY座標の増加量が閾値未満であるか否かが判別され、ステップS417においてY座標の合計増加量が第2閾値以上であるか否かが判別され、ステップS418において上方向に対応付けられる移動操作ありと判定され、ステップS419において上方向に対応付けられる移動操作なしと判定される。   When a moving operation associated with the upward direction is detected, it is determined in step S402 whether or not the change amount of the Y coordinate is less than the threshold value. In step S410, the total decrease amount of the Y coordinate is greater than or equal to the first threshold value. In step S411, it is determined whether or not the total increase amount of the Y coordinate is greater than or equal to the first threshold value. In step S414, it is determined whether or not the increase amount of the Y coordinate is less than the threshold value. In step S417, it is determined whether or not the total increase amount of the Y coordinate is greater than or equal to the second threshold value. In step S418, it is determined that there is a moving operation associated with the upward direction, and in step S419, the movement associated with the upward direction. It is determined that there is no operation.

そして、下方向に対応付けられる移動操作を検知する場合、ステップS402においてY座標の変化量が閾値未満であるか否かが判別され、ステップS410においてY座標の合計増加量が第1閾値以上であるか否かが判別され、ステップS411においてY座標の合計減少量が第1閾値以上であるか否かが判別され、ステップS414においてY座標の減少量が閾値未満であるか否かが判別され、ステップS417においてY座標の合計減少量が第2閾値以上であるか否かが判別され、ステップS418において下方向に対応付けられる移動操作ありと判定され、ステップS419において下方向に対応付けられる移動操作なしと判定される。   When a movement operation associated with the downward direction is detected, it is determined in step S402 whether or not the change amount of the Y coordinate is less than the threshold value. In step S410, the total increase amount of the Y coordinate is greater than or equal to the first threshold value. In step S411, it is determined whether or not the total decrease amount of the Y coordinate is greater than or equal to the first threshold value. In step S414, it is determined whether or not the decrease amount of the Y coordinate is less than the threshold value. In step S417, it is determined whether or not the total decrease amount of the Y coordinate is greater than or equal to the second threshold value. In step S418, it is determined that there is a moving operation associated with the downward direction, and in step S419, the movement associated with the downward direction. It is determined that there is no operation.

CPU 101は、いずれの方向に対応付けられる移動操作もなかったと判別すると(ステップS306:NO)、ステップS303に処理を戻す。   When the CPU 101 determines that there is no movement operation associated with any direction (step S306: NO), the CPU 101 returns the process to step S303.

一方、CPU 101は、いずれかの方向に対応付けられる移動操作があったと判別すると(ステップS306:YES)、今回検知された移動操作の軌跡が、直前に検知された移動操作の軌跡と類似するか否かを判別する(ステップS307)。つまり、ステップS307においては、直前に検知された移動操作の軌跡を表す軌跡画像2101がモニター250に表示されており、かつ、今回検知された移動操作の軌跡と直前に検知された移動操作の軌跡とが類似しているか否かが判別される。なお、移動操作の軌跡が互いに類似しているか否かは、移動操作に対応付けられる方向が一致するか否かのみにより判別されてもよいし、このような方向の一致/不一致に加え、さらに、これらの軌跡の重なり具合が所定の閾値よりも大きいかを考慮して判定されてもよい。   On the other hand, when the CPU 101 determines that there is a moving operation associated with any direction (step S306: YES), the trajectory of the moving operation detected this time is similar to the trajectory of the moving operation detected immediately before. Whether or not (step S307). That is, in step S307, a trajectory image 2101 representing the trajectory of the movement operation detected immediately before is displayed on the monitor 250, and the trajectory of the movement operation detected this time and the trajectory of the movement operation detected immediately before are displayed. Are similar to each other. Whether or not the trajectories of the movement operation are similar to each other may be determined only by whether or not the directions associated with the movement operation match. In addition to the coincidence / mismatch of such directions, The determination may be made in consideration of whether the degree of overlap of these trajectories is larger than a predetermined threshold.

CPU 101は、今回検知された移動操作の軌跡が、直前に検知された移動操作の軌跡と類似していると判別した場合(ステップS307:YES)、Nに(N+1)を代入、つまり、Nの値を1つ増加させる(ステップS308)。ここで、Nは、今回検知された移動操作の軌跡と軌跡が類似する移動操作が、今回の移動操作が検知される直前に、何回連続して検知されているかの回数を示す値である。ここで、連続とは、直前の移動操作の軌跡を表す軌跡画像2101がモニター250に表示された時刻から猶予時間が経過する前に(直前の移動操作の軌跡を表す軌跡画像2101がモニター250に表示されている間に)、次の移動操作が検知されることを意味する。なお、Nの値は、RAM 103に記憶される。   When the CPU 101 determines that the locus of the movement operation detected this time is similar to the locus of the movement operation detected immediately before (step S307: YES), it substitutes (N + 1) for N, that is, N Is incremented by one (step S308). Here, N is a value indicating the number of times that a moving operation similar to the locus of the movement operation detected this time is detected immediately before the movement operation is detected. . Here, “continuous” means that the trajectory image 2101 representing the trajectory of the immediately preceding moving operation is displayed on the monitor 250 before the grace time elapses from the time when the trajectory image 2101 representing the trajectory of the immediately preceding moving operation is displayed on the monitor 250. Means that the next move operation is detected (while displayed). Note that the value of N is stored in the RAM 103.

一方、CPU 101は、今回検知された移動操作の軌跡が、直前に検知された移動操作の軌跡と類似していないと判別した場合(ステップS307:NO)、Nに0を代入、つまり、Nの値を0にする(ステップS309)。なお、Nの値は、RAM 103に記憶される。   On the other hand, when the CPU 101 determines that the trajectory of the movement operation detected this time is not similar to the trajectory of the movement operation detected immediately before (step S307: NO), the CPU 101 substitutes 0 for N, that is, N Is set to 0 (step S309). Note that the value of N is stored in the RAM 103.

CPU 101は、ステップS308もしくはステップS309の処理を完了すると、Nの値に基づいて回転角度を決定する(ステップS310)。ここで、回転角度は、撮影方向ベクトル(模範キャラクタ1801を撮影する角度)を回転させる角度である。ここで、Nの値が0である場合、回転角度は、検知された移動操作の方向、当該移動操作の軌跡の長さ、当該移動操作の速さなどにあらかじめ対応付けられる既定値に設定される。一方、Nの値が1以上である場合、回転角度は、この既定値よりも大きな値であって、Nが大きいほど大きな値に設定される。決定された回転角度は、RAM 103に記憶される。   When completing the process of step S308 or step S309, the CPU 101 determines the rotation angle based on the value of N (step S310). Here, the rotation angle is an angle for rotating a shooting direction vector (an angle at which the model character 1801 is shot). Here, when the value of N is 0, the rotation angle is set to a default value associated in advance with the direction of the detected moving operation, the length of the trajectory of the moving operation, the speed of the moving operation, and the like. The On the other hand, when the value of N is 1 or more, the rotation angle is a value larger than the predetermined value, and is set to a larger value as N is larger. The determined rotation angle is stored in the RAM 103.

CPU 101は、ステップS310の処理を完了すると、RAM 103に記憶されている注目部位の位置を表す座標に基づいて、最後に検知された移動操作の軌跡を表す軌跡画像2101をモニター250に表示する(ステップS311)。   When the CPU 101 completes the process of step S <b> 310, the trajectory image 2101 representing the trajectory of the last detected movement operation is displayed on the monitor 250 based on the coordinates representing the position of the target region stored in the RAM 103. (Step S311).

CPU 101は、ステップS311の処理を終了すると、タイマカウンタを起動する(ステップS312)。なお、このタイマカウンタは、移動操作の軌跡を表す軌跡画像2101がモニター250に表示された時刻からの経過時間を表す値を、所定の周期毎に自動でカウントアップする。このタイマカウンタは、例えば、CPU 101とRTC113とが協働することにより実現される。   When the CPU 101 ends the process of step S311, the CPU 101 starts a timer counter (step S312). The timer counter automatically counts up a value representing the elapsed time from the time when the trajectory image 2101 representing the trajectory of the moving operation is displayed on the monitor 250 at every predetermined period. This timer counter is realized by the cooperation of the CPU 101 and the RTC 113, for example.

CPU 101は、ステップS312の処理を終了すると、仮想カメラ2000を移動する(ステップS313)。例えば、CPU 101は、ステップS310において決定された回転角度に応じて仮想カメラ2000を移動させ、画像処理部107を制御して、移動後の仮想カメラ2000から撮影される仮想空間内の様子を表す画像信号を生成し、モニター250に供給する。一方、モニター250は、CPU 101から供給された画像信号に基づいて、以前とは異なる視点から見た仮想空間内の様子を表す画像を表示する。   When the CPU 101 finishes the process of step S312, the CPU 101 moves the virtual camera 2000 (step S313). For example, the CPU 101 moves the virtual camera 2000 according to the rotation angle determined in step S310, controls the image processing unit 107, and represents a state in the virtual space taken from the moved virtual camera 2000. An image signal is generated and supplied to the monitor 250. On the other hand, based on the image signal supplied from the CPU 101, the monitor 250 displays an image representing a state in the virtual space viewed from a viewpoint different from the previous one.

CPU 101は、ステップS313の処理を終了すると、ステップS303に処理を戻す。   When the CPU 101 ends the process of step S313, the process returns to step S303.

本実施形態に係る情報表示装置1700によれば、軌跡が互いに類似する移動操作が連続して行われた場合、移動操作が検知される毎に、移動操作に対応付けられる回転角度が大きくなる。このため、軌跡が互いに類似する移動操作が繰り返して検知されると、比較的少ない回数の移動操作により、視点を速やかに回転させることができる。   According to the information display device 1700 according to the present embodiment, when a moving operation with similar trajectories is continuously performed, the rotation angle associated with the moving operation increases each time the moving operation is detected. For this reason, when a moving operation with similar trajectories is repeatedly detected, the viewpoint can be quickly rotated by a relatively small number of moving operations.

(第5の実施形態)
第4の実施形態では、カメラや赤外線センサを備える入力装置116を用いて、注目部位の動きを検知する例を示した。しかし、注目部位の動きを検知する手法はかかる手法に限られない。以下、本実施形態では、第4の実施形態に係る情報処理装置150において、入力装置116に代えて、右手用コントローラ210と左手用コントローラ220とセンサバー230とを用いて、注目部位の動きを検知する例について説明する。
(Fifth embodiment)
In 4th Embodiment, the example which detects the motion of an attention site | part was shown using the input device 116 provided with a camera and an infrared sensor. However, the method for detecting the movement of the region of interest is not limited to this method. Hereinafter, in the present embodiment, in the information processing apparatus 150 according to the fourth embodiment, instead of the input device 116, the right hand controller 210, the left hand controller 220, and the sensor bar 230 are used to detect the movement of the attention site. An example will be described.

図24は、本実施形態に係る情報表示装置の構成例を示す図である。   FIG. 24 is a diagram illustrating a configuration example of the information display device according to the present embodiment.

右手用コントローラ210は、主となるコントローラであり、例えば、テレビ等のリモコンと類似した外観を有し、情報処理装置150とワイヤレスで(無線通信によって)接続される。   The right-hand controller 210 is a main controller, and has an appearance similar to a remote controller such as a television, for example, and is connected to the information processing apparatus 150 wirelessly (by wireless communication).

一方、左手用コントローラ220は、右手用コントローラ210と接続された状態で使用される補助的なコントローラであり、右手用コントローラ210を介して、情報処理装置150に情報を送信する。   On the other hand, the left-hand controller 220 is an auxiliary controller that is used while being connected to the right-hand controller 210, and transmits information to the information processing apparatus 150 via the right-hand controller 210.

ユーザは、右手用コントローラ210と左手用コントローラ220とを両手で把持して、ゲームをプレイすることになる。なお、情報処理装置150において、右手用コントローラ210を右手で把持し、左手用コントローラ220を左手で把持することが、正しい(標準的な)持ち方として定められている。   The user plays the game by holding the right-hand controller 210 and the left-hand controller 220 with both hands. In the information processing apparatus 150, holding the right hand controller 210 with the right hand and holding the left hand controller 220 with the left hand is determined as a correct (standard) way of holding.

また、センサバー230は、所定の長さの棒状に形成され、モニター250の上部に、画面の向きに沿って適宜固定される。このセンサバー230には、両端に1つずつ発光素子231が埋設されている。なお、埋設される発光素子231の数は一例であり、これらの数より多くてもよい。センサバー230は、情報処理装置150から電源供給を受けて発光素子231を適宜発光させる。なお、センサバー230は、所定のケーブルを介して情報処理装置150と接続される。   The sensor bar 230 is formed in a bar shape having a predetermined length, and is appropriately fixed on the upper portion of the monitor 250 along the direction of the screen. In the sensor bar 230, one light emitting element 231 is embedded at each end. Note that the number of light-emitting elements 231 embedded is an example, and may be larger than these numbers. The sensor bar 230 receives power from the information processing apparatus 150 and causes the light emitting element 231 to emit light appropriately. The sensor bar 230 is connected to the information processing apparatus 150 via a predetermined cable.

右手用コントローラ210は、先端にCCDカメラ211が配置され、先端がモニター250に向けられると、このCCDカメラ211がセンサバー230の2つの発光素子231(2つの発光点)を含む画像を撮影する。また、右手用コントローラ210は、内部に無線通信部を備えており、撮影した画像の情報を、無線通信にて情報処理装置150に順次送信する。   In the right-hand controller 210, when the CCD camera 211 is disposed at the tip and the tip is directed to the monitor 250, the CCD camera 211 captures an image including the two light emitting elements 231 (two light emitting points) of the sensor bar 230. Further, the right-hand controller 210 includes a wireless communication unit therein, and sequentially transmits information of captured images to the information processing apparatus 150 by wireless communication.

そして、情報処理装置150は、右手用コントローラ210から送られた画像中における2つの発光点の位置関係等に基づいて、右手用コントローラ210の位置及び向き等を適宜取得する。例えば、CPU 101及び画像処理部107等は、右手用コントローラ210から見える2つの発光点の位置関係等を解析して、右手用コントローラ210の空間位置及び、その先端の向き(長手軸線の方向)を算定し、最終的に、ユーザが右手用コントローラ210を画面上のどこに向けて操作しているか等を取得する。なお、このような右手用コントローラ210の位置等の計測は、例えば、垂直同期割り込み(1/60秒)毎に行われる。   Then, the information processing apparatus 150 appropriately acquires the position and orientation of the right hand controller 210 based on the positional relationship between the two light emitting points in the image sent from the right hand controller 210. For example, the CPU 101, the image processing unit 107, and the like analyze the positional relationship between two light emitting points that can be seen from the right-hand controller 210, and the spatial position of the right-hand controller 210 and the direction of the tip (the direction of the longitudinal axis). Is calculated, and finally the user is operating the right-hand controller 210 on the screen. Note that such measurement of the position of the right-hand controller 210 is performed, for example, every vertical synchronization interrupt (1/60 seconds).

また、右手用コントローラ210は、内部に、3軸の加速度センサを備えており、右手用コントローラ210の3軸方向の動きを測定することが可能となっている。なお、このような加速度センサの代わりに、角速度センサや傾きセンサ等により、右手用コントローラ210の動きを測定してもよい。右手用コントローラ210は、このような測定結果(例えば、3軸それぞれの加速度情報)を情報処理装置150に順次送信する。そして、情報処理装置150は、右手用コントローラ210から送られる測定結果に基づいて、右手用コントローラ210の動きを検出する。例えば、ユーザが右手用コントローラ210を振る、ひねる、突くといった動作やその移動方向を取得する。なお、このような右手用コントローラ210の動きの検出も、例えば、垂直同期割り込み毎に行われる。   The right-hand controller 210 includes a triaxial acceleration sensor therein, and can measure the movement of the right hand controller 210 in the three-axis direction. Note that the movement of the right-hand controller 210 may be measured by an angular velocity sensor, an inclination sensor, or the like instead of such an acceleration sensor. The right-hand controller 210 sequentially transmits such measurement results (eg, acceleration information for each of the three axes) to the information processing apparatus 150. Then, the information processing apparatus 150 detects the movement of the right hand controller 210 based on the measurement result sent from the right hand controller 210. For example, an operation such as a user swinging, twisting or striking the right-hand controller 210 and its moving direction are acquired. Note that such detection of the movement of the right-hand controller 210 is also performed, for example, every vertical synchronization interrupt.

右手用コントローラ210の上面には、十字形キー212が配置されており、ユーザが任意の方向を指定した指示入力を行うことができる。また、Aボタン213や、各種ボタン215も上面に配置されており、ユーザはこれらのボタンに対応付けられた指示入力を行うことができる。一方、Bボタン214は、右手用コントローラ210の下面に配置される。Bボタン214は、押圧される面に窪みが構成され、ユーザがトリガを引くように操作することができるようになっている。   A cross-shaped key 212 is arranged on the upper surface of the right-hand controller 210, and the user can input an instruction specifying an arbitrary direction. An A button 213 and various buttons 215 are also arranged on the upper surface, and the user can input instructions associated with these buttons. On the other hand, the B button 214 is disposed on the lower surface of the right-hand controller 210. The B button 214 has a depression formed on the surface to be pressed, and can be operated so that the user pulls the trigger.

右手用コントローラ210の上面には、複数の小さな孔216が設けられており、内部に埋設されたスピーカからクリアな音声を出力できるようになっている。右手用コントローラ210の上面のインジケータ217は、右手用コントローラ210が複数使用された場合でもユーザが識別できるように、適宜点灯する。また、右手用コントローラ210の上面に用意された電源ボタン218は、例えば、情報処理装置150のオン・オフを指示する。更に、右手用コントローラ210の内部には、バイブレータ等の振動機構が配置され、情報処理装置150から送られる指示情報に応答して、振動を発生させることもできるようになっている。   A plurality of small holes 216 are provided on the upper surface of the right-hand controller 210 so that clear sound can be output from a speaker embedded therein. The indicator 217 on the upper surface of the right-hand controller 210 is appropriately lit so that the user can identify even when a plurality of right-hand controllers 210 are used. The power button 218 prepared on the upper surface of the right-hand controller 210 instructs, for example, on / off of the information processing apparatus 150. Further, a vibration mechanism such as a vibrator is arranged inside the right-hand controller 210 so that vibration can be generated in response to instruction information sent from the information processing apparatus 150.

一方、左手用コントローラ220も、内部に、3軸の加速度センサを備えており、左手用コントローラ220の3軸方向の動きを測定することが可能となっている。なお、このような加速度センサの代わりに、角速度センサや傾きセンサ等により、左手用コントローラ220の動きを測定してもよい。左手用コントローラ220は、このような測定結果(例えば、3軸それぞれの加速度情報)を、右手用コントローラ210を介して情報処理装置150に順次送信する。   On the other hand, the left-hand controller 220 also includes a triaxial acceleration sensor inside, and can measure the movement of the left-hand controller 220 in the three-axis direction. Note that the movement of the left-hand controller 220 may be measured by an angular velocity sensor, an inclination sensor, or the like instead of such an acceleration sensor. The left-hand controller 220 sequentially transmits such measurement results (eg, acceleration information for each of the three axes) to the information processing apparatus 150 via the right-hand controller 210.

そして、情報処理装置150は、左手用コントローラ220からの測定結果に基づいて、左手用コントローラ220の動きを検出する。例えば、ユーザが左手用コントローラ220を振る、ひねる、突くといった動作やその移動方向を取得する。なお、このような左手用コントローラ220の動きの検出も、例えば、垂直同期割り込み毎に行われる。   Then, the information processing apparatus 150 detects the movement of the left-hand controller 220 based on the measurement result from the left-hand controller 220. For example, an operation such as a user swinging, twisting, or striking the left-hand controller 220 and its moving direction are acquired. The detection of the movement of the left-hand controller 220 is also performed for each vertical synchronization interrupt, for example.

左手用コントローラ220の上面には、コントロールスティック221が配置されており、ユーザが任意の方向を指定した指示入力を行うことができる。この他にも、左手用コントローラ220の先端部には、Cボタン222が配置され、また、左手用コントローラ220の下面には、Zボタン223が配置されており、ユーザが各種操作を行えるようになっている。   A control stick 221 is arranged on the upper surface of the left-hand controller 220, and the user can input an instruction specifying an arbitrary direction. In addition, a C button 222 is disposed at the tip of the left hand controller 220, and a Z button 223 is disposed on the lower surface of the left hand controller 220 so that the user can perform various operations. It has become.

このように、右手用コントローラ210と左手用コントローラ220とセンサバー230との組合せによって、右手用コントローラ210や左手用コントローラ220の操作や位置等が得られる。なお、右手用コントローラ210等の位置の測定は、センサバー230の発光点(発光素子231)をCCDカメラ211が撮影する手法に限られず、他の手法でも適宜適用可能である。例えば、センサバー230を介した2地点間の無線通信の時差等から、右手用コントローラ210等の位置を求めてもよく、また、超音波や赤外線等を使用して、三角測量の原理にて右手用コントローラ210等の位置を求めてもよい。   As described above, the operation, position, and the like of the right-hand controller 210 and the left-hand controller 220 are obtained by the combination of the right-hand controller 210, the left-hand controller 220, and the sensor bar 230. The measurement of the position of the right-hand controller 210 or the like is not limited to the method in which the CCD camera 211 captures the light emission point (the light emitting element 231) of the sensor bar 230, and other methods can be appropriately applied. For example, the position of the right-hand controller 210 or the like may be obtained from the time difference of wireless communication between two points via the sensor bar 230, or the right hand may be determined based on the principle of triangulation using ultrasonic waves or infrared rays. The position of the controller 210 or the like may be obtained.

ここで、ユーザが右手で右手用コントローラ210を把持している場合、右手の位置と右手用コントローラ210の位置とは、ほぼ同じ位置であるとみなすことができる。従って、ユーザが右手で右手用コントローラ210を把持している場合、CPU 101は、上述した種々の処理により、右手の動きを検知することができる。   Here, when the user is holding the right hand controller 210 with the right hand, the position of the right hand and the position of the right hand controller 210 can be regarded as substantially the same position. Therefore, when the user holds the right hand controller 210 with the right hand, the CPU 101 can detect the movement of the right hand by the various processes described above.

同様に、ユーザが左手で左手用コントローラ220を把持している場合、左手の位置と左手用コントローラ220の位置とは、ほぼ同じ位置であるとみなすことができる。従って、ユーザが左手で左手用コントローラ220を把持している場合、CPU 101は、上述した種々の処理により、左手の動きを検知することができる。   Similarly, when the user is holding the left hand controller 220 with the left hand, the position of the left hand and the position of the left hand controller 220 can be regarded as substantially the same position. Therefore, when the user holds the left hand controller 220 with the left hand, the CPU 101 can detect the movement of the left hand by the various processes described above.

なお、本実施形態に係る情報表示処理は、ステップS303において、入力装置116に代えて、右手用コントローラ210と左手用コントローラ220とセンサバー230とを用いて、注目部位の位置を検知すること以外は、図22に示す情報表示処理と同様である。   Note that the information display processing according to the present embodiment is performed in step S303 except that the position of the target region is detected using the right hand controller 210, the left hand controller 220, and the sensor bar 230 instead of the input device 116. This is the same as the information display process shown in FIG.

本実施形態に係る情報表示装置によれば、軌跡が互いに類似する移動操作が連続して行われた場合、移動操作が検知される毎に、移動操作に対応付けられる回転角度が大きくなる。このため、軌跡が互いに類似する移動操作が繰り返して検知されると、比較的少ない回数の移動操作により、速やかに視点を回転させることができる。   According to the information display apparatus according to the present embodiment, when a moving operation with similar trajectories is continuously performed, the rotation angle associated with the moving operation increases each time the moving operation is detected. For this reason, when a moving operation with similar trajectories is repeatedly detected, the viewpoint can be quickly rotated by a relatively small number of moving operations.

(第6の実施形態)
第1〜5の実施形態では、1つの情報表示装置に本発明が適用される例を示したが、複数の情報表示装置を含む情報表示システムに本発明が適用されても良い。以下、本実施形態に係る情報表示システムについて説明する。
(Sixth embodiment)
In the first to fifth embodiments, examples in which the present invention is applied to one information display device have been described. However, the present invention may be applied to an information display system including a plurality of information display devices. Hereinafter, the information display system according to the present embodiment will be described.

図26に示すように、本実施形態に係る情報表示システム2600は、情報表示装置310と、情報表示装置320と、情報表示サーバ330と、を備える。情報表示装置310と情報表示装置320と情報表示サーバ330とは、インターネットなどのコンピュータ通信網を介して相互に接続され、インフラストラクチャ通信により相互に通信する。なお、情報表示サーバ330が備える機能を、情報表示装置310と情報表示装置320とのうちの少なくとも一方が備えている場合、情報表示システム2600に情報表示サーバ330が含まれていなくてもよい。   As shown in FIG. 26, the information display system 2600 according to this embodiment includes an information display device 310, an information display device 320, and an information display server 330. The information display device 310, the information display device 320, and the information display server 330 are connected to each other via a computer communication network such as the Internet, and communicate with each other by infrastructure communication. In addition, when at least one of the information display device 310 and the information display device 320 has a function that the information display server 330 has, the information display server 330 may not be included in the information display system 2600.

情報表示装置310は、情報表示装置320や情報表示サーバ330とインターネットを介して接続され、種々のデータを送信および受信する。例えば、情報表示装置310は、情報表示サーバ330から受信した画像情報に基づいた画像を、ユーザAに提示する。また、情報表示装置310は、ユーザAの動作から検知した移動操作を示す情報を、情報表示サーバ330に送信する。情報表示装置310は、第1の実施形態に係る情報表示装置300と同様の構成であってもよい。例えば、情報処理装置100のスロットに所定のメモリカセット106が装着された状態において、情報処理装置100の電源が投入されることにより、情報表示装置310が実現される。   The information display device 310 is connected to the information display device 320 and the information display server 330 via the Internet, and transmits and receives various data. For example, the information display device 310 presents an image based on the image information received from the information display server 330 to the user A. Further, the information display device 310 transmits information indicating the movement operation detected from the operation of the user A to the information display server 330. The information display device 310 may have the same configuration as the information display device 300 according to the first embodiment. For example, the information display apparatus 310 is realized by turning on the information processing apparatus 100 in a state where a predetermined memory cassette 106 is mounted in the slot of the information processing apparatus 100.

情報表示装置320は、情報表示装置310や情報表示サーバ330とインターネットを介して接続され、種々のデータを送信および受信する。例えば、情報表示装置320は、情報表示サーバ330から受信した画像情報に基づいた画像を、ユーザBに提示する。また、情報表示装置320は、ユーザBの動作から検知した移動操作を示す情報を、情報表示サーバ330に送信する。情報表示装置320は、基本的に、情報表示装置310と同様の構成および機能を有する。   The information display device 320 is connected to the information display device 310 and the information display server 330 via the Internet, and transmits and receives various data. For example, the information display device 320 presents an image based on the image information received from the information display server 330 to the user B. Further, the information display device 320 transmits information indicating the movement operation detected from the operation of the user B to the information display server 330. The information display device 320 basically has the same configuration and function as the information display device 310.

情報表示サーバ330は、情報表示装置310や情報表示装置3210とインターネットを介して接続され、種々のデータを送信および受信する。例えば、情報表示サーバ330は、ユーザAやユーザBに提示される画像を表す画像情報を生成し、情報表示装置310や情報表示装置320に送信する。また、情報表示サーバ330は、ユーザAの動作から検知された移動操作を示す情報を情報表示装置310から受信するとともに、ユーザBの動作から検知された移動操作を示す情報を情報表示装置320から受信する。情報表示サーバ330は、パーソナルコンピュータやワークステーションなどにより構成される。情報表示サーバ330は、サーバ側制御部、サーバ側記憶部、サーバ側通信部などを備える。   The information display server 330 is connected to the information display device 310 and the information display device 3210 via the Internet, and transmits and receives various data. For example, the information display server 330 generates image information representing an image presented to the user A or the user B, and transmits the image information to the information display device 310 or the information display device 320. Further, the information display server 330 receives information indicating the movement operation detected from the operation of the user A from the information display device 310, and receives information indicating the movement operation detected from the operation of the user B from the information display device 320. Receive. The information display server 330 is configured by a personal computer, a workstation, or the like. The information display server 330 includes a server side control unit, a server side storage unit, a server side communication unit, and the like.

次に、本実施形態に係る情報表示システム2600の動作について説明する。なお、本実施形態では、情報表示システム2600が、ユーザAとユーザBとの双方により1人の味方キャラクタが操作されるボクシングゲームを制御する例について説明する。なお、ボクシングゲームの基本的な制御は、図12に示す情報表示処理と同様である。以下、図12を参照して、本実施形態に係る情報表示システム2600が実行する情報表示処理について説明する。   Next, the operation of the information display system 2600 according to this embodiment will be described. In the present embodiment, an example will be described in which the information display system 2600 controls a boxing game in which one user character is operated by both the user A and the user B. The basic control of the boxing game is the same as the information display process shown in FIG. Hereinafter, an information display process executed by the information display system 2600 according to the present embodiment will be described with reference to FIG.

なお、情報表示サーバ330が、ボクシングゲームの基本的な制御を実行し、情報表示装置310や情報表示装置320は、ユーザインターフェースとして機能するものとする。この場合、サーバ側制御部は、サーバ側記憶部に記憶されているプログラムに従って、ボクシングゲームを制御する。また、サーバ側制御部は、サーバ側通信部を制御することにより、画像情報を情報表示装置310や情報表示装置320に送信するとともに、移動操作を示す情報を情報表示装置310や情報表示装置320から受信する。   The information display server 330 executes basic control of the boxing game, and the information display device 310 and the information display device 320 function as a user interface. In this case, the server-side control unit controls the boxing game according to the program stored in the server-side storage unit. In addition, the server-side control unit controls the server-side communication unit to transmit image information to the information display device 310 and the information display device 320, and information indicating a movement operation is transmitted to the information display device 310 and the information display device 320. Receive from.

まず、ステップS201において、サーバ側制御部は、初期化処理を実行し、初期画面に表示するオブジェクトの情報の読み出しや、変数の初期化を実行する。   First, in step S201, the server-side control unit executes an initialization process to read out information on an object displayed on the initial screen and initialize variables.

そして、ステップS202において、サーバ側制御部は、初期画面を表す画像を生成し、生成した画像を、情報表示装置310および情報表示装置320に送信する。一方、情報表示装置310および情報表示装置320は、情報表示サーバ330から受信した画像を、画面に表示する。従って、情報表示装置310がユーザAに提示する画像と、情報表示装置320がユーザBに提示する画像と、は同じ画像である。   In step S <b> 202, the server-side control unit generates an image representing an initial screen, and transmits the generated image to the information display device 310 and the information display device 320. On the other hand, the information display device 310 and the information display device 320 display the image received from the information display server 330 on the screen. Therefore, the image that the information display device 310 presents to the user A and the image that the information display device 320 presents to the user B are the same image.

また、ステップS203において、情報表示装置310がユーザAによりなされたタッチ操作によるタッチ位置を検知するとともに、情報表示装置320がユーザBによりなされたタッチ操作によるタッチ位置を検知する。なお、タッチ位置を表す座標や検知時刻は、適宜、情報表示サーバ330に供給される。そして、タッチ位置を表す座標は、検知時刻と対応付けられて、サーバ側記憶部に記憶される。   In step S203, the information display device 310 detects a touch position by a touch operation performed by the user A, and the information display device 320 detects a touch position by a touch operation performed by the user B. Note that the coordinates representing the touch position and the detection time are appropriately supplied to the information display server 330. And the coordinate showing a touch position is matched with detection time, and is memorize | stored in the server side memory | storage part.

そして、ステップS204において、サーバ側制御部は、タイマカウンタの値が閾値以上であるか否かを判別する。なお、タイマカウンタの値は、情報表示装置310および情報表示装置320が軌跡画像を表示した時刻からの経過時間を表す。そして、この閾値は、情報表示装置310および情報表示装置320が軌跡画像を表示した時刻から軌跡画像が消去される時刻までの時間である猶予時間を表す値である。   In step S204, the server-side control unit determines whether or not the value of the timer counter is equal to or greater than a threshold value. Note that the value of the timer counter represents the elapsed time from the time when the information display device 310 and the information display device 320 displayed the trajectory image. This threshold value is a value representing a grace period that is the time from the time when the information display device 310 and the information display device 320 display the trajectory image to the time when the trajectory image is deleted.

ここで、ステップS205において、サーバ側制御部は、軌跡画像が消去された画像を示す情報を、情報表示装置310および情報表示装置320に送信する。これにより、情報表示装置310および情報表示装置320が表示する画像は、軌跡画像が消去された画像となる。   Here, in step S <b> 205, the server-side control unit transmits information indicating the image from which the trajectory image has been deleted to the information display device 310 and the information display device 320. Thereby, the images displayed by the information display device 310 and the information display device 320 are images from which the trajectory image has been deleted.

また、ステップS206において、サーバ側制御部は、ユーザAによるなぞり操作、もしくは、ユーザBによるなぞり操作があったか否かを判別する。例えば、サーバ側制御部は、検知時刻と対応付けられて、サーバ側記憶部に記憶されている、タッチ位置を表す座標に基づいて、なぞり操作があったか否かを判別する。   In step S <b> 206, the server-side control unit determines whether or not a tracing operation by the user A or a tracing operation by the user B has been performed. For example, the server-side control unit determines whether or not there has been a tracing operation based on the coordinates representing the touch position stored in the server-side storage unit in association with the detection time.

そして、ステップS207において、サーバ側制御部は、今回検知されたなぞり操作の軌跡が、直前に検知されたなぞり操作の軌跡と類似するか否かを判別する。ここで、ユーザAによりなされたなぞり操作と、ユーザBによりなされたなぞり操作と、は区別されない。つまり、ユーザAもしくはユーザBのいずれかによりなされた最新のなぞり操作の軌跡が、ユーザAもしくはユーザBのいずれかによりなされた直前のなぞり操作の軌跡と類似するか否かが判別される。   In step S207, the server-side control unit determines whether or not the trajectory of the tracing operation detected this time is similar to the trajectory of the tracing operation detected immediately before. Here, the tracing operation performed by the user A and the tracing operation performed by the user B are not distinguished. That is, it is determined whether or not the trace of the latest tracing operation performed by either the user A or the user B is similar to the trace of the previous tracing operation performed by either the user A or the user B.

また、ステップS208において、サーバ側制御部は、Nに(N+1)を代入、つまり、Nの値を1つ増加させる。ここで、Nは、今回検知されたなぞり操作の軌跡と軌跡が類似するなぞり操作が、今回のなぞり操作が検知される直前に、何回連続して検知されているかの回数を示す値である。なお、Nの値は、例えば、サーバ側記憶部に記憶される。   In step S208, the server-side control unit substitutes (N + 1) for N, that is, increases the value of N by one. Here, N is a value indicating the number of times that the tracing operation similar to the tracing operation detected this time is continuously detected immediately before the tracing operation is detected. . Note that the value of N is stored, for example, in the server-side storage unit.

一方、ステップS209において、サーバ側制御部は、Nに0を代入、つまり、Nの値を0にする。なお、Nの値は、例えば、サーバ側記憶部に記憶される。   On the other hand, in step S209, the server-side control unit substitutes 0 for N, that is, sets the value of N to 0. Note that the value of N is stored, for example, in the server-side storage unit.

そして、ステップS210において、サーバ側制御部は、Nの値に基づいて攻撃力を決定する。なお、決定された攻撃力は、例えば、サーバ側記憶部に記憶される。   In step S210, the server-side control unit determines the attack power based on the value of N. The determined attack power is stored, for example, in the server-side storage unit.

次に、ステップS211において、サーバ側制御部は、サーバ側記憶部に記憶されているタッチ位置を表す座標に基づいて、最後に検知されたなぞり操作の軌跡を表す軌跡画像を含む画像を生成し、情報表示装置310および情報表示装置320に送信する。これにより、情報表示装置310および情報表示装置320が表示する画像は、軌跡画像を含む画像となる。   Next, in step S211, the server side control unit generates an image including a trajectory image representing the trajectory of the last detected tracing operation based on the coordinates representing the touch position stored in the server side storage unit. To the information display device 310 and the information display device 320. Thereby, the images displayed by the information display device 310 and the information display device 320 are images including a trajectory image.

また、ステップS212において、サーバ側制御部は、タイマカウンタを起動する。なお、このタイマカウンタは、なぞり操作の軌跡を表す軌跡画像が画面に表示された時刻からの経過時間を表す値を、所定の周期毎に自動でカウントアップする。タイマカウンタは、例えば、情報表示サーバ330が備える。   In step S212, the server-side control unit starts a timer counter. The timer counter automatically counts up a value representing the elapsed time from the time when the trajectory image representing the trajectory of the tracing operation is displayed on the screen every predetermined period. The timer counter is provided in the information display server 330, for example.

そして、ステップS213において、サーバ側制御部は、決定された攻撃力に応じて体力が減じられた様子を示す画像を生成し、情報表示装置310および情報表示装置320に送信する。これにより、情報表示装置310および情報表示装置320が表示する画像は、決定された攻撃力に応じて体力が減じられた様子を示す画像となる。   In step S <b> 213, the server-side control unit generates an image indicating that the physical strength is reduced according to the determined attack power, and transmits the image to the information display device 310 and the information display device 320. As a result, the images displayed by the information display device 310 and the information display device 320 are images that show how the physical strength is reduced according to the determined attack power.

本実施形態に係る情報表示システム2600によれば、軌跡が互いに類似するなぞり操作が、複数のユーザのいずれかによってなされた場合、なぞり操作が検知される毎に、なぞり操作に対応付けられる攻撃力が大きくなる。かかる構成によれば、ユーザ毎に別々のなぞり操作を繰り返すよりも、全てのユーザが同様のなぞり操作を繰り返す方が、効率よく敵キャラクタを倒すことができるようになる。これにより、ユーザ間に一体感、連帯感が生まれ、複数のユーザにより1つのゲームをプレイすることの楽しさが増すことが期待できる。   According to the information display system 2600 according to the present embodiment, when a tracing operation with similar trajectories is performed by any of a plurality of users, the attack power associated with the tracing operation every time the tracing operation is detected. Becomes larger. According to such a configuration, it is possible to defeat the enemy character more efficiently when all users repeat the same tracing operation, rather than repeating different tracing operations for each user. Thereby, a sense of unity and solidarity is born between the users, and it can be expected that the pleasure of playing one game by a plurality of users is increased.

(変形例)
本発明は、上述した第1〜6の実施形態に限られるものではなく、種々の変形が可能である。
(Modification)
The present invention is not limited to the first to sixth embodiments described above, and various modifications are possible.

第1、4、5の実施形態では、軌跡が互いに類似するなぞり操作や移動操作の繰り返し回数が増加すると、軌跡画像600が表す矢印の太さが徐々に太くなる例を示した。しかし、繰り返し回数の増加とともに変化する軌跡画像600の体裁はこれに限られない。例えば、繰り返し回数の増加と共に、軌跡画像600の色(彩度、明度、色相)を変化させることができる。   In the first, fourth, and fifth embodiments, an example has been described in which the thickness of the arrow indicated by the trajectory image 600 gradually increases as the number of repetitions of the tracing operation and the moving operation with similar trajectories increases. However, the appearance of the trajectory image 600 that changes as the number of repetitions increases is not limited to this. For example, the color (saturation, brightness, hue) of the trajectory image 600 can be changed as the number of repetitions increases.

第1、3の実施形態では、なぞり操作に基づいて決定される操作量が、画面に表示される画像のスクロール量である例を示し、第2の実施形態では、なぞり操作に基づいて決定される操作量が、敵キャラクタに与えるダメージである例を示し、第4、5の実施形態では、移動操作に基づいて決定される操作量が、模範キャラクタを見る視点の回転角度である例を示した。しかし、なぞり操作や移動操作に基づいて決定される操作量は、どのようなものであってもよい。例えば、なぞり操作に基づいて決定される操作量は、画面に地図が表示される場合における、地図の拡大率(または、縮小率)であってもよい。この場合、軌跡が互いに類似するなぞり操作が連続して検知される毎に、拡大率が大きく(または、縮小率が小さく)なるように拡大率(または、縮小率)が決定される。   In the first and third embodiments, an example in which the operation amount determined based on the tracing operation is the scroll amount of the image displayed on the screen is shown. In the second embodiment, the operation amount is determined based on the tracing operation. In the fourth and fifth embodiments, the operation amount determined based on the moving operation is an example of the rotation angle of the viewpoint of viewing the model character. It was. However, the operation amount determined based on the tracing operation or the moving operation may be any value. For example, the operation amount determined based on the tracing operation may be a map enlargement rate (or reduction rate) when a map is displayed on the screen. In this case, the enlargement ratio (or reduction ratio) is determined so that the enlargement ratio is large (or the reduction ratio is small) every time tracing operations having similar trajectories are continuously detected.

第1、3の実施形態では、なぞり操作の軌跡の長さにより操作量が決定される例を示し、第2の実施形態では、なぞり操作の速さにより操作量が決定される例を示した。しかし、なぞり操作や移動操作の軌跡の長さとなぞり操作や移動操作の速さとのうちのいずれに基づいて操作量が決定されるかは、適宜調整が可能である。また、なぞり操作や移動操作の軌跡の長さとなぞり操作や移動操作の速さとの両方に基づいて操作量が決定されてもよい。   In the first and third embodiments, an example in which the operation amount is determined by the length of the trajectory of the tracing operation is shown, and in the second embodiment, an example in which the operation amount is determined by the speed of the tracing operation is shown. . However, it is possible to appropriately adjust whether the operation amount is determined based on the length of the trajectory of the tracing operation or moving operation or the speed of the tracing operation or moving operation. Further, the operation amount may be determined based on both the length of the trajectory of the tracing operation and the moving operation and the speed of the tracing operation and the moving operation.

また、なぞり操作や移動操作を検知する条件は、上記実施形態に開示したものに限定されないことは勿論である。例えば、第4の実施形態では、ある方向に対応付けられる移動操作の成立条件に、他の方向における移動量を考慮しない例を示したが、他の方向における移動量を考慮してもよい。   In addition, the conditions for detecting the tracing operation and the moving operation are not limited to those disclosed in the above embodiment. For example, in the fourth embodiment, the example in which the movement amount in the other direction is not considered as the condition for establishing the movement operation associated with a certain direction is shown, but the movement amount in the other direction may be considered.

また、第4の実施形態では、特定部位の軌跡を表す軌跡画像2101を画面内に表示し、その一方、特定部位の現在位置を表す画像を画面内に表示しない例を示した。しかし、本発明において、特定部位の現在位置を表す画像を画面内に表示してもよい。   In the fourth embodiment, the trajectory image 2101 representing the trajectory of the specific part is displayed on the screen, while the image representing the current position of the specific part is not displayed on the screen. However, in the present invention, an image representing the current position of the specific part may be displayed on the screen.

例えば、CPU 101は、図25に示すように、現実空間における注目部位(左手1811)の現在位置に対応する画面内の位置に、注目部位を模した注目部位オブジェクト2501を表示しても良い。なお、ユーザの後方の所定の位置に視点(ユーザよりもX座標が小さい視点)を設定して、特定部位を画面に投影した場合に、画面に投影される特定部位と重なるように、注目部位オブジェクト2501を画面内に表示することができる。つまり、注目部位オブジェクト2501は、画面を鏡に見立てた場合、特定部位の鏡像に相当する。なお、図25は、1回目の移動操作が検知された後、注目部位オブジェクト2501が軌跡画像2101bをなぞるように注目部位がユーザによって移動させられている様子を示している。   For example, as shown in FIG. 25, the CPU 101 may display a target part object 2501 that imitates the target part at a position in the screen corresponding to the current position of the target part (left hand 1811) in the real space. Note that when a viewpoint (viewpoint having an X coordinate smaller than that of the user) is set at a predetermined position behind the user and the specific part is projected on the screen, the target part is overlapped with the specific part projected on the screen. An object 2501 can be displayed in the screen. That is, the attention site object 2501 corresponds to a mirror image of a specific site when the screen is viewed as a mirror. Note that FIG. 25 illustrates a state in which the target region is moved by the user so that the target region object 2501 traces the trajectory image 2101b after the first movement operation is detected.

かかる構成によれば、現実空間における特定部位の現在位置が、画面内においてどの位置に相当するのかが、ユーザに提示される。このため、ユーザは、画面内に表示された特定部位オブジェクト2501の位置を参考にして、移動操作を実行することができる。典型的には、ユーザは、画面内において特定部位オブジェクト2501が軌跡画像2101bをなぞるように特定部位を動かすことで、入力済みの移動操作と同様の移動操作を容易に繰り返すことができる。   According to such a configuration, the user is presented with which position in the screen the current position of the specific part in the real space corresponds to. For this reason, the user can execute a moving operation with reference to the position of the specific part object 2501 displayed in the screen. Typically, the user can easily repeat the moving operation similar to the input movement operation by moving the specific part so that the specific part object 2501 traces the trajectory image 2101b in the screen.

第6の実施形態では、インフラストラクチャ通信により相互に接続された複数の情報表示装置を備える情報表示システム2600に本発明が適用される例を示したが、本発明が適用される情報表示システムはこの例に限られない。例えば、図27に示すように、情報表示装置340と情報表示装置350とがアドホック通信により接続された情報表示システム2700に本発明が適用されてもよい。この場合、情報表示サーバ330が備える機能は、情報表示装置340と情報表示装置350とのうちの少なくとも一方が備える。また、相互に接続される複数の情報表示装置の数は、2つに限られず、3つ以上でもよい。   In the sixth embodiment, the example in which the present invention is applied to the information display system 2600 including a plurality of information display devices connected to each other by infrastructure communication has been described. However, the information display system to which the present invention is applied is described below. It is not limited to this example. For example, as shown in FIG. 27, the present invention may be applied to an information display system 2700 in which an information display device 340 and an information display device 350 are connected by ad hoc communication. In this case, the function provided in the information display server 330 is provided in at least one of the information display device 340 and the information display device 350. The number of information display devices connected to each other is not limited to two and may be three or more.

第6の実施形態では、複数の情報表示装置を備える情報表示システムに本発明が適用される例を示したが、当該情報表示システムが備える機能を備える情報表示装置に本発明が適用されてもよい。例えば、図28に示すように、2つのタッチスクリーン(タッチスクリーン108A、タッチスクリーン108B)を備える情報処理装置160により実現される情報表示装置に本発明を適用することができる。この場合、タッチスクリーン108Aは、ユーザAによる第1の動作から移動操作を検知するとともに、表示情報と最後に検知された移動操作の軌跡とをユーザAに対して提示する。また、タッチスクリーン108Bは、ユーザBによる第2の動作から移動操作を検知するとともに、表示情報と最後に検知された移動操作の軌跡とをユーザBに対して提示する。そして、最後に検知された移動操作と軌跡が類似する移動操作が、第1の動作もしくは第2の動作から検知される毎に、操作量が増大していく。   In the sixth embodiment, an example in which the present invention is applied to an information display system including a plurality of information display devices has been described. However, even if the present invention is applied to an information display device having functions provided in the information display system. Good. For example, as shown in FIG. 28, the present invention can be applied to an information display device realized by an information processing device 160 including two touch screens (touch screen 108A and touch screen 108B). In this case, the touch screen 108 </ b> A detects the moving operation from the first operation by the user A, and presents the display information and the locus of the moving operation detected last to the user A. The touch screen 108 </ b> B detects the moving operation from the second operation by the user B, and presents the display information and the trajectory of the moving operation detected last to the user B. The amount of operation increases each time a movement operation similar to the last detected movement operation is detected from the first action or the second action.

第6の実施形態では、複数のユーザが同一の味方キャラクタを操作するゲームシステムに本発明が適用される例を示したが、本発明が適用されるシステムはこの例に限られない。例えば、複数のユーザのそれぞれが、互いに協力して敵キャラクタと戦う複数の味方キャラクタのいずれかを操作するゲームシステムに本発明が適用されてもよい。この場合も、複数のユーザにより互いに類似するなぞり操作が繰り返されると、敵キャラクタに与えるダメージが増大していくことになる。典型的には、複数のユーザのそれぞれが、自分が操作する味方キャラクタに他のユーザが操作する味方キャラクタと同じ攻撃をさせるためのなぞり操作を繰り返すことにより、敵キャラクタに与えるダメージが増大していくことになる。   In the sixth embodiment, an example is shown in which the present invention is applied to a game system in which a plurality of users operate the same teammate character, but the system to which the present invention is applied is not limited to this example. For example, the present invention may be applied to a game system in which each of a plurality of users operates one of a plurality of teammate characters who cooperate with each other to fight an enemy character. Also in this case, when similar tracing operations are repeated by a plurality of users, damage to the enemy character increases. Typically, each of a plurality of users repeats a tracing operation for causing the teammate character operated by the user to perform the same attack as the teammate character operated by another user, thereby increasing the damage to the enemy character. Will go.

また、本発明が適用されるシステムはゲームシステムに限られず、複数のユーザが文書(文章、地図、図面等)を閲覧したり編集したりするシステムに本発明が適用されてもよい。   The system to which the present invention is applied is not limited to a game system, and the present invention may be applied to a system in which a plurality of users browse and edit a document (text, map, drawing, etc.).

以上説明したように、本発明によれば、ユーザの動作から検知した移動操作に基づいて、画面内に表示する情報を適切に決定するのに好適な情報表示装置、情報表示方法、ならびに、これらをコンピュータにより実現するためのプログラムを提供することができる。   As described above, according to the present invention, an information display device, an information display method, and the like suitable for appropriately determining information to be displayed on the screen based on the moving operation detected from the user's operation, Can be provided by a computer.

100、150、160 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェース
105 入力部
106 メモリカセット
107 画像処理部
108、108A、108B、108a〜f タッチスクリーン
109 NIC
110 音声処理部
111 マイク
112 スピーカ
113 RTC
114 ハードディスク
115 外部メモリ
116 入力装置
117 DVD−ROMドライブ
210 右手用コントローラ
211 CCDカメラ
212 十字型キー
213 Aボタン
214 Bボタン
215 ボタン
216 孔
217 インジケータ
218 電源ボタン
220 左手用コントローラ
221 コントロールスティック
222 Cボタン
223 Zボタン
230 センサバー
231 発光素子
250 モニター
300、310、320、340、350、1700 情報表示装置
301、1701 検知部
302、1702 操作量取得部
303、1703 変化部
304、1704 表示情報取得部
305、1705 表示部
330 情報表示サーバ
401 文書
402、1302 注目範囲
410 指
600、600b、600c、600d、600f、920、1400、2101、2101b、2101c、2101d、 軌跡画像
901 味方キャラクタ
902 敵キャラクタ
911 味方体力ゲージ
912 敵体力ゲージ
1301 地図
1801 模範キャラクタ
1811 左手
2000 仮想カメラ
2501 特定部位オブジェクト
2600、2700 情報表示システム
100, 150, 160 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Interface 105 Input unit 106 Memory cassette 107 Image processing unit 108, 108A, 108B, 108a-f Touch screen 109 NIC
110 Audio processing unit 111 Microphone 112 Speaker 113 RTC
114 Hard disk 115 External memory 116 Input device 117 DVD-ROM drive 210 Right hand controller 211 CCD camera 212 Cross key 213 A button 214 B button 215 button 216 Hole 217 Indicator 218 Power button 220 Left hand controller 221 Control stick 222 C button 223 Z button 230 Sensor bar 231 Light emitting element 250 Monitor 300, 310, 320, 340, 350, 1700 Information display device 301, 1701 Detection unit 302, 1702 Operation amount acquisition unit 303, 1703 Change unit 304, 1704 Display information acquisition unit 305, 1705 Display unit 330 Information display server 401 Document 402, 1302 Attention range 410 Finger 600, 600b, 600c, 600d, 600f, 920, 1 00,2101,2101b, 2101c, 2101d, the path image 901 ally character 902 enemy character 911 ally physical strength gauge 912 enemy stamina gauge 1301 map 1801 model character 1811 left hand 2000 virtual camera 2501 specific site object 2600,2700 information display system

Claims (13)

ユーザの動作から所定の移動操作を検知する検知部、
前記検知された移動操作の軌跡の長さもしくは速度から、対象情報に対する操作量を取得する操作量取得部、
前記取得された操作量に基づいて、前記対象情報を変化させる変化部、
前記変化後の対象情報に基づいて、画面に表示すべき表示情報を取得する表示情報取得部、
前記取得された表示情報を前記画面に表示する表示部
を備え、
前記操作量取得部は、
(a)前記検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似しない場合、前記検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を前記操作量として取得し、
(b)前記検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似する場合、前記検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値より大きい値を前記操作量として取得する
ことを特徴とする情報表示装置。
A detection unit for detecting a predetermined movement operation from a user's action;
An operation amount acquisition unit that acquires an operation amount for target information from the length or speed of the detected trajectory of the movement operation,
A changing unit that changes the target information based on the acquired operation amount,
A display information acquisition unit that acquires display information to be displayed on the screen based on the target information after the change,
A display unit for displaying the acquired display information on the screen;
The operation amount acquisition unit
(A) When the detected trajectory of the moving operation and the trajectory of the moving operation detected immediately before the detected moving operation are not similar, the length or speed of the detected trajectory of the moving operation is set. A default value associated in advance is acquired as the operation amount,
(B) If the detected trajectory of the moving operation is similar to the trajectory of the moving operation detected immediately before the detected moving operation, the length or speed of the detected trajectory of the moving operation is set. A value larger than a predetermined value associated in advance is acquired as the operation amount.
請求項1に記載の情報表示装置であって、
前記操作量取得部は、前記移動操作が検知されるごとに、前記検知された移動操作のうち最後に検知された移動操作に対して、前記操作量を取得する
ことを特徴とする情報表示装置。
The information display device according to claim 1,
The operation amount acquisition unit acquires the operation amount with respect to the last detected movement operation among the detected movement operations every time the movement operation is detected. .
請求項1または2に記載の情報表示装置であって、
前記表示部は、前記検知された移動操作のうち最後に検知された移動操作の軌跡をさらに前記画面に表示する
ことを特徴とする情報表示装置。
The information display device according to claim 1 or 2,
The display unit further displays a trajectory of the last detected movement operation among the detected movement operations on the screen.
請求項1乃至3のいずれか1項に記載の情報表示装置であって、
前記検知部は、前記ユーザを撮影し、もしくは、前記ユーザに把持されるコントローラの位置、速度もしくは加速度を計測することにより、前記ユーザの動作を取得し、
前記検知部は、前記取得されたユーザの動作が、当該ユーザの身体の所定の部位または当該コントローラを静止させてから当該部位またはコントローラを所定の方向へ移動させるものである場合、当該所定の方向に対応付けられる種類の移動操作がされたものと検知する
ことを特徴とする情報表示装置。
The information display device according to any one of claims 1 to 3,
The detection unit captures the user's action by photographing the user or measuring the position, speed, or acceleration of a controller held by the user,
In the case where the acquired user action is to move the part or the controller in a predetermined direction after stopping the predetermined part or the controller of the user's body, the predetermined direction An information display device that detects that a movement operation of a type associated with is performed.
請求項1乃至3のいずれか1項に記載の情報表示装置であって、
前記検知部は、前記画面に対する前記ユーザの接触の有無から、前記画面に対する前記ユーザのなぞり動作を取得し、当該取得されたなぞり動作を前記移動操作とする
ことを特徴とする情報表示装置。
The information display device according to any one of claims 1 to 3,
The detection unit acquires the user's tracing operation on the screen based on whether or not the user touches the screen, and uses the acquired tracing operation as the moving operation.
請求項3に記載の情報表示装置であって、
前記最後に検知された移動操作の軌跡が前記画面に表示された後、移動操作が検知されないまま所定の猶予時間が経過すると、前記表示部は、前記最後に検知された移動操作の軌跡を前記画面から消去し、
前記操作量取得部は、
(c)前記画面に前記最後に検知された移動操作の軌跡が表示されていない場合、前記最後に検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を前記操作量として取得する
ことを特徴とする情報表示装置。
The information display device according to claim 3,
After the last detected movement operation trajectory is displayed on the screen, when a predetermined grace period elapses without the movement operation being detected, the display unit displays the last detected movement operation trajectory. Erase from the screen,
The operation amount acquisition unit
(C) When the trajectory of the last detected movement operation is not displayed on the screen, a default value associated in advance with the length or speed of the trajectory of the last detected movement operation is used as the operation amount. An information display device characterized by acquiring.
請求項1乃至6のいずれか1項に記載の情報表示装置であって、
前記検知された移動操作のうち最後に検知された移動操作の軌跡が、その直前に検知されたN個の移動操作の軌跡のそれぞれと類似する場合、前記操作量取得部は、正の値域を有する単調増加関数にNを適用した値を前記既定値に加算した値、もしくは、1以上の値域を有する単調増加関数にNを適用した値を前記既定値に乗算した値を、前記既定値より大きい値とする
ことを特徴とする情報表示装置。
The information display device according to any one of claims 1 to 6,
When the trajectory of the last detected moving operation among the detected moving operations is similar to each of the N moving operation trajectories detected immediately before, the operation amount acquisition unit calculates a positive value range. A value obtained by adding a value obtained by applying N to a monotonically increasing function having the default value or a value obtained by multiplying the default value by a value obtained by applying N to a monotonically increasing function having one or more value ranges from the default value An information display device characterized by a large value.
請求項7に記載の情報表示装置であって、
前記表示部は、前記検知された移動操作のうち最後に検知された移動操作の軌跡をさらに前記画面に表示し、
前記表示部は、前記最後に検知された移動操作の軌跡を前記画面に表示する体裁を、Nに基づいて定める
ことを特徴とする情報表示装置。
The information display device according to claim 7,
The display unit further displays a trajectory of the last detected movement operation among the detected movement operations on the screen.
The display unit determines an appearance for displaying a trajectory of the last detected movement operation on the screen based on N.
請求項1乃至8のいずれか1項に記載の情報表示装置であって、
前記対象情報は文書内における注目範囲の位置または大きさであり、
前記変化部は、前記取得された操作量に基づいて、前記文書内における前記注目範囲の位置または大きさを変化させ、
前記表示情報取得部は、前記文書内のうち前記位置または大きさが変化された注目範囲に含まれる情報を、前記表示情報として取得する
ことを特徴とする情報表示装置。
The information display device according to any one of claims 1 to 8,
The target information is the position or size of the range of interest in the document,
The changing unit changes the position or size of the range of interest in the document based on the acquired operation amount,
The information display device, wherein the display information acquisition unit acquires information included in an attention range whose position or size is changed in the document as the display information.
請求項1乃至8のいずれか1項に記載の情報表示装置であって、
前記対象情報は、ゲームのキャラクタのパラメータであり、
前記変化部は、前記取得された操作量に基づいて、前記パラメータを変化させ、
前記表示情報取得部は、前記変化されたパラメータを、前記表示情報として取得する
ことを特徴とする情報表示装置。
The information display device according to any one of claims 1 to 8,
The target information is a parameter of a game character,
The changing unit changes the parameter based on the acquired operation amount,
The display information acquisition unit acquires the changed parameter as the display information.
請求項3に記載の情報表示装置であって、
前記検知部は、第1のプレイヤーによる第1の動作と、第2のプレイヤーによる第2の動作と、から前記所定の移動操作を検知し、
前記画面は、前記表示情報と前記軌跡とを表示する第1のディスプレイと、前記表示情報と前記軌跡とを表示する第2のディスプレイと、を有する
ことを特徴とする情報表示装置。
The information display device according to claim 3,
The detection unit detects the predetermined movement operation from a first action by a first player and a second action by a second player,
The screen includes a first display that displays the display information and the locus, and a second display that displays the display information and the locus.
検知部、操作量取得部、変化部、表示情報取得部、表示部を備える情報表示装置が実行する情報表示方法であって、
前記検知部が、ユーザの動作から所定の移動操作を検知する検知工程、
前記操作量取得部が、前記検知された移動操作の軌跡の長さもしくは速度から、対象情報に対する操作量を取得する操作量取得工程、
前記変化部が、前記取得された操作量に基づいて、前記対象情報を変化させる変化工程、
前記表示情報取得部が、前記変化後の対象情報に基づいて、画面に表示すべき表示情報を取得する表示情報取得工程、
前記表示部が、前記取得された表示情報を前記画面に表示する表示工程
を備え、
前記操作量取得工程では、前記操作量取得部は、
(a)前記検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似しない場合、前記検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を前記操作量として取得し、
(b)前記検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似する場合、前記検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値より大きい値を前記操作量として取得する
ことを特徴とする情報表示方法。
An information display method executed by an information display device including a detection unit, an operation amount acquisition unit, a change unit, a display information acquisition unit, and a display unit,
A detection step in which the detection unit detects a predetermined movement operation from a user's action;
An operation amount acquisition step in which the operation amount acquisition unit acquires an operation amount with respect to target information from the length or speed of the detected movement operation locus,
A changing step in which the changing unit changes the target information based on the acquired operation amount;
A display information acquisition step in which the display information acquisition unit acquires display information to be displayed on a screen based on the target information after the change;
The display unit includes a display step of displaying the acquired display information on the screen,
In the operation amount acquisition step, the operation amount acquisition unit includes:
(A) When the detected trajectory of the moving operation and the trajectory of the moving operation detected immediately before the detected moving operation are not similar, the length or speed of the detected trajectory of the moving operation is set. A default value associated in advance is acquired as the operation amount,
(B) If the detected trajectory of the moving operation is similar to the trajectory of the moving operation detected immediately before the detected moving operation, the length or speed of the detected trajectory of the moving operation is set. A method of displaying an information, wherein a value larger than a predetermined value associated in advance is acquired as the operation amount.
コンピュータを、
ユーザの動作から所定の移動操作を検知する検知部、
前記検知された移動操作の軌跡の長さもしくは速度から、対象情報に対する操作量を取得する操作量取得部、
前記取得された操作量に基づいて、前記対象情報を変化させる変化部、
前記変化後の対象情報に基づいて、画面に表示すべき表示情報を取得する表示情報取得部、
前記取得された表示情報を前記画面に表示する表示部
として機能させるプログラムであって、
前記操作量取得部は、
(a)前記検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似しない場合、前記検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値を前記操作量として取得し、
(b)前記検知された移動操作の軌跡と、当該検知された移動操作の直前に検知された移動操作の軌跡とが、類似する場合、前記検知された移動操作の軌跡の長さもしくは速度にあらかじめ対応付けられる既定値より大きい値を前記操作量として取得する
ことを特徴とするプログラム。
Computer
A detection unit for detecting a predetermined movement operation from a user's action;
An operation amount acquisition unit that acquires an operation amount for target information from the length or speed of the detected trajectory of the movement operation,
A changing unit that changes the target information based on the acquired operation amount,
A display information acquisition unit that acquires display information to be displayed on the screen based on the target information after the change,
A program for functioning as a display unit for displaying the acquired display information on the screen,
The operation amount acquisition unit
(A) When the detected trajectory of the moving operation and the trajectory of the moving operation detected immediately before the detected moving operation are not similar, the length or speed of the detected trajectory of the moving operation is set. A default value associated in advance is acquired as the operation amount,
(B) If the detected trajectory of the moving operation is similar to the trajectory of the moving operation detected immediately before the detected moving operation, the length or speed of the detected trajectory of the moving operation is set. A program that acquires a value larger than a predetermined value associated in advance as the operation amount.
JP2011150349A 2011-07-06 2011-07-06 Information display device, information display method, and program Active JP5519591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011150349A JP5519591B2 (en) 2011-07-06 2011-07-06 Information display device, information display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011150349A JP5519591B2 (en) 2011-07-06 2011-07-06 Information display device, information display method, and program

Publications (2)

Publication Number Publication Date
JP2013013672A true JP2013013672A (en) 2013-01-24
JP5519591B2 JP5519591B2 (en) 2014-06-11

Family

ID=47686943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011150349A Active JP5519591B2 (en) 2011-07-06 2011-07-06 Information display device, information display method, and program

Country Status (1)

Country Link
JP (1) JP5519591B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5632550B1 (en) * 2014-02-18 2014-11-26 株式会社 ディー・エヌ・エー GAME PROGRAM AND INFORMATION PROCESSING DEVICE
JP2015070952A (en) * 2013-10-03 2015-04-16 株式会社コナミデジタルエンタテインメント Game device, game system, computer, control method of computer and program
JP2017080456A (en) * 2016-12-20 2017-05-18 株式会社コナミデジタルエンタテインメント Game device and program
JP2017104639A (en) * 2017-03-09 2017-06-15 株式会社コナミデジタルエンタテインメント Program, computer device, and computer processing method
JP2018027319A (en) * 2017-10-02 2018-02-22 株式会社コナミデジタルエンタテインメント Game device and program
JP2019042523A (en) * 2018-11-01 2019-03-22 株式会社コナミデジタルエンタテインメント Game device and program
JP2020072975A (en) * 2018-11-01 2020-05-14 株式会社コナミデジタルエンタテインメント Game device and program
JP2021053430A (en) * 2020-12-17 2021-04-08 株式会社コナミデジタルエンタテインメント Game control device, game system and program
CN113934321A (en) * 2021-09-28 2022-01-14 深圳市宝尔爱迪科技有限公司 Touch method, electronic device and computer readable storage medium
JP2022020746A (en) * 2018-11-01 2022-02-01 株式会社コナミデジタルエンタテインメント Game device and program
CN116546149A (en) * 2023-07-04 2023-08-04 北京小糖科技有限责任公司 Dance teaching interaction method, device, equipment and medium based on virtual digital person

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319763A (en) * 1996-05-31 1997-12-12 Matsushita Electric Ind Co Ltd Information retrieval device and display scroll method for the retrieval device
JP2002033795A (en) * 2000-04-28 2002-01-31 Sony Corp Portable information terminal equipment
JP2002149391A (en) * 2000-09-01 2002-05-24 Sony Corp Device and method for reproduction
JP2003161621A (en) * 2001-11-26 2003-06-06 Nissan Motor Co Ltd Device and method for displaying recommended route
JP2006323664A (en) * 2005-05-19 2006-11-30 Sony Corp Electronic equipment
JP2006325695A (en) * 2005-05-24 2006-12-07 Nintendo Co Ltd Game program using input to pointing device and game apparatus
JP2008123158A (en) * 2006-11-10 2008-05-29 Seiko Epson Corp Display item selection system, operation device, and display item selection method
JP2010271994A (en) * 2009-05-22 2010-12-02 Toshiba Corp Portable terminal

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319763A (en) * 1996-05-31 1997-12-12 Matsushita Electric Ind Co Ltd Information retrieval device and display scroll method for the retrieval device
JP2002033795A (en) * 2000-04-28 2002-01-31 Sony Corp Portable information terminal equipment
JP2002149391A (en) * 2000-09-01 2002-05-24 Sony Corp Device and method for reproduction
JP2003161621A (en) * 2001-11-26 2003-06-06 Nissan Motor Co Ltd Device and method for displaying recommended route
JP2006323664A (en) * 2005-05-19 2006-11-30 Sony Corp Electronic equipment
JP2006325695A (en) * 2005-05-24 2006-12-07 Nintendo Co Ltd Game program using input to pointing device and game apparatus
JP2008123158A (en) * 2006-11-10 2008-05-29 Seiko Epson Corp Display item selection system, operation device, and display item selection method
JP2010271994A (en) * 2009-05-22 2010-12-02 Toshiba Corp Portable terminal

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015070952A (en) * 2013-10-03 2015-04-16 株式会社コナミデジタルエンタテインメント Game device, game system, computer, control method of computer and program
JP5632550B1 (en) * 2014-02-18 2014-11-26 株式会社 ディー・エヌ・エー GAME PROGRAM AND INFORMATION PROCESSING DEVICE
JP2015150302A (en) * 2014-02-18 2015-08-24 株式会社 ディー・エヌ・エー Game program and information processing device
US9308457B2 (en) 2014-02-18 2016-04-12 DeNA Co., Ltd. Game program and information processing device
JP2017080456A (en) * 2016-12-20 2017-05-18 株式会社コナミデジタルエンタテインメント Game device and program
JP2017104639A (en) * 2017-03-09 2017-06-15 株式会社コナミデジタルエンタテインメント Program, computer device, and computer processing method
JP2018027319A (en) * 2017-10-02 2018-02-22 株式会社コナミデジタルエンタテインメント Game device and program
JP2019042523A (en) * 2018-11-01 2019-03-22 株式会社コナミデジタルエンタテインメント Game device and program
JP2020072975A (en) * 2018-11-01 2020-05-14 株式会社コナミデジタルエンタテインメント Game device and program
JP2022020746A (en) * 2018-11-01 2022-02-01 株式会社コナミデジタルエンタテインメント Game device and program
JP7217552B2 (en) 2018-11-01 2023-02-03 株式会社コナミデジタルエンタテインメント game device and program
JP2021053430A (en) * 2020-12-17 2021-04-08 株式会社コナミデジタルエンタテインメント Game control device, game system and program
CN113934321A (en) * 2021-09-28 2022-01-14 深圳市宝尔爱迪科技有限公司 Touch method, electronic device and computer readable storage medium
CN116546149A (en) * 2023-07-04 2023-08-04 北京小糖科技有限责任公司 Dance teaching interaction method, device, equipment and medium based on virtual digital person
CN116546149B (en) * 2023-07-04 2023-10-24 北京小糖科技有限责任公司 Dance teaching interaction method, device, equipment and medium based on virtual digital person

Also Published As

Publication number Publication date
JP5519591B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
JP5519591B2 (en) Information display device, information display method, and program
US10220303B1 (en) Gesture-based music game
JP4883759B2 (en) Program, information storage medium, and image generation system
JP5576061B2 (en) Program and game device
JP2008136694A (en) Program, information storage medium and game apparatus
JP4397421B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP2006122241A (en) Game device and game program
JP5325265B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2009276829A (en) Information processing program and information processor
JP2010172442A (en) Game device, operation evaluation method, and program
JP2008212339A (en) Input device, input control method, and program
JP5519610B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2011239937A (en) Game device, game processing method, and program
JP6738604B2 (en) Program and game device
JP5307060B2 (en) Image processing apparatus, image processing method, and program
JP2010063616A (en) Game device, method for selecting object, information recording medium and program
JP2015008987A (en) Program and game device
JP4962977B2 (en) Game program, battle game apparatus, and battle game control method
JP2012040045A (en) Game device, game control method, and program
JP2019170964A (en) Program and game device
JP2011239936A (en) Game device, game processing method, and program
JP2012120565A (en) Game device, method for controlling game device, and program
JP2006102239A (en) Program, information storage medium, and image generation system
JP5499001B2 (en) Game device and program
JP6661595B2 (en) Game program, method and information processing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140403

R150 Certificate of patent or registration of utility model

Ref document number: 5519591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250