JP2011024787A - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP2011024787A
JP2011024787A JP2009173891A JP2009173891A JP2011024787A JP 2011024787 A JP2011024787 A JP 2011024787A JP 2009173891 A JP2009173891 A JP 2009173891A JP 2009173891 A JP2009173891 A JP 2009173891A JP 2011024787 A JP2011024787 A JP 2011024787A
Authority
JP
Japan
Prior art keywords
image
state
display device
instruction
target position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009173891A
Other languages
Japanese (ja)
Inventor
Masafumi Takehiro
将史 竹廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2009173891A priority Critical patent/JP2011024787A/en
Publication of JP2011024787A publication Critical patent/JP2011024787A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device or the like suitable for easily understandably presenting the degree of the change of a position to which a user pays attention. <P>SOLUTION: The display device 300 includes a condition generation unit 301 for generating a condition image indicating the condition of viewing a virtual space wherein a plurality of objects are disposed, a display unit 302 for displaying the generated condition image, and a reception unit 303 for receiving instruction input specifying an attention position within the displayed condition image. When the degree of the change of the attention position is equal to or smaller than a prescribed threshold, the display unit 302 superimposes and displays a first instruction image on the attention position of the condition image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザが注目する位置の変化の度合を分かり易く提示するのに好適な表示装置、表示方法、ならびに、これらをコンピュータにより実現するためのプログラムに関する。   The present invention relates to a display device, a display method, and a program for realizing these by a computer, which are suitable for presenting the degree of change in the position of interest to a user in an easy-to-understand manner.

ユーザが、モニターに表示されている仮想空間上の標的を射撃する射撃ゲームが知られている。このような射撃ゲームを制御するゲーム装置は、複数のオブジェクトが配置される仮想空間を見た様子を表す様子画像をモニターに表示する。一方、ユーザは、ゲーム装置に接続された模擬銃やコントローラなどを操作して、様子画像中に表されている標的に照準を合わせるための指示入力をした後、弾丸を発射するための指示入力をする。このような射撃ゲームには、様子画像により表される様子を、照準の位置を中心に拡大して、当該照準の位置を中心に所定の大きさへ切り出した詳細画像をモニターに表示する機能を備えるものがある。   A shooting game in which a user shoots a target in a virtual space displayed on a monitor is known. A game device that controls such a shooting game displays a state image representing a state of viewing a virtual space in which a plurality of objects are arranged on a monitor. On the other hand, the user operates a simulated gun or a controller connected to the game device, inputs an instruction to aim at the target represented in the state image, and then inputs an instruction to fire a bullet do. In such a shooting game, there is a function of enlarging the state represented by the state image around the aiming position and displaying on the monitor a detailed image cut out to a predetermined size around the aiming position. There is something to prepare.

このような詳細画像は、様子画像とは独立してモニターに表示される場合もあるし、様子画像に重ねられてモニターに表示される場合もある。いずれの場合も、ユーザが射撃に必要な情報を適切に把握できるように、詳細画像が表示される必要がある。例えば、特許文献1には、ユーザが射撃に必要な情報を適切に把握できるように、詳細画像を適切に表示することが可能なゲームシステムが開示されている。   Such a detailed image may be displayed on the monitor independently of the state image, or may be displayed on the monitor superimposed on the state image. In either case, a detailed image needs to be displayed so that the user can appropriately grasp information necessary for shooting. For example, Patent Literature 1 discloses a game system that can appropriately display detailed images so that a user can appropriately grasp information necessary for shooting.

特許第3345600号公報Japanese Patent No. 3345600

しかしながら、特許文献1に開示されているゲームシステムにおいては、ユーザは、モニターに表示されている画像に基づいて、照準が定まっているか否かを直ちに判断することはできなかった。このため、射撃ゲームにおいて、照準の位置の変化の度合を知りたいという要望は強い。このほか、画像内において注目している位置の周辺の様子の詳細を知りたいという要望もある。   However, in the game system disclosed in Patent Document 1, the user cannot immediately determine whether or not the aim is determined based on the image displayed on the monitor. For this reason, in a shooting game, there is a strong desire to know the degree of change in the position of the aim. In addition, there is a demand for knowing the details of the state around the position of interest in the image.

本発明は、上記問題に鑑みてなされたものであり、ユーザが注目する位置の変化の度合を分かり易く提示するのに好適な表示装置、表示方法、ならびに、これらをコンピュータにより実現するためのプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and is a display device suitable for presenting the degree of change of a position focused by a user in an easy-to-understand manner, a display method, and a program for realizing these by a computer The purpose is to provide.

上記目的を達成するために、本発明の第1の観点に係る表示装置は、様子生成部、表示部、受付部、を備え、以下のように構成する。   In order to achieve the above object, a display device according to a first aspect of the present invention includes a state generation unit, a display unit, and a reception unit, and is configured as follows.

まず、様子生成部が、複数のオブジェクトが配置される仮想空間を見た様子を表す様子画像を生成する。この仮想空間は、三次元の仮想空間であってもよいし、二次元の仮想空間であってもよい。そして、表示部が、様子生成部により生成された様子画像を表示する。   First, the state generation unit generates a state image representing a state of viewing a virtual space where a plurality of objects are arranged. This virtual space may be a three-dimensional virtual space or a two-dimensional virtual space. Then, the display unit displays the state image generated by the state generation unit.

また、受付部が、表示部に表示された様子画像内の注目位置を指定する指示入力を受け付ける。受付部は、加速度センサや角速度センサを備えたコントローラなどにより構成されてもよい。この場合、ユーザは、コントローラの角度を調節することにより、注目位置を指定する。ここで、例えば、射撃ゲームにおいて、照準を合わせる位置を、注目位置とすることができる。この場合、当該指示入力は、ユーザによりなされた、照準を合わせる位置を指定するコントローラの操作となる。   The accepting unit accepts an instruction input for designating a target position in the state image displayed on the display unit. The reception unit may be configured by a controller including an acceleration sensor and an angular velocity sensor. In this case, the user designates the target position by adjusting the angle of the controller. Here, for example, in the shooting game, the position to be aimed can be set as the target position. In this case, the instruction input is an operation of the controller that designates a position for aiming, which is made by the user.

一方、表示部は、注目位置の変化の度合が所定の閾値以下である場合、第1の指示画像を様子画像の注目位置に重ねて表示する。なお、注目位置の変化の度合は、注目位置の変動する程度を表すものであれば、どのように定義してもよい。例えば、注目位置の移動する速さ、あるいは、注目位置の移動範囲の大きさを、注目位置の変化の度合とすることができる。以下、本発明を射撃ゲームに適用した場合の表示部の動作について具体例を挙げて説明する。ここでは、注目位置の移動する速さを、注目位置の変化の度合とする場合について説明する。まず、表示部は、指示入力により指定された注目位置が大きく変化したか否かを判定する。例えば、表示部は、ユーザが模擬銃やコントローラを操作することにより定まる画面上における照準の位置を、所定のサンプリング周期でサンプリングする。ここで、表示部は、サンプリング毎に、前回サンプリングされた照準の位置と今回サンプリングされた照準の位置との距離をサンプリング周期で除算することにより、照準の位置の移動する速さを求める。そして、表示部は、照準の位置の移動する速さの所定期間における平均値を求め、当該平均値が所定の閾値以下であるか否かを判定する。そして、表示部は、当該平均値が所定の閾値以下であると判定した場合、つまり、注目位置が大きく変化していないと判定した場合に、第1の指示画像を表示する。ここで、第1の指示画像は、様子画像の注目位置に重ねられて表示される。例えば、照準が定まっていることを表す画像(典型的には、照準を表す画像)を第1の指示画像とすることができる。これにより、ユーザは、第1の指示画像が表示されている場合に、照準が定まっていると判断することができる。   On the other hand, when the degree of change of the attention position is equal to or less than a predetermined threshold, the display unit displays the first instruction image so as to overlap the attention position of the state image. Note that the degree of change of the target position may be defined in any way as long as it represents the degree of change of the target position. For example, the speed of movement of the attention position or the size of the movement range of the attention position can be set as the degree of change of the attention position. Hereinafter, the operation of the display unit when the present invention is applied to a shooting game will be described with specific examples. Here, a case will be described in which the moving speed of the target position is set as the degree of change of the target position. First, the display unit determines whether or not the attention position designated by the instruction input has changed significantly. For example, the display unit samples the position of the aim on the screen determined by the user operating a simulated gun or a controller at a predetermined sampling period. Here, for each sampling, the display unit obtains the moving speed of the aiming position by dividing the distance between the aiming position sampled last time and the aiming position sampled this time by the sampling period. And a display part calculates | requires the average value in the predetermined period of the speed which the position of an aim moves, and determines whether the said average value is below a predetermined threshold value. And a display part displays a 1st instruction | indication image, when it determines with the said average value being below a predetermined threshold value, ie, when it determines with the attention position not changing largely. Here, the first instruction image is displayed so as to be superimposed on the target position of the state image. For example, an image indicating that the aim is fixed (typically, an image indicating the aim) can be used as the first instruction image. Accordingly, the user can determine that the aim is determined when the first instruction image is displayed.

本発明の表示装置によれば、ユーザが注目する位置の変化の度合を分かり易く提示することができる。   According to the display device of the present invention, it is possible to present the degree of change of the position focused by the user in an easily understandable manner.

また、本発明の表示装置において、表示部を以下に示すように構成することができる。すなわち、表示部は、注目位置の変化の度合が所定の閾値を超える場合、第2の指示画像を様子画像の注目位置に重ねて表示する。例えば、射撃ゲームにおいて、表示部は、照準の位置の移動する速さの所定期間における平均値が所定の閾値を超えると判定した場合、照準が定まっていないことを表す画像(典型的には、照準以外の目印を表す画像)を第2の指示画像として、様子画像の注目位置に重ねて表示することができる。これにより、ユーザは、第2の指示画像が表示されている場合に、照準が定まっていないと判断することができる。
本発明の表示装置によれば、ユーザが注目する位置の変化の度合を分かり易く提示することができる。
In the display device of the present invention, the display unit can be configured as follows. That is, the display unit displays the second instruction image so as to overlap the attention position of the state image when the degree of change of the attention position exceeds a predetermined threshold. For example, in a shooting game, when the display unit determines that the average value of the moving speed of the aiming position in a predetermined period exceeds a predetermined threshold, an image indicating that the aim is not determined (typically, An image representing a mark other than the aim) can be displayed as the second instruction image so as to overlap the target position of the state image. As a result, the user can determine that the aim is not determined when the second instruction image is displayed.
According to the display device of the present invention, it is possible to present the degree of change of the position focused by the user in an easily understandable manner.

また、本発明の表示装置は、以下に示す詳細生成部をさらに備えるものであってもよい。すなわち、詳細生成部は、注目位置の変化の度合が所定の閾値以下である場合、様子画像より小さい所定の大きさの詳細画像を生成する。この詳細画像は、様子画像により表される様子を、注目位置を中心に拡大して、注目位置を中心に所定の大きさへ切り出した画像である。すなわち、詳細画像は、様子画像内の注目位置を拡大鏡で覗いた場合に、拡大鏡に映し出されるような画像である。ここで、表示部は、詳細画像が生成された場合、詳細画像を第1の指示画像とする。すなわち、表示部は、注目位置の変化の度合が所定の閾値以下である場合、詳細画像を第1の指示画像として表示する。   The display device of the present invention may further include a detail generation unit shown below. That is, the detail generation unit generates a detail image having a predetermined size smaller than the state image when the degree of change in the target position is equal to or less than a predetermined threshold. This detailed image is an image obtained by enlarging the state represented by the state image around the position of interest and cutting it out to a predetermined size around the position of interest. That is, the detailed image is an image that is displayed on the magnifying glass when the attention position in the state image is viewed with the magnifying glass. Here, when the detailed image is generated, the display unit sets the detailed image as the first instruction image. That is, the display unit displays the detailed image as the first instruction image when the degree of change in the target position is equal to or less than a predetermined threshold value.

本発明を射撃ゲームに適用すると、例えば、照準が定まっていると判定される場合に、仮想空間中の照準が合っている領域を詳細に表す詳細画像が表示される。従って、ユーザは、詳細画像を参照することによって、精度良く照準を合わせることが可能となる。
本発明の表示装置によれば、ユーザが注目する位置の変化の度合を分かり易く提示することができる。また、本発明の表示装置によれば、様子画像内の注目位置に表されている様子を詳細に表す詳細画像を提示することができる。従って、本発明の表示装置によれば、ユーザは、さらに精度良く注目位置を指定することができる。
When the present invention is applied to a shooting game, for example, when it is determined that the aim is determined, a detailed image representing a region where the aim is in the virtual space is displayed in detail. Therefore, the user can aim accurately with reference to the detailed image.
According to the display device of the present invention, it is possible to present the degree of change of the position focused by the user in an easily understandable manner. Further, according to the display device of the present invention, it is possible to present a detailed image that represents in detail the state represented at the position of interest in the state image. Therefore, according to the display device of the present invention, the user can specify the position of interest more accurately.

また、本発明の表示装置において、仮想空間を、複数のウインドウもしくはアイコンが配置されるデスクトップ空間とすることができる。すなわち、本発明は、二次元のデスクトップ空間を表す様子画像を表示する表示装置に適用することができる。かかる構成によれば、画面の解像度を変更するなどの操作がなくても、デスクトップ上のユーザが注目する部分を詳細に示す画像が表示される。
本発明の表示装置によれば、デスクトップ上のユーザが注目する部分を詳細に示す画像を提示することができる。
In the display device of the present invention, the virtual space can be a desktop space in which a plurality of windows or icons are arranged. That is, the present invention can be applied to a display device that displays a state image representing a two-dimensional desktop space. According to such a configuration, even if there is no operation such as changing the resolution of the screen, an image showing in detail a portion on which the user pays attention is displayed.
According to the display device of the present invention, it is possible to present an image showing in detail the portion of interest on the desktop by the user.

また、本発明の表示装置において、仮想空間を、複数のオブジェクトが配置される三次元空間とすることができる。この場合において、様子画像を、仮想空間内に配置された第1の視点から見た様子を表す画像とする。また、詳細画像を、仮想空間において、第1の視点から様子画像において注目位置に描画されているオブジェクトへ近づいた第2の視点から、仮想空間を見た様子を表す画像とする。かかる構成によれば、様子画像において注目位置に描画されているオブジェクトを詳細に表す画像を、詳細画像とすることができる。つまり、詳細画像は、様子画像内の注目位置に表されている様子を詳細に表す画像であるが、当該第2の視点を基準にして新たに生成された画像とすることができる。このように、第2の視点を基準にして新たに生成された詳細画像は、様子画像に基づいて生成された詳細画像(例えば、様子画像を拡大して、所定の大きさに切り出した画像。)に比べて、様子画像内の注目位置に表されている様子をより鮮明に表す画像となる。
本発明の表示装置によれば、様子画像内の注目位置に表されている様子を詳細に表す詳細画像を提示することができる。
In the display device of the present invention, the virtual space can be a three-dimensional space in which a plurality of objects are arranged. In this case, the state image is an image representing a state viewed from the first viewpoint arranged in the virtual space. Further, the detailed image is an image representing a state in which the virtual space is viewed from the second viewpoint approaching the object drawn at the position of interest in the state image from the first viewpoint in the virtual space. According to this configuration, an image that represents in detail the object drawn at the position of interest in the state image can be a detailed image. That is, the detailed image is an image that represents in detail the state represented at the position of interest in the state image, but can be an image that is newly generated with reference to the second viewpoint. Thus, the detailed image newly generated based on the second viewpoint is a detailed image generated based on the state image (for example, an image obtained by enlarging the state image and cutting it out to a predetermined size). Compared to (), the image shown in the attention position in the state image is clearly displayed.
According to the display device of the present invention, it is possible to present a detailed image representing in detail the state represented at the target position in the state image.

また、本発明の表示装置において、第1の視点から第2の視点までの距離(以下「第1の距離」という。)を、第1の視点から注目位置に描画されているオブジェクトまでの距離(以下「第2の距離」という。)にあらかじめ対応付けられている長さとすることができる。上述したように、様子画像は、第1の視点から注目位置に描画されているオブジェクトを見た様子を表す画像であり、詳細画像は、第1の視点から当該オブジェクトへ近づいた第2の視点から、当該オブジェクトを見た様子を表す画像である。つまり、詳細画像は、様子画像により表される様子を拡大して表す画像であるが、その拡大率は、第1の距離と第2の距離との割合に依存する。従って、第1の距離と第2の距離との割合を適宜調整することにより、所望の拡大率を得ることができる。例えば、第1の距離を、第2の距離に比例する長さにすることにより、拡大率を一定にすることができる。すなわち、拡大率をK倍にするためには、第2の距離を第1の距離のK/(K−1)倍にする。また、例えば、第1の距離を、第2の距離から一定の長さを減じた長さにすることにより、オブジェクトから一定の距離離れた位置から当該オブジェクトを見た様子を表す画像を詳細画像とすることができる。すなわち、オブジェクトからDだけ離れた位置から当該オブジェクトを見た様子を表す画像を詳細画像とするためには、第1の視点の位置にかかわらず、第2の視点の位置をオブジェクトからDだけ離れた位置とする。このとき、遠くにある物に照準が合っているほど拡大率が大きくなり、近くにある物に照準が合っているほど拡大率が小さくなる。これらの構成によれば、様子画像において注目位置に描画されているオブジェクトを詳細に表す画像を、詳細画像とすることができる。また、様子画像により表される様子をどの程度の倍率で拡大したものを表す画像を詳細画像とするかを指定することができる。
本発明の表示装置によれば、様子画像内の注目位置に表されている様子を詳細に表す詳細画像を提示することができる。
In the display device of the present invention, the distance from the first viewpoint to the second viewpoint (hereinafter referred to as “first distance”) is the distance from the first viewpoint to the object drawn at the target position. (Hereinafter, referred to as “second distance”). As described above, the state image is an image representing a state where the object drawn at the target position is viewed from the first viewpoint, and the detailed image is the second viewpoint approaching the object from the first viewpoint. From the above, it is an image showing a state of viewing the object. In other words, the detailed image is an image representing the state represented by the state image in an enlarged manner, but the enlargement ratio depends on the ratio between the first distance and the second distance. Therefore, a desired enlargement ratio can be obtained by appropriately adjusting the ratio between the first distance and the second distance. For example, the enlargement ratio can be made constant by setting the first distance to a length proportional to the second distance. That is, in order to increase the magnification ratio by K, the second distance is set to K / (K-1) times the first distance. Further, for example, by setting the first distance to a length obtained by subtracting a certain length from the second distance, an image representing a state in which the object is viewed from a position away from the object by a certain distance is displayed as a detailed image. It can be. That is, in order to make a detailed image an image showing a state where the object is viewed from a position away from the object by D, the position of the second viewpoint is separated from the object by D regardless of the position of the first viewpoint. Position. At this time, the magnification rate increases as the object is located farther away, and the magnification rate decreases as the object is aimed closer. According to these configurations, an image representing in detail the object drawn at the position of interest in the state image can be a detailed image. In addition, it is possible to specify how much a magnification image of the state represented by the state image is used as the detailed image.
According to the display device of the present invention, it is possible to present a detailed image representing in detail the state represented at the target position in the state image.

また、本発明の表示装置において、詳細画像の大きさを、注目位置の変化の度合にあらかじめ対応付けられている大きさとすることができる。例えば、本発明を射撃ゲームに適用した場合に、注目位置の変化の度合が小さいほど、詳細画像が大きくなるようにする。すなわち、射撃ゲームにおいて照準が定まっているとき(注目位置の変化の度合が小さいとき)は、正確に照準を定めるために、より大きな画角の詳細画像を表示することが望まれるためである。なお、射撃ゲームにおいては、照準の位置の移動する速さ(もしくは、照準の位置の移動する加速度の絶対値)の所定の期間における平均値が小さいほど、詳細画像が大きくなるようにしてもよいし、所定の期間における照準の位置の移動範囲が小さいほど、詳細画像が大きくなるようにしてもよい。
本発明の表示装置によれば、指示入力により指定された注目位置の変化の度合に応じて、様子画像内の注目位置に表されている様子を詳細に表す詳細画像の大きさを変化させて、当該詳細画像を提示することができる。
In the display device of the present invention, the size of the detailed image can be set in advance to correspond to the degree of change in the target position. For example, when the present invention is applied to a shooting game, the smaller the degree of change in the position of interest, the larger the detailed image. That is, when the aim is determined in the shooting game (when the degree of change in the position of interest is small), it is desired to display a detailed image with a larger angle of view in order to accurately determine the aim. In the shooting game, the smaller the average value of the moving speed of the aiming position (or the absolute value of the acceleration at which the aiming position moves) in a predetermined period, the larger the detailed image may be. However, the detailed image may be enlarged as the moving range of the aiming position in the predetermined period is smaller.
According to the display device of the present invention, according to the degree of change of the target position designated by the instruction input, the size of the detailed image that represents in detail the state represented by the target position in the state image is changed. The detailed image can be presented.

また、本発明の表示装置において、注目位置の変化の度合を、最近の所定期間における注目位置の移動する速さの平均値とすることができる。例えば、射撃ゲームにおいて、画面更新周期毎にサンプリングされた過去2秒間の照準の位置に基づいて、当該2秒間における照準の位置の移動する速さの平均値を算出し、当該算出した平均値を注目位置の変化の度合とする。このように、注目位置の移動する速さに基づいた値を、注目位置の変化の度合とすることができる。この場合、例えば、最近の所定期間における注目位置の移動する速さの平均値が大きいほど、注目位置の変化の度合が大きいものとして扱う。例えば、射撃ゲームにおいては、最近の所定期間における照準の位置の移動する速さの平均値が所定の閾値以下である場合に、照準が定まっていると判定され、第1の指示画像が様子画像の照準の位置に重ねて表示される。一方、ユーザは、第1の指示画像が表示されている場合に、照準が定まっていると判定して、射撃を実行することができる。
本発明の表示装置によれば、ユーザが注目する位置の変化の度合を分かり易く提示することができる。
In the display device of the present invention, the degree of change of the target position can be an average value of the moving speed of the target position in the recent predetermined period. For example, in a shooting game, based on the aim position for the past 2 seconds sampled at each screen update period, an average value of the moving speed of the aim position in the 2 seconds is calculated, and the calculated average value is calculated. The degree of change in the position of interest. In this way, a value based on the moving speed of the target position can be set as the degree of change of the target position. In this case, for example, the larger the average value of the moving speed of the target position in the recent predetermined period, the greater the degree of change of the target position. For example, in a shooting game, when the average value of the moving speed of the aiming position in a recent predetermined period is equal to or less than a predetermined threshold, it is determined that the aim is determined, and the first instruction image is a state image. It is displayed superimposed on the position of the aim. On the other hand, when the first instruction image is displayed, the user can determine that the aim is fixed and execute the shooting.
According to the display device of the present invention, it is possible to present the degree of change of the position focused by the user in an easily understandable manner.

また、本発明の表示装置において、注目位置の変化の度合を、最近の所定期間における注目位置の移動範囲の大きさとすることができる。例えば、射撃ゲームにおいて、画面更新周期毎にサンプリングされた過去2秒間の照準の位置に基づいて、当該2秒間における照準の位置の移動範囲の大きさを求め、当該求めた移動範囲の大きさを注目位置の変化の度合とする。このように、注目位置の移動範囲の大きさに基づいた値を、注目位置の変化の度合とすることができる。この場合、例えば、最近の所定期間における注目位置の移動範囲が大きいほど、注目位置の変化の度合が大きいものとして扱う。例えば、射撃ゲームにおいては、最近の所定期間における照準の位置の移動範囲の大きさが所定の閾値以下である場合に、照準が定まっていると判定され、第1の指示画像が様子画像の照準の位置に重ねて表示される。一方、ユーザは、第1の指示画像が表示されている場合に、照準が定まっていると判定して、射撃を実行することができる。
本発明の表示装置によれば、ユーザが注目する位置の変化の度合を分かり易く提示することができる。
Further, in the display device of the present invention, the degree of change of the attention position can be set to the size of the movement range of the attention position in the recent predetermined period. For example, in a shooting game, based on the aiming position for the past 2 seconds sampled at each screen update cycle, the size of the moving range of the aiming position in the 2 seconds is obtained, and the size of the obtained moving range is calculated. The degree of change in the position of interest. Thus, a value based on the size of the moving range of the target position can be set as the degree of change of the target position. In this case, for example, the larger the moving range of the attention position in the recent predetermined period, the greater the degree of change in the attention position. For example, in a shooting game, when the size of the movement range of the aim position in the recent predetermined period is equal to or less than a predetermined threshold, it is determined that the aim is determined, and the first instruction image is aimed at the state image. Overlaid at the position of. On the other hand, when the first instruction image is displayed, the user can determine that the aim is fixed and execute the shooting.
According to the display device of the present invention, it is possible to present the degree of change of the position focused by the user in an easily understandable manner.

また、本発明の表示装置において、受付部を以下に示すように構成し、以下に示す移動部をさらに備えるようにしてもよい。すなわち、受付部は、所定の移動可能オブジェクトの移動を行う旨を指定する指示入力をさらに受け付ける。なお、この所定の移動可能オブジェクトは、仮想空間に配置される複数のオブジェクトのうち、第1の視点(様子画像により表される様子を見る視点であって仮想空間内に配置された視点)からの相対的な位置が固定された移動開始位置に配置されるオブジェクトである。また、移動部は、移動を行う旨を指定する指示入力が受け付けられると、移動可能オブジェクトを以下に示すように移動させる。すなわち、移動部は、移動可能オブジェクトを移動開始位置から、注目位置に描画されているオブジェクトへ、時間の経過とともに移動させる。例えば、本発明を射撃ゲームに適用した場合、弾丸を移動可能オブジェクトとして扱うことができる。この場合、移動部は、弾丸の発射を行う旨を指示する指示入力が受付部により受け付けられると、弾丸を移動開始位置から照準で示される位置へ、時間の経過とともに移動させる。ここで、照準が定まっていると判定されると、弾丸の到達予想位置に第1の指示画像が表示される。一方、ユーザは、当該第1の指示画像が表示された場合に、弾丸を発射する旨の指示入力を行う。当該指示入力が受け付けられると、弾丸が移動開始位置から照準で示される位置へ時間経過とともに移動する。
本発明の表示装置によれば、移動可能オブジェクトの到達先を適切に提示することができる。
In the display device of the present invention, the reception unit may be configured as follows, and further include a moving unit as described below. That is, the accepting unit further accepts an instruction input designating that a predetermined movable object is to be moved. Note that the predetermined movable object is a first viewpoint (a viewpoint in which a state represented by the state image is viewed and is disposed in the virtual space) among a plurality of objects disposed in the virtual space. The object is arranged at the movement start position where the relative position of is fixed. Further, when an instruction input designating that movement is to be performed is received, the moving unit moves the movable object as shown below. That is, the moving unit moves the movable object from the movement start position to the object drawn at the target position as time passes. For example, when the present invention is applied to a shooting game, a bullet can be handled as a movable object. In this case, the movement unit moves the bullet from the movement start position to the position indicated by the aim with the passage of time when an instruction input for instructing to fire the bullet is received by the reception unit. Here, if it is determined that the aim is determined, the first instruction image is displayed at the expected arrival position of the bullet. On the other hand, the user inputs an instruction to fire a bullet when the first instruction image is displayed. When the instruction input is accepted, the bullet moves from the movement start position to the position indicated by the aim with time.
According to the display device of the present invention, the destination of the movable object can be appropriately presented.

上記目的を達成するために、本発明のその他の観点に係る表示方法は、様子生成部、表示部、受付部、を備える表示装置が実行する表示方法であって、様子生成工程、表示工程、受付工程、を備え、以下のように構成する。   In order to achieve the above object, a display method according to another aspect of the present invention is a display method executed by a display device including a state generation unit, a display unit, and a reception unit, and includes a state generation step, a display step, A reception process, which is configured as follows.

まず、様子生成工程では、様子生成部が、複数のオブジェクトが配置される仮想空間を見た様子を表す様子画像を生成する。そして、表示工程では、表示部が、様子生成部により生成された様子画像を表示する。また、受付工程では、受付部が、表示部に表示された様子画像内の注目位置を指定する指示入力を受け付ける。   First, in the state generation process, the state generation unit generates a state image representing a state of viewing a virtual space in which a plurality of objects are arranged. In the display step, the display unit displays the state image generated by the state generation unit. In the reception process, the reception unit receives an instruction input for designating a target position in the state image displayed on the display unit.

一方、表示工程では、表示部は、注目位置の変化の度合が所定の閾値以下である場合、第1の指示画像を様子画像の注目位置に重ねて表示する。すなわち、表示工程では、表示部は、まず、指示入力により指定された注目位置が大きく変化したか否かを判定する。そして、表示工程では、表示部は、注目位置が大きく変化していないと判定した場合に、第1の指示画像を表示する。なお、第1の指示画像は、様子画像の注目位置に重ねられて表示される。   On the other hand, in the display step, the display unit displays the first instruction image so as to overlap the attention position of the state image when the degree of change of the attention position is equal to or less than a predetermined threshold. That is, in the display process, the display unit first determines whether or not the position of interest designated by the instruction input has changed significantly. In the display step, the display unit displays the first instruction image when it is determined that the position of interest has not changed significantly. The first instruction image is displayed so as to be superimposed on the attention position of the state image.

本発明の表示装置によれば、ユーザが注目する位置の変化の度合を分かり易く提示することができる。   According to the display device of the present invention, it is possible to present the degree of change of the position focused by the user in an easily understandable manner.

本発明の他の観点に係るプログラムは、コンピュータを、上記の表示装置の各部として機能させ、または、コンピュータに、上記の表示方法の各工程を実行させるように構成する。
また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、コンピュータとは独立して配布・販売することができる。
A program according to another aspect of the present invention is configured to cause a computer to function as each unit of the above display device or to cause the computer to execute each step of the above display method.
The program of the present invention can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory. The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明によれば、ユーザが注目する位置の変化の度合を分かり易く提示するのに好適な表示装置、表示方法、ならびに、これらをコンピュータにより実現するためのプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the display apparatus suitable for presenting the degree of the change of the position which a user notices easily, a display method, and the program for implement | achieving these with a computer can be provided.

本発明の第1の実施形態に係る表示装置が実現される典型的な情報処理装置の概要構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a typical information processing device in which a display device according to a first embodiment of the present invention is realized. コントローラユニットの概要構成を示す模式図である。It is a schematic diagram which shows schematic structure of a controller unit. 本発明の第1の実施形態に係る表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示装置により表示される第2の指示画像を説明するための図である。It is a figure for demonstrating the 2nd instruction | indication image displayed by the display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示装置により表示される第1の指示画像を説明するための図である。It is a figure for demonstrating the 1st instruction | indication image displayed with the display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示装置により表示される様子画像を拡大した画像を示す図である。It is a figure which shows the image which expanded the mode image displayed by the display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示装置により表示される詳細画像を示す図である。It is a figure which shows the detailed image displayed by the display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示装置により表示される照準器を表す画像を示す図である。It is a figure which shows the image showing the sighting device displayed by the display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示装置により表示される第1の指示画像を示す図である。It is a figure which shows the 1st instruction | indication image displayed by the display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示装置により表示される第2の指示画像を示す図である。It is a figure which shows the 2nd instruction | indication image displayed by the display apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示装置が実行する表示制御処理を示すフローチャートである。It is a flowchart which shows the display control process which the display apparatus which concerns on the 1st Embodiment of this invention performs. 照準位置の変化の度合を取得する手法を説明するための図である。It is a figure for demonstrating the method of acquiring the degree of change of an aim position. 様子画像を生成する手法を説明するための図である。It is a figure for demonstrating the method of producing | generating a mode image. 詳細画像を生成する手法を説明するための図である。It is a figure for demonstrating the method of producing | generating a detailed image. 本発明の第2の実施形態に係る表示装置により表示される第2の指示画像を説明するための図である。It is a figure for demonstrating the 2nd instruction | indication image displayed by the display apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る表示装置により表示される第1の指示画像を説明するための図である。It is a figure for demonstrating the 1st instruction | indication image displayed with the display apparatus which concerns on the 2nd Embodiment of this invention. 変形例に係る表示装置により表示される第1の指示画像を説明するための図である。It is a figure for demonstrating the 1st instruction | indication image displayed with the display apparatus which concerns on a modification.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム専用の情報処理装置に本発明が適用される実施形態を説明するが、各種のコンピュータ、PDA(Personal Data Assistants)、携帯電話などの情報処理装置においても同様に本発明を適用することができる。すなわち、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is applied to an information processing apparatus dedicated to a game will be described. However, in various information processing apparatuses such as various computers, PDAs (Personal Data Assistants), and mobile phones. Similarly, the present invention can be applied. That is, the embodiment described below is for explanation, and does not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る表示装置が実現される典型的な情報処理装置の概要構成を示す模式図である。以下、本図を参照して、本発明の第1の実施形態に係る表示装置を説明する。なお、本実施形態においては、射撃ゲームを実現する情報処理装置に本発明を適用した場合について説明する。
(First embodiment)
FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing device in which the display device according to the first embodiment of the present invention is realized. Hereinafter, a display device according to a first embodiment of the present invention will be described with reference to FIG. In the present embodiment, a case where the present invention is applied to an information processing apparatus that realizes a shooting game will be described.

(情報処理装置の構成)
情報処理装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、インターフェース104と、コントローラユニット105と、外部メモリ106と、画像処理部107と、DVD(Digital Versatile Disk)−ROMドライブ108と、NIC(Network Interface Card)109と、音声処理部110と、RTC(Real Time Clock)111と、を備える。
(Configuration of information processing device)
The information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, a controller unit 105, an external memory 106, and an image processing unit. 107, a DVD (Digital Versatile Disk) -ROM drive 108, a NIC (Network Interface Card) 109, an audio processing unit 110, and an RTC (Real Time Clock) 111.

ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ108に装着して、情報処理装置100の電源を投入することにより、プログラムが実行され、本実施形態の表示装置が実現される。   A DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 108 and the information processing apparatus 100 is turned on to execute the program, thereby realizing the display device of the present embodiment. .

CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。CPU 101は、各構成要素から各種のデータを取得し、当該各種のデータを種々の演算により加工して各構成要素にデータや制御信号として与える。CPU 101では、各種のデータはいったんCPU 101が備えるキャッシュに格納され、さらにCPU 101が備えるレジスタに取得されてから各種の演算が施される。   The CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data. The CPU 101 acquires various types of data from each component, processes the various types of data by various calculations, and provides the data to each component as data and control signals. In the CPU 101, various types of data are temporarily stored in a cache included in the CPU 101, and are further acquired in a register included in the CPU 101, and then various calculations are performed.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、これが実行されることにより、DVD−ROMに記録されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。
また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。
The ROM 102 stores an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program recorded on the DVD-ROM is read out to the RAM 103 and execution by the CPU 101 is started. The
The ROM 102 stores an operating system program and various data necessary for operation control of the entire information processing apparatus 100.

RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行や通信に必要なデータが保持される。このほか、情報処理装置100に接続される各種の機器から伝達される種々の情報や、各種の機器に伝達すべき種々の情報も、一時的に格納される。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for game progress and communication. In addition, various information transmitted from various devices connected to the information processing apparatus 100 and various information to be transmitted to various devices are also temporarily stored.

インターフェース104を介して接続されたコントローラユニット105は、ユーザがゲーム実行の際に行う操作入力を受け付ける。以下、図2を参照してコントローラユニット105を説明する。図2は、コントローラユニット105の概要を説明するための外観図である。   The controller unit 105 connected via the interface 104 receives an operation input performed when the user executes the game. Hereinafter, the controller unit 105 will be described with reference to FIG. FIG. 2 is an external view for explaining an outline of the controller unit 105.

コントローラユニット105は、図2に示すようなコントローラ210とセンサバー220とを含んで構成される。情報処理装置100は、所定のケーブルを介してセンサバー220及びディスプレイ290とそれぞれ接続される。   The controller unit 105 includes a controller 210 and a sensor bar 220 as shown in FIG. The information processing apparatus 100 is connected to the sensor bar 220 and the display 290 via predetermined cables.

コントローラ210は、例えば、テレビ等のリモコンと類似した外観を有し、情報処理装置100とワイヤレスで(無線通信によって)接続される。ユーザは、コントローラ210を片手で把持して、ゲームをプレイすることになる。なお、情報処理装置100において、コントローラ210を右手で把持することが、正しい(標準的な)持ち方として定められている。
また、センサバー220は、所定の長さの棒状に形成され、ディスプレイ290の上部に、画面の向きに沿って適宜固定される。このセンサバー220には、両端に1つずつ発光素子221が埋設されている。なお、埋設される発光素子221の数は一例であり、これらの数より多くてもよい。
センサバー220は、情報処理装置100から電源供給を受けて発光素子221を適宜発光させる。
The controller 210 has an appearance similar to a remote control such as a television, for example, and is connected to the information processing apparatus 100 wirelessly (by wireless communication). The user holds the controller 210 with one hand and plays the game. In the information processing apparatus 100, holding the controller 210 with the right hand is determined as a correct (standard) way of holding.
The sensor bar 220 is formed in a bar shape having a predetermined length, and is appropriately fixed on the top of the display 290 along the direction of the screen. In the sensor bar 220, one light emitting element 221 is embedded at each end. Note that the number of light emitting elements 221 to be embedded is an example, and may be larger than these numbers.
The sensor bar 220 receives power from the information processing apparatus 100 and causes the light emitting element 221 to appropriately emit light.

コントローラ210は、先端にCCDカメラ211が配置され、先端がディスプレイ290に向けられると、このCCDカメラ211がセンサバー220の2つの発光素子221(2つの発光点)を含む画像を撮影する。また、コントローラ210は、内部に無線通信部を備えており、撮影した画像の情報を、無線通信にて情報処理装置100に順次送信する。
そして、情報処理装置100は、コントローラ210から送られた画像中における2つの発光点の位置関係等に基づいて、コントローラ210の位置及び向き等を適宜取得する。例えば、CPU 101及び画像処理部107等は、コントローラ210から見える2つの発光点の位置関係等を解析して、コントローラ210の空間位置及び、その先端の向き(長手軸線の方向)を算定し、最終的に、ユーザがコントローラ210を画面上のどこに向けて操作しているか等を取得する。
なお、このようなコントローラ210の位置等の計測は、例えば、垂直同期割り込み(1/60秒)毎に行われる。
When the CCD camera 211 is arranged at the tip and the tip is directed to the display 290, the controller 210 captures an image including the two light emitting elements 221 (two light emitting points) of the sensor bar 220. In addition, the controller 210 includes a wireless communication unit therein, and sequentially transmits information of captured images to the information processing apparatus 100 by wireless communication.
Then, the information processing apparatus 100 appropriately acquires the position and orientation of the controller 210 based on the positional relationship between the two light emitting points in the image sent from the controller 210. For example, the CPU 101, the image processing unit 107, and the like analyze the positional relationship between two light emitting points visible from the controller 210, calculate the spatial position of the controller 210 and the direction of the tip (the direction of the longitudinal axis), Finally, it is obtained where the user is operating the controller 210 on the screen.
Note that such measurement of the position of the controller 210 is performed, for example, every vertical synchronization interrupt (1/60 seconds).

また、コントローラ210は、内部に、3軸の加速度センサを備えており、コントローラ210の3軸方向の動きを測定することが可能となっている。なお、このような加速度センサの代わりに、角速度センサや傾きセンサ等により、コントローラ210の動きを測定してもよい。
コントローラ210は、このような測定結果(例えば、3軸それぞれの加速度情報)を情報処理装置100に順次送信する。
そして、情報処理装置100は、コントローラ210から送られる測定結果に基づいて、コントローラ210の動きを検出する。例えば、ユーザがコントローラ210を振る、ひねる、突くといった動作やその移動方向を取得する。
なお、このようなコントローラ210の動きの検出も、例えば、垂直同期割り込み毎に行われる。
The controller 210 includes a triaxial acceleration sensor inside, and can measure the movement of the controller 210 in the triaxial direction. Note that the movement of the controller 210 may be measured by an angular velocity sensor, an inclination sensor, or the like instead of such an acceleration sensor.
The controller 210 sequentially transmits such measurement results (for example, acceleration information for each of the three axes) to the information processing apparatus 100.
The information processing apparatus 100 detects the movement of the controller 210 based on the measurement result sent from the controller 210. For example, an operation such as a user swinging, twisting, or striking the controller 210 and its moving direction are acquired.
Note that such movement of the controller 210 is also detected, for example, every vertical synchronization interrupt.

コントローラ210の上面には、十字形キー212が配置されており、ユーザが任意の方向を指定した指示入力を行うことができる。また、Aボタン213や、各種ボタン215も上面に配置されており、ユーザはこれらのボタンに対応付けられた指示入力を行うことができる。   A cross-shaped key 212 is arranged on the upper surface of the controller 210, and a user can input an instruction specifying an arbitrary direction. An A button 213 and various buttons 215 are also arranged on the upper surface, and the user can input instructions associated with these buttons.

一方、Bボタン214は、コントローラ210の下面に配置される。Bボタン214は、押圧される面に窪みが構成され、ユーザがトリガを引くように操作することができるようになっている。   On the other hand, the B button 214 is disposed on the lower surface of the controller 210. The B button 214 has a depression formed on the surface to be pressed, and can be operated so that the user pulls the trigger.

コントローラ210の上面には、複数の小さな孔216が設けられており、内部に埋設されたスピーカからクリアな音声を出力できるようになっている。   A plurality of small holes 216 are provided on the upper surface of the controller 210 so that clear sound can be output from a speaker embedded therein.

コントローラ210の上面のインジケータ217は、コントローラ210が複数使用された場合でもユーザが識別できるように、適宜点灯する。
また、コントローラ210の上面に用意された電源ボタン218は、例えば、情報処理装置100のオン・オフを指示する。
The indicator 217 on the upper surface of the controller 210 is appropriately lit so that the user can identify even when a plurality of controllers 210 are used.
The power button 218 prepared on the top surface of the controller 210 instructs, for example, on / off of the information processing apparatus 100.

更に、コントローラ210の内部には、バイブレータ等の振動機構が配置され、情報処理装置100から送られる指示情報に応答して、振動を発生させることもできるようになっている。   Further, a vibration mechanism such as a vibrator is disposed inside the controller 210 so that vibration can be generated in response to instruction information sent from the information processing apparatus 100.

このように、コントローラ210とセンサバー220との組合せによって、コントローラ210の操作や位置等が得られる。なお、コントローラ210等の位置の測定は、センサバー220の発光点(発光素子221)をCCDカメラ211が撮影する手法に限られず、他の手法でも適宜適用可能である。例えば、センサバー220を介した2地点間の無線通信の時差等から、コントローラ210等の位置を求めてもよく、また、超音波や赤外線等を使用して、三角測量の原理にてコントローラ210等の位置を求めてもよい。   As described above, the operation, position, and the like of the controller 210 can be obtained by the combination of the controller 210 and the sensor bar 220. Note that the measurement of the position of the controller 210 and the like is not limited to the method in which the CCD camera 211 captures the light emission point (the light emitting element 221) of the sensor bar 220, and other methods can be applied as appropriate. For example, the position of the controller 210 or the like may be obtained from the time difference of wireless communication between two points via the sensor bar 220, or the controller 210 or the like based on the principle of triangulation using ultrasonic waves or infrared rays. May be determined.

図1の説明に戻る。インターフェース104を介して着脱自在に接続された外部メモリ106には、ゲームの進行状態を示すデータなどが書き換え可能に記憶される。ユーザは、例えば、コントローラユニット105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。   Returning to the description of FIG. In the external memory 106 detachably connected via the interface 104, data indicating the progress of the game is stored in a rewritable manner. The user can appropriately record these data in the external memory 106 by inputting an instruction via the controller unit 105, for example.

DVD−ROMドライブ108に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ108は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。   A DVD-ROM mounted on the DVD-ROM drive 108 stores a program for realizing the game and image data and audio data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 108 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.

画像処理部107は、DVD−ROMから読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され、ディスプレイ290へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 107 processes the data read from the DVD-ROM by an image arithmetic processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the processed data on a frame memory ( (Not shown). The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to the display 290. Thereby, various image displays are possible.

画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを俯瞰したレンダリング画像を得る演算の高速実行も可能である。特に、点光源や平行光源、円錐光源などの典型的な(正)光源によってポリゴンが照らされる度合を計算する機能が、ライブラリ化もしくはハードウェア化され、高速に計算できるようになっている。   The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed. In addition, the polygon information arranged in the virtual three-dimensional space and added with various kinds of texture information is rendered by the Z buffer method, and a rendered image is obtained by overlooking the polygon arranged in the virtual three-dimensional space from a predetermined viewpoint position. High speed execution of the obtained operation is also possible. In particular, a function for calculating the degree to which a polygon is illuminated by a typical (positive) light source such as a point light source, a parallel light source, or a cone light source is made into a library or hardware so that it can be calculated at high speed.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画したりすることが可能である。フォント情報は、ROM 102に記録されているが、DVD−ROMに記録された専用のフォント情報を利用することも可能である。   Further, the CPU 101 and the image arithmetic processor cooperate to draw a character string as a two-dimensional image in the frame memory or draw it on the surface of each polygon according to the font information that defines the character shape. Is possible. The font information is recorded in the ROM 102, but it is also possible to use dedicated font information recorded in the DVD-ROM.

NIC 109は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integraged Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line Modem)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 109 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is a 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). Or an analog modem for connecting to the Internet using a telephone line, an ISDN (Integrated Services Digital Network) modem, an ADSL (Asymmetric Digital Subscriber Modem) modem, or a cable television line for connecting to the Internet. Cable modems and the like, and an interface (not shown) for interfacing these with the CPU 101.

音声処理部110は、DVD−ROMから読み出した音声データをアナログ信号に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。音声処理部110からは、たとえば、BGMやカラオケとして再生される楽曲の音や、ユーザのボタン操作に合わせて再生される効果音などを変換する。   The audio processing unit 110 converts audio data read from the DVD-ROM into an analog signal and outputs it from a speaker (not shown) connected thereto. Further, under the control of the CPU 101, sound effects and music data to be generated during the progress of the game are generated, and sound corresponding to this is output from the speaker. The sound processing unit 110 converts, for example, the sound of music reproduced as BGM or karaoke, or the sound effect reproduced in accordance with the user's button operation.

RTC 111は、水晶振動子や発振回路などを備える計時用のデバイスである。RTC 111は、内蔵電池から電源を供給され、情報処理装置100の電源がオフのときでも動作し続ける。   The RTC 111 is a time measuring device including a crystal resonator and an oscillation circuit. The RTC 111 is supplied with power from the built-in battery and continues to operate even when the information processing apparatus 100 is powered off.

このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ108に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。   In addition, the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk so as to perform the same function as the ROM 102, the RAM 103, the external memory 106, the DVD-ROM mounted on the DVD-ROM drive 108, and the like. You may comprise.

(表示装置の構成)
次に、本実施形態の表示装置300の各部の構成について、図面を参照して説明する。図3は、本実施形態に係る表示装置300の構成を示すブロック図である。なお、表示装置300は、射撃ゲームの実行中の画面をユーザに提示する装置である。具体的には、表示装置300は、図4A、Bに示すような画面を提示する。図4A、Bには、複数の標的オブジェクト401が仮想空間に配置されている様子が示されている。この射撃ゲームにおいて、ユーザは、照準を標的オブジェクト401に合わせるための指示入力を行い、照準の位置が標的オブジェクト401の位置に重なったと判定したときに、標的オブジェクト401に向かって弾丸オブジェクト408を発射させるための指示入力を行う。本実施形態においては、照準が定まっていない間は、図4Aに示す第2の指示画像403が表示され、照準が定まると、図4Bに示す第1の指示画像404が表示される。なお、本実施形態においては、照準の位置がユーザの注目している位置(以下、「注目位置」という。)であるものとする。図4A、Bにおいて、黒点402により示される位置(座標)が注目位置である。なお、図4Bには、弾丸オブジェクト408が発射された様子を示している。
(Configuration of display device)
Next, the structure of each part of the display apparatus 300 of this embodiment is demonstrated with reference to drawings. FIG. 3 is a block diagram illustrating a configuration of the display device 300 according to the present embodiment. The display device 300 is a device that presents a screen during execution of the shooting game to the user. Specifically, the display device 300 presents a screen as shown in FIGS. 4A and 4B. 4A and 4B show a state in which a plurality of target objects 401 are arranged in a virtual space. In this shooting game, the user inputs an instruction for aiming at the target object 401, and when it is determined that the position of the aim has overlapped with the position of the target object 401, the bullet object 408 is fired toward the target object 401. Input instructions to make it happen. In the present embodiment, the second instruction image 403 shown in FIG. 4A is displayed while the aim is not determined, and the first instruction image 404 shown in FIG. 4B is displayed when the aim is determined. In the present embodiment, it is assumed that the aiming position is a position that the user is paying attention to (hereinafter referred to as “attention position”). 4A and 4B, the position (coordinates) indicated by the black dot 402 is the target position. FIG. 4B shows a state in which the bullet object 408 is fired.

図3に示すように、本実施形態に係る表示装置300は、様子生成部301と、表示部302と、受付部303と、詳細生成部304と、移動部305と、第2の指示画像生成部306と、記憶部307と、を備える。   As illustrated in FIG. 3, the display device 300 according to the present embodiment includes a state generation unit 301, a display unit 302, a reception unit 303, a detail generation unit 304, a movement unit 305, and second instruction image generation. Unit 306 and a storage unit 307.

様子生成部301は、標的オブジェクト401や弾丸オブジェクト408などの複数のオブジェクトが配置される仮想空間を見た様子を表す様子画像410を生成する。具体的には、様子生成部301は、後述する記憶部307に記憶されている仮想空間情報に基づいて様子画像410を生成する。本実施形態においては、この仮想空間は、標的オブジェクト401や弾丸オブジェクト408などの複数のオブジェクトが配置される三次元仮想空間である。そして、様子画像410は、仮想空間内に配置された第1の視点から見た様子を表す画像である。様子生成部301は、例えば、CPU 101と画像処理部107とによって実現される。   The state generation unit 301 generates a state image 410 representing a state in which a virtual space where a plurality of objects such as the target object 401 and the bullet object 408 are arranged is viewed. Specifically, the appearance generation unit 301 generates the appearance image 410 based on virtual space information stored in the storage unit 307 described later. In the present embodiment, this virtual space is a three-dimensional virtual space in which a plurality of objects such as the target object 401 and the bullet object 408 are arranged. The state image 410 is an image representing a state viewed from the first viewpoint arranged in the virtual space. The appearance generation unit 301 is realized by the CPU 101 and the image processing unit 107, for example.

表示部302は、様子生成部301により生成された様子画像410を表示する。表示部302は、ディスプレイ290などにより実現される。   The display unit 302 displays the state image 410 generated by the state generation unit 301. The display unit 302 is realized by the display 290 or the like.

受付部303は、様子画像410内の注目位置を指定する指示入力を受け付ける。注目位置は、ユーザが注目している様子画像410内の位置である。射撃ゲームにおいては、注目位置は、様子画像410内における照準の位置と考えることができる。また、受付部303は、弾丸オブジェクト408の移動を行う旨を指定する指示入力をさらに受け付ける。ここで、弾丸オブジェクト408は、仮想空間に配置される複数のオブジェクトのうち、第1の視点から相対的な位置が固定された移動開始位置に配置されるオブジェクトである。射撃ゲームにおいては、弾丸オブジェクト408は、射撃の際に発射される弾丸などを表すオブジェクトと考えることができる。受付部403は、例えば、コントローラユニット105などにより実現される。   The accepting unit 303 accepts an instruction input for designating a target position in the state image 410. The attention position is a position in the image 410 where the user is paying attention. In the shooting game, the target position can be considered as the aiming position in the state image 410. The accepting unit 303 further accepts an instruction input for designating that the bullet object 408 is moved. Here, the bullet object 408 is an object arranged at a movement start position whose relative position is fixed from the first viewpoint among a plurality of objects arranged in the virtual space. In the shooting game, the bullet object 408 can be considered as an object representing a bullet or the like fired at the time of shooting. The accepting unit 403 is realized by the controller unit 105, for example.

詳細生成部304は、注目位置の変化の度合が所定の閾値以下である場合、様子画像410より小さい所定の大きさの詳細画像を生成する。具体的には、詳細生成部304は、後述する記憶部307に記憶されている仮想空間情報に基づいて詳細画像を生成する。ここで、詳細画像は、様子画像410により表される様子を、注目位置を中心に拡大して、注目位置を中心に所定の大きさに切り出した画像である。従って、詳細画像は、仮想空間において、第1の視点から様子画像410において注目位置に描画されている標的オブジェクト401に近づいた第2の視点から、仮想空間を見た様子を表す画像と考えることができる。詳細生成部304は、例えば、CPU 101と画像処理部107とによって実現される。   The detail generation unit 304 generates a detail image having a predetermined size smaller than the state image 410 when the degree of change in the target position is equal to or less than a predetermined threshold. Specifically, the detail generation unit 304 generates a detail image based on virtual space information stored in the storage unit 307 described later. Here, the detailed image is an image obtained by enlarging the state represented by the state image 410 around the attention position and cutting out to a predetermined size around the attention position. Therefore, the detailed image is considered to be an image representing a state in which the virtual space is viewed from the second viewpoint approaching the target object 401 drawn at the target position in the state image 410 from the first viewpoint in the virtual space. Can do. The detail generation unit 304 is realized by the CPU 101 and the image processing unit 107, for example.

移動部305は、受付部303により移動を行う旨の指示入力がなされると、弾丸オブジェクト408を、移動開始位置から、注目位置に描画されている標的オブジェクト401へ、時間の経過とともに移動させる。具体的には、移動部305は、画面更新周期毎に、仮想空間における弾丸オブジェクト408の座標を計算して、計算された座標を表す情報を後述する記憶部307に記憶する。   The movement unit 305 moves the bullet object 408 from the movement start position to the target object 401 drawn at the target position with the passage of time when an instruction to move is given by the reception unit 303. Specifically, the moving unit 305 calculates the coordinates of the bullet object 408 in the virtual space for each screen update period, and stores information representing the calculated coordinates in the storage unit 307 described later.

第2の指示画像生成部306は、注目位置の変化の度合が所定の閾値を超える場合、第2の指示画像403を生成する。あらかじめ定められたオブジェクトを表す画像を第2の指示画像403として採用することができる。第2の指示画像生成部306は、例えば、CPU 101と画像処理部107とによって実現される。   The second instruction image generation unit 306 generates a second instruction image 403 when the degree of change in the target position exceeds a predetermined threshold. An image representing a predetermined object can be adopted as the second instruction image 403. The second instruction image generation unit 306 is realized by the CPU 101 and the image processing unit 107, for example.

ここで、表示部302は、注目位置の変化の度合が所定の閾値以下である場合、第1の指示画像404を様子画像410の注目位置に重ねて表示する。一方、表示部302は、注目位置の変化の度合が所定の閾値を超える場合、第2の指示画像403を様子画像410の注目位置に重ねて表示する。ここで、表示部302は、詳細生成部304が生成した詳細画像を含む画像を、第1の指示画像404として表示する。   Here, the display unit 302 displays the first instruction image 404 so as to overlap the attention position of the state image 410 when the degree of change of the attention position is equal to or less than a predetermined threshold. On the other hand, when the degree of change in the target position exceeds a predetermined threshold, the display unit 302 displays the second instruction image 403 so as to overlap the target position of the state image 410. Here, the display unit 302 displays an image including the detailed image generated by the detailed generation unit 304 as the first instruction image 404.

記憶部307は、仮想空間情報を記憶する。仮想空間情報は、三次元仮想空間に配置される標的オブジェクト401や弾丸オブジェクト408などの複数のオブジェクトの三次元仮想空間における位置、大きさ、形状などを表す情報を含む。記憶部307は、RAM 103などにより実現される。   The storage unit 307 stores virtual space information. The virtual space information includes information representing the position, size, shape, and the like in the three-dimensional virtual space of a plurality of objects such as the target object 401 and the bullet object 408 arranged in the three-dimensional virtual space. The storage unit 307 is realized by the RAM 103 or the like.

ここで、図4A、Bを参照して、第1の指示画像404と第2の指示画像403とについて詳細に説明する。図4Aは、第2の指示画像403を説明するための図である。図4Bは、第1の指示画像404を説明するための図である。   Here, the first instruction image 404 and the second instruction image 403 will be described in detail with reference to FIGS. 4A and 4B. FIG. 4A is a diagram for explaining the second instruction image 403. FIG. 4B is a diagram for explaining the first instruction image 404.

注目位置の変化の度合が所定の閾値を超える場合、ディスプレイ290には、図4Aに示すような合成画像が表示される。この合成画像は、様子画像410の注目位置に第2の指示画像403が重なるように、様子画像410と第2の指示画像403とが合成された画像である。図4Aには、標的オブジェクト401が注目位置に描画されている場合において、第2の指示画像403が標的オブジェクト401に重ねられて表示される例を示す。なお、図4Aに示す例においては、第2の指示画像403は、十字型の照準を表す画像となっている。   When the degree of change in the target position exceeds a predetermined threshold value, a composite image as shown in FIG. 4A is displayed on the display 290. This composite image is an image in which the state image 410 and the second instruction image 403 are combined so that the second instruction image 403 overlaps the target position of the state image 410. FIG. 4A shows an example in which the second instruction image 403 is displayed superimposed on the target object 401 when the target object 401 is drawn at the target position. In the example shown in FIG. 4A, the second instruction image 403 is an image representing a cross-shaped aim.

一方、注目位置の変化の度合が所定の閾値以下である場合、ディスプレイ290には、図4Bに示すような合成画像が表示される。この合成画像は、様子画像410の注目位置に第1の指示画像404が重なるように、様子画像410と第1の指示画像404とが合成された画像である。ここで、本実施形態においては、様子画像410により表される様子を、注目位置を中心に拡大して、注目位置を中心に所定の大きさへ切り出した詳細画像を含む画像を、第1の指示画像404として採用している。図4Bには、標的オブジェクト401が注目位置に描画されている場合において、第1の指示画像404が標的オブジェクト401に重ねられて表示される例を示す。なお、図4Bに示す例においては、第1の指示画像404は、様子画像410において注目位置を中心とする円で囲まれた部分により表される仮想空間内の様子を拡大して表す画像と照準を表す画像とを合成して得られる画像となっている。従って、第1の指示画像404は、照準器を用いて注目位置を観察したときに、照準器に映し出される様子を表す画像と考えることができる。   On the other hand, when the degree of change in the target position is equal to or less than the predetermined threshold, a composite image as shown in FIG. 4B is displayed on the display 290. This composite image is an image in which the state image 410 and the first instruction image 404 are combined so that the first instruction image 404 overlaps the target position of the state image 410. Here, in the present embodiment, an image including a detailed image obtained by enlarging the state represented by the state image 410 around the attention position and cutting out the image to a predetermined size around the attention position is the first image. The instruction image 404 is adopted. FIG. 4B shows an example in which the first instruction image 404 is displayed superimposed on the target object 401 when the target object 401 is drawn at the target position. In the example shown in FIG. 4B, the first instruction image 404 is an image representing an enlarged state of the state in the virtual space represented by the portion surrounded by a circle centered on the target position in the state image 410. This is an image obtained by synthesizing the image representing the aim. Accordingly, the first instruction image 404 can be considered as an image representing a state of being projected on the sighting device when the target position is observed using the sighting device.

ここで、図5A〜Eを参照して、第1の指示画像404と第2の指示画像403とについて説明する。
図5Aに、様子画像410により表される様子を、注目位置を中心に拡大した画像405を示す。なお、図5Aには、理解を容易にするため、注目位置の座標を示す黒点402を示している。図5Bに、画像405から注目位置を中心にして、所定の大きさへ切り出した詳細画像406を示す。図5Cに、照準器を表す画像407を示す。図5Dに、詳細画像406と画像407とを合成して得られる第1の指示画像404を示す。図5Eに、第2の指示画像403を示す。
上述したように、注目位置の変化の度合によって、ディスプレイ290には異なる合成画像が表示される。なお、注目位置の変化の度合が所定の閾値以下であるか否かは、例えば、注目位置の移動する速さ、あるいは、注目位置の移動範囲の大きさが所定の閾値以下であるか否かにより判別することができる。なお、注目位置の変化の度合が所定の閾値以下であるか否かを判別する具体的な手法については、後述する。
Here, the first instruction image 404 and the second instruction image 403 will be described with reference to FIGS.
FIG. 5A shows an image 405 obtained by enlarging the state represented by the state image 410 around the position of interest. FIG. 5A shows a black dot 402 indicating the coordinates of the target position for easy understanding. FIG. 5B shows a detailed image 406 cut out from the image 405 to a predetermined size with the target position at the center. FIG. 5C shows an image 407 representing the aiming device. FIG. 5D shows a first instruction image 404 obtained by combining the detailed image 406 and the image 407. FIG. 5E shows a second instruction image 403.
As described above, different composite images are displayed on the display 290 depending on the degree of change in the target position. Note that whether or not the degree of change in the attention position is equal to or less than a predetermined threshold is, for example, whether or not the speed of movement of the attention position or the size of the movement range of the attention position is equal to or less than the predetermined threshold. Can be determined. A specific method for determining whether or not the degree of change in the position of interest is equal to or less than a predetermined threshold will be described later.

(表示装置の動作)
次に、本実施形態に係る表示装置300の動作について、図面を参照して説明する。図6は、本実施形態に係る表示装置300が実行する表示制御処理を示すフローチャートである。なお、図6のフローチャートに示す表示制御処理は、表示装置300による射撃ゲームの実行中に実行される。
(Operation of display device)
Next, the operation of the display device 300 according to the present embodiment will be described with reference to the drawings. FIG. 6 is a flowchart illustrating display control processing executed by the display device 300 according to the present embodiment. Note that the display control process shown in the flowchart of FIG. 6 is executed during the execution of the shooting game by the display device 300.

まず、CPU 101は、現在の時刻が画面更新時刻であるか否かを判別する(ステップS101)。画面更新時刻は、ディスプレイ290のリフレッシュレートによって定められる時間間隔毎に到来する時刻であり、例えば、1/60秒毎に到来する時刻である。   First, the CPU 101 determines whether or not the current time is a screen update time (step S101). The screen update time is a time that arrives at every time interval determined by the refresh rate of the display 290, for example, a time that arrives every 1/60 seconds.

CPU 101は、現在の時刻が画面更新時刻ではないと判別すると(ステップS101:NO)、現在の時刻が画面更新時刻であるか否かを判別する処理(ステップS101)に処理を戻す。一方、CPU 101は、現在の時刻が画面更新時刻であると判別すると(ステップS101:YES)、弾丸オブジェクト408の移動を指定する旨の指示入力があるか否かを判別する(ステップS102)。具体的には、例えば、CPU 101は、コントローラ210の下面に配置されたBボタン214が押圧されたか否かを判別する。   If the CPU 101 determines that the current time is not the screen update time (step S101: NO), the CPU 101 returns the process to the process of determining whether the current time is the screen update time (step S101). On the other hand, when determining that the current time is the screen update time (step S101: YES), the CPU 101 determines whether there is an instruction input for designating the movement of the bullet object 408 (step S102). Specifically, for example, the CPU 101 determines whether or not the B button 214 disposed on the lower surface of the controller 210 has been pressed.

CPU 101は、弾丸オブジェクト408の移動を指定する旨の指示入力があると判別すると(ステップS102:YES)、弾丸オブジェクト408の移動を開始する(ステップS103)。弾丸オブジェクト408は、様子画像410に表される仮想空間を見る視点からの相対的な位置が固定された移動開始位置に配置されているオブジェクトである。CPU 101は、当該指示入力があったと判別すると、弾丸オブジェクト408を移動開始位置から、注目位置に描画されている標的オブジェクト401へ、時間の経過とともに移動させる。具体的には、例えば、CPU 101は、移動開始フラグをRAM 103にセットする。なお、弾丸オブジェクト408は、例えば、弾丸を表すオブジェクトである。   When the CPU 101 determines that there is an instruction input for designating the movement of the bullet object 408 (step S102: YES), the CPU 101 starts moving the bullet object 408 (step S103). The bullet object 408 is an object arranged at a movement start position where the relative position from the viewpoint of viewing the virtual space represented by the state image 410 is fixed. When the CPU 101 determines that the instruction input has been made, it moves the bullet object 408 from the movement start position to the target object 401 drawn at the target position with the passage of time. Specifically, for example, the CPU 101 sets a movement start flag in the RAM 103. The bullet object 408 is an object representing a bullet, for example.

CPU 101は、弾丸オブジェクト408の移動を指定する旨の指示入力がないと判別した後(ステップS102:NO)、もしくは、弾丸オブジェクト408の移動を開始する処理(ステップS103)を終了した後、様子画像410を生成する(ステップS104)。具体的には、CPU 101は、RAM 103に記憶されている仮想空間情報に基づいて、仮想空間内に配置された第1の視点から見た様子を表す様子画像410を生成する。なお、RAM 103に移動開始フラグがセットされている場合には、CPU 101は、弾丸オブジェクト408の座標情報を更新してから、様子画像410を生成する処理を実行する。   After determining that there is no instruction input for designating the movement of the bullet object 408 (step S102: NO), or after finishing the process of starting the movement of the bullet object 408 (step S103), the CPU 101 An image 410 is generated (step S104). Specifically, based on the virtual space information stored in the RAM 103, the CPU 101 generates a state image 410 that represents a state viewed from the first viewpoint arranged in the virtual space. When the movement start flag is set in the RAM 103, the CPU 101 executes the process of generating the state image 410 after updating the coordinate information of the bullet object 408.

CPU 101は、様子画像410の生成(ステップS104)を終了すると、コントローラ210から送信された画像に基づいて、注目位置を取得する(ステップS105)。具体的には、まず、CPU 101は、コントローラ210から送信された画像中における2つの発光点の位置を求める。そして、CPU 101は、2つの発光点の位置に基づいて、ディスプレイ290に表示されている様子画像410内の、コントローラ210の先端が向けられている位置を求める。ここで、CPU 101は、求めた位置を注目位置として扱う。CPU 101は、取得した注目位置を表す情報を、RAM 103などに記憶する。なお、注目位置は、例えば、ディスプレイ290の最左端を基準として横軸方向の位置をドットで示す座標(以下「X座標」という。)と、ディスプレイ290の最下端を基準として縦軸方向の位置をドットで示す座標(以下「Y座標」という。)と、により表される。   When the CPU 101 ends the generation of the state image 410 (step S104), the CPU 101 acquires the position of interest based on the image transmitted from the controller 210 (step S105). Specifically, first, the CPU 101 obtains the positions of two light emitting points in the image transmitted from the controller 210. Then, the CPU 101 obtains a position where the tip of the controller 210 is directed in the state image 410 displayed on the display 290 based on the positions of the two light emitting points. Here, the CPU 101 treats the obtained position as a target position. The CPU 101 stores information representing the acquired attention position in the RAM 103 or the like. Note that the target position is, for example, a coordinate (hereinafter referred to as “X coordinate”) that indicates a position in the horizontal axis direction with reference to the leftmost end of the display 290 and a position in the vertical axis direction with respect to the lowest end of the display 290. Are represented by dots (hereinafter referred to as “Y coordinates”).

CPU 101は、注目位置の取得(ステップS105)を終了すると、注目位置の変化の度合を取得する(ステップS106)。注目位置の変化の度合をどのように定義するかは任意であるが、本実施形態においては、最近の所定期間における注目位置の移動範囲の大きさを注目位置の変化の度合とする。以下、図7を参照して、注目位置の変化の度合を取得する手法について説明する。   When the CPU 101 finishes acquiring the attention position (step S105), the CPU 101 acquires the degree of change of the attention position (step S106). How to define the degree of change of the target position is arbitrary, but in the present embodiment, the size of the range of movement of the target position in the recent predetermined period is the degree of change of the target position. Hereinafter, with reference to FIG. 7, a method for acquiring the degree of change in the target position will be described.

まず、CPU 101は、最近の画面更新周期10回分の期間において取得された、10個の注目位置を表す情報をRAM 103から全て読み出す。図7に、10個の注目位置の座標を×で示す。次に、CPU 101は、10個の注目位置のうち、X軸方向の座標が最も小さい注目位置Plと、X軸方向の座標が最も大きい注目位置Prと、Y軸方向の座標が最も小さい注目位置Pdと、Y軸方向の座標が最も大きい注目位置Puと、を特定する。そして、CPU 101は、注目位置PlのX座標と注目位置PrのX座標との差であるX軸方向の移動長さLxと、注目位置PdのY座標と注目位置PuのY座標との差であるY軸方向の移動長さLyと、を求める。ここで、CPU 101は、LxとLyを乗じた値を求めて、求めた値を移動範囲の大きさとする。図7において、破線で示す長方形で囲まれた領域の面積が移動範囲の大きさとなる。   First, the CPU 101 reads all the information representing the ten positions of interest acquired from the RAM 103 during the latest 10 screen update cycles. In FIG. 7, the coordinates of ten attention positions are indicated by x. Next, the CPU 101 selects the attention position Pl having the smallest coordinate in the X-axis direction, the attention position Pr having the largest coordinate in the X-axis direction, and the attention having the smallest coordinate in the Y-axis direction among the ten attention positions. The position Pd and the target position Pu having the largest coordinate in the Y-axis direction are specified. Then, the CPU 101 determines the difference between the movement length Lx in the X-axis direction, which is the difference between the X coordinate of the target position Pl and the X coordinate of the target position Pr, and the Y coordinate of the target position Pd and the Y coordinate of the target position Pu. The movement length Ly in the Y-axis direction is obtained. Here, the CPU 101 obtains a value obtained by multiplying Lx and Ly, and uses the obtained value as the size of the movement range. In FIG. 7, the area of a region surrounded by a rectangle indicated by a broken line is the size of the movement range.

図6の説明に戻る。CPU 101は、注目位置の変化の度合を取得する処理(ステップS106)を終了すると、注目位置の変化の度合が閾値以上であるか否かを判別する(ステップS107)。本実施形態においては、注目位置の変化の度合は、注目位置の移動範囲の大きさであるため、この閾値は面積の閾値となる。なお、この閾値は、ROM 102などにあらかじめ記憶されている値を用いても良いが、ユーザの射撃の技量などに応じて定めるようにしてもよい。この理由は、標的を発見したときに照準を定める能力は、ユーザの射撃の技量などによって異なると考えられるためである。すなわち、射撃の技量が高いユーザは、照準を定める操作が上手であるため、標的発見後の注目位置の変化の度合が小さいことが期待される。一方、射撃の技量が低いユーザは、照準を定める操作が下手であるため、標的発見後の注目位置の変化の度合が大きいことが期待される。従って、例えば、射撃ゲームのプレイ中に得られた得点が大きいほど閾値が小さく設定されるようにする。   Returning to the description of FIG. When the CPU 101 completes the process of acquiring the degree of change in the position of interest (step S106), the CPU 101 determines whether the degree of change in the position of interest is equal to or greater than the threshold (step S107). In the present embodiment, since the degree of change of the attention position is the size of the movement range of the attention position, this threshold value is an area threshold value. The threshold value may be a value stored in advance in the ROM 102 or the like, but may be determined according to the shooting skill of the user. This is because the ability to aim when a target is found is considered to vary depending on the shooting skill of the user. That is, a user with a high shooting skill is expected to have a small degree of change in the position of interest after target discovery because the operation of determining the aim is good. On the other hand, users with low shooting skills are not good at aiming operations, so it is expected that the degree of change in the position of interest after target discovery will be large. Therefore, for example, the threshold value is set to be smaller as the score obtained during the shooting game is larger.

CPU 101は、注目位置の変化の度合が閾値以下である、つまり、所定期間における注目位置の移動範囲の大きさが所定の範囲内であると判別すると(ステップS107:YES)、第1の指示画像404を生成する(ステップS108)。本実施形態においては、第1の指示画像404は、詳細画像406を含む画像(詳細画像406と画像407との合成画像)である。以下、図8A、Bを参照して詳細画像406(図8A、Bに関する説明においては詳細画像803)について説明する。   When the CPU 101 determines that the degree of change in the target position is equal to or less than the threshold value, that is, the size of the range of movement of the target position within the predetermined period (step S107: YES), the first instruction An image 404 is generated (step S108). In the present embodiment, the first instruction image 404 is an image including the detailed image 406 (a composite image of the detailed image 406 and the image 407). Hereinafter, the detailed image 406 (the detailed image 803 in the description of FIGS. 8A and B) will be described with reference to FIGS. 8A and 8B.

上述したように、様子画像410は、三次元仮想空間内に配置された第1の視点から見た様子を表す画像である。図8Aに示す例では、第1の視点V1から見た様子を、当該第1の視点V1からの距離が距離Dscrである投影面に投影させることにより得られる画像を、様子画像801(図8A、B以外の説明においては様子画像410)としている。なお、本実施形態においては、様子画像801は、640(dot)×480(dot)の大きさの画像である。また、本実施形態においては、投影面が平面であるものとして説明しているが、投影面は曲面でもよい。ここで、様子画像801内における標的オブジェクト401の大きさは、三次元仮想空間における標的オブジェクト401の大きさと、第1の視点V1から標的オブジェクト401までの距離である距離Dtar1と、により定まる。従って、当該様子画像801内における標的オブジェクト401の大きさは、距離Dtar1が長いほど小さくなり、距離Dtar1が短いほど大きくなる。   As described above, the state image 410 is an image that represents a state viewed from the first viewpoint arranged in the three-dimensional virtual space. In the example shown in FIG. 8A, an image obtained by projecting a state viewed from the first viewpoint V1 onto a projection plane whose distance from the first viewpoint V1 is the distance Dscr is a state image 801 (FIG. 8A). In the description other than B, the state image 410) is used. In the present embodiment, the state image 801 is an image having a size of 640 (dot) × 480 (dot). In the present embodiment, the projection surface is described as a flat surface, but the projection surface may be a curved surface. Here, the size of the target object 401 in the state image 801 is determined by the size of the target object 401 in the three-dimensional virtual space and the distance Dtar1 that is the distance from the first viewpoint V1 to the target object 401. Therefore, the size of the target object 401 in the state image 801 is smaller as the distance Dtar1 is longer, and is larger as the distance Dtar1 is shorter.

一方、詳細画像803は、様子画像801により表される様子を、注目位置を中心に拡大して、注目位置を中心に所定の大きさに切り出した画像である。ここで、図8A、Bにおいては、注目位置は、様子画像801に表されている標的オブジェクト401の重心の位置であるものとして説明する。また、本実施形態においては、詳細画像803は、三次元仮想空間内に配置された第2の視点V2から、三次元仮想空間を見た様子を表す画像である。ここで、第2の視点V2は、三次元仮想空間において、第1の視点V1から様子画像801において注目位置に描画されている標的オブジェクト401へ近づいた視点である。図8Bに示す例では、第1の視点V1から標的オブジェクト401へ近づいた第2の視点V2から見た様子を、当該第2の視点V2からの距離が距離Dscrである投影面に投影させることにより得られる画像を、画像802としている。この画像802は、様子画像801により表される様子を、注目位置を中心に拡大した様子を表す画像である。なお、本実施形態においては、画像802は、640(dot)×480(dot)の大きさの画像である。そして、画像802から、注目位置を中心に所定の大きさに切り出した画像が詳細画像803である。詳細画像803は、様子画像801を単純に拡大して得られる画像から切り出した画像ではなく、様子画像801よりも標的オブジェクト401から近い視点から見た様子を表す画像としている。このため、詳細画像803は、注目位置近傍の画像により表される三次元仮想空間の様子を鮮明に表す画像となる。   On the other hand, the detailed image 803 is an image obtained by enlarging the state represented by the state image 801 around the attention position and cutting out to a predetermined size around the attention position. Here, in FIGS. 8A and 8B, description will be made assuming that the target position is the position of the center of gravity of the target object 401 represented in the state image 801. In the present embodiment, the detailed image 803 is an image representing a state in which the 3D virtual space is viewed from the second viewpoint V2 arranged in the 3D virtual space. Here, the second viewpoint V2 is a viewpoint approaching from the first viewpoint V1 to the target object 401 drawn at the position of interest in the state image 801 in the three-dimensional virtual space. In the example shown in FIG. 8B, the state seen from the second viewpoint V2 approaching the target object 401 from the first viewpoint V1 is projected onto the projection plane whose distance from the second viewpoint V2 is the distance Dscr. The image obtained by the above is an image 802. This image 802 is an image representing a state in which the state represented by the state image 801 is enlarged around the position of interest. In the present embodiment, the image 802 is an image having a size of 640 (dot) × 480 (dot). A detailed image 803 is an image cut out from the image 802 to a predetermined size around the position of interest. The detailed image 803 is not an image cut out from an image obtained by simply enlarging the state image 801 but is an image representing a state viewed from a viewpoint closer to the target object 401 than the state image 801. Therefore, the detailed image 803 is an image that clearly represents the state of the three-dimensional virtual space represented by the image near the target position.

ここで、画像802から切り出される詳細画像803の大きさは、注目位置の変化の度合に応じて定められる。例えば、注目位置の変化の度合が小さいほど、すなわち、注目位置の移動範囲の大きさが小さいほど詳細画像803が大きくなるようにする。これは、注目位置の変化の度合が小さいほど、すなわち、注目位置の移動範囲の大きさが小さいほど照準が定まっていると考えられるためである。すなわち、照準の位置の変化が小さいほど注目位置に描画されている標的オブジェクト401がより詳細に提示されることで、ユーザはさらに正確に照準を定めることが可能となる。   Here, the size of the detailed image 803 cut out from the image 802 is determined according to the degree of change in the target position. For example, the smaller the degree of change in the attention position, that is, the smaller the size of the movement range of the attention position, the larger the detailed image 803 becomes. This is because it is considered that the aim is determined as the degree of change in the attention position is smaller, that is, as the size of the movement range of the attention position is smaller. That is, as the change in the aiming position is smaller, the target object 401 drawn at the target position is presented in more detail, so that the user can determine the aim more accurately.

また、画像802内における標的オブジェクト401の大きさは、三次元仮想空間における標的オブジェクト401の大きさと、第2の視点V2から標的オブジェクト401までの距離である距離Dtar2と、により定められる。従って、画像802内における標的オブジェクト401の大きさは、距離Dtar2が長いほど小さくなり、距離Dtar2が短いほど大きくなる。また、詳細画像803は、様子画像801に表される様子をDtar1/Dtar2倍に拡大した様子を表す画像となる。   The size of the target object 401 in the image 802 is determined by the size of the target object 401 in the three-dimensional virtual space and the distance Dtar2 that is the distance from the second viewpoint V2 to the target object 401. Accordingly, the size of the target object 401 in the image 802 becomes smaller as the distance Dtar2 is longer, and larger as the distance Dtar2 is shorter. Further, the detailed image 803 is an image representing a state where the state represented by the state image 801 is enlarged by Dtar1 / Dtar2 times.

ここで、例えば、拡大率を一定にする場合、第1の視点V1から標的オブジェクト401までの距離と、第2の視点V2から標的オブジェクト401までの距離との割合が一定の割合になるようにする。具体的には、距離Dtar1から距離Dtar2を減じた距離である距離D12と距離Dtar1との割合が一定の値になるように、第2の視点V2を定める。すなわち、第1の視点V1から第2の視点V2までの距離である距離D12を、距離Dtar1にあらかじめ対応付けられている長さとする。
以上で詳細画像803の説明を終了し、図6に示すフローチャートの説明に戻る。
Here, for example, when the enlargement ratio is constant, the ratio of the distance from the first viewpoint V1 to the target object 401 and the distance from the second viewpoint V2 to the target object 401 is a constant ratio. To do. Specifically, the second viewpoint V2 is determined such that the ratio between the distance D12 and the distance Dtar1, which is a distance obtained by subtracting the distance Dtar2 from the distance Dtar1, is a constant value. That is, the distance D12 that is the distance from the first viewpoint V1 to the second viewpoint V2 is set to a length that is associated with the distance Dtar1 in advance.
This is the end of the description of the detailed image 803, and the description returns to the flowchart of FIG.

CPU 101は、注目位置の変化の度合が閾値以下ではない、つまり、所定期間における注目位置の移動範囲の大きさが所定の範囲内ではないと判別すると(ステップS107:NO)、第2の指示画像403を生成する(ステップS109)。第2の指示画像403は、あらかじめ定められたオブジェクトを表す画像であり、第1の指示画像404とは異なる画像である。第2の指示画像403は、例えば、図4Aに第2の指示画像403として示すような画像とすることができる。このように、第2の指示画像403を第1の指示画像404と異なる画像とすることにより、注目位置の変化の度合が所定の閾値以下であるか否かをユーザに示すことができる。   If the CPU 101 determines that the degree of change of the target position is not less than or equal to the threshold value, that is, the size of the range of movement of the target position in the predetermined period is not within the predetermined range (step S107: NO), the second instruction An image 403 is generated (step S109). The second instruction image 403 is an image representing a predetermined object, and is an image different from the first instruction image 404. The second instruction image 403 can be, for example, an image as shown as the second instruction image 403 in FIG. 4A. In this way, by making the second instruction image 403 different from the first instruction image 404, it is possible to indicate to the user whether or not the degree of change in the position of interest is below a predetermined threshold.

CPU 101は、第1の指示画像404を生成する処理(ステップS108)もしくは第2の指示画像403を生成する処理(ステップS109)を終了すると、合成画像を生成する(ステップS110)。合成画像は、ステップS104で生成された様子画像410と、ステップS108で生成された第1の指示画像404もしくはステップS109で生成された第2の指示画像403のいずれかの画像とが合成されることにより得られる画像である。例えば、合成画像は、様子画像410を背景画像として、第1の指示画像404もしくは第2の指示画像403が上書きされた画像とすることができる。この場合において、第1の指示画像404もしくは第2の指示画像403が半透明で表示されるようにしてもよい。   When the CPU 101 finishes the process of generating the first instruction image 404 (step S108) or the process of generating the second instruction image 403 (step S109), the CPU 101 generates a composite image (step S110). The composite image is composed of the state image 410 generated in step S104 and either the first instruction image 404 generated in step S108 or the second instruction image 403 generated in step S109. It is an image obtained by this. For example, the composite image may be an image in which the first instruction image 404 or the second instruction image 403 is overwritten with the state image 410 as a background image. In this case, the first instruction image 404 or the second instruction image 403 may be displayed translucently.

CPU 101は、合成画像を生成する処理(ステップS110)を終了すると、合成画像を表示する(ステップS111)。具体的には、CPU 101は、ステップS110で生成した合成画像を表す信号をディスプレイ290に供給する。一方、ディスプレイ290は、供給された信号に従って、合成画像を表示する。   When the CPU 101 finishes the process for generating the composite image (step S110), the CPU 101 displays the composite image (step S111). Specifically, the CPU 101 supplies a signal representing the composite image generated in step S110 to the display 290. On the other hand, the display 290 displays a composite image according to the supplied signal.

CPU 101は、合成画像を表示する処理(ステップS111)を終了すると、画面更新時刻であるか否かを判別する処理(ステップS101)に処理を戻す。
以上で表示装置300が実行する表示制御処理の説明を終了する。
When the CPU 101 ends the process of displaying the composite image (step S111), the CPU 101 returns the process to the process of determining whether it is the screen update time (step S101).
Above, description of the display control process which the display apparatus 300 performs is complete | finished.

表示装置300によれば、注目位置の変化の度合が小さい場合、つまり、所定期間における注目位置の移動範囲の大きさが所定の範囲内である場合に様子画像410の注目位置に第1の指示画像404が重ねて表示され、注目位置の変化の度合が大きい場合、つまり、所定期間における注目位置の移動範囲の大きさが所定の範囲内ではない場合に様子画像410の注目位置に第2の指示画像403が重ねて表示される。このため、表示装置300によれば、注目位置の変化の度合が所定の閾値以下であるか否か、つまり、所定期間における注目位置の移動範囲の大きさが所定の大きさ以下であるか否かを提示するとともに、注目位置を提示することができる。
また、第1の指示画像404は、様子画像410により表される様子を、注目位置を中心に拡大して、注目位置を中心に所定の大きさへ切り出した詳細画像406を含む画像である。このため、表示装置300によれば、注目位置をさらに精度良く指定させるため情報を提示することができる。
また、表示装置300によれば、第2の視点V2を適宜調整することにより、詳細画像406の拡大率を調整することができる。
また、表示装置300によれば、注目位置の変化の度合が小さいほど、詳細画像406を大きくすることができる。
以上説明したように、本実施形態にかかる表示装置300によれば、ユーザが注目する位置の変化の度合を分かり易く提示することができる。
According to the display device 300, when the degree of change of the attention position is small, that is, when the size of the movement range of the attention position in the predetermined period is within the predetermined range, the first instruction is given to the attention position of the appearance image 410. When the image 404 is displayed in an overlapping manner and the degree of change of the target position is large, that is, when the size of the range of movement of the target position in the predetermined period is not within the predetermined range, the second position is displayed at the target position of the state image 410. The instruction image 403 is displayed in an overlapping manner. Therefore, according to the display device 300, whether or not the degree of change in the attention position is equal to or less than the predetermined threshold, that is, whether or not the size of the movement range of the attention position in the predetermined period is equal to or less than the predetermined size. And the position of interest can be presented.
Further, the first instruction image 404 is an image including a detailed image 406 obtained by enlarging the state represented by the state image 410 around the position of interest and cutting it out to a predetermined size around the position of interest. For this reason, according to the display apparatus 300, information can be presented in order to specify the position of interest more accurately.
Further, according to the display device 300, the enlargement ratio of the detailed image 406 can be adjusted by appropriately adjusting the second viewpoint V2.
Further, according to the display device 300, the smaller the degree of change in the position of interest, the larger the detailed image 406 can be made.
As described above, according to the display device 300 according to the present embodiment, it is possible to present the degree of change of the position focused by the user in an easy-to-understand manner.

(第2の実施形態)
第1の実施形態では、複数のオブジェクトが配置される三次元仮想空間を見た様子を表す画像を表示する表示装置に本発明を適用する例について説明した。しかし、本発明は、複数のウインドウもしくはアイコンが配置されるデスクトップ空間を見た様子を表す画像を表示する表示装置に適用することも可能である。以下、第2の実施形態にかかる表示装置について説明する。なお、第2の実施形態にかかる表示装置は、例えば、パーソナルコンピュータなどを用いて実現することができる。この場合、マウスやキーボードなどにより上述した受付部303が実現される。しかしながら、第2の実施形態にかかる表示装置の構成ならびに表示制御処理は、基本的には第1の実施形態のものと同様である。
(Second Embodiment)
In the first embodiment, an example in which the present invention is applied to a display device that displays an image representing a state of viewing a three-dimensional virtual space in which a plurality of objects are arranged has been described. However, the present invention can also be applied to a display device that displays an image representing a state in which a desktop space where a plurality of windows or icons are arranged is viewed. The display device according to the second embodiment will be described below. Note that the display device according to the second embodiment can be realized by using, for example, a personal computer. In this case, the above-described receiving unit 303 is realized by a mouse, a keyboard, or the like. However, the configuration of the display device and the display control process according to the second embodiment are basically the same as those of the first embodiment.

本実施形態においては、複数のウインドウもしくはアイコンが配置されるデスクトップ空間を見た様子を表す画像が様子画像910として生成される。そして、様子画像910内の注目位置を指定する指示入力は、マウスやキーボードなどにより受け付けられる。本実施形態においては、マウスやキーボードなどが操作されない限り、注目位置が変化しない。このため、基本的には様子画像910の注目位置に第1の指示画像902が重ねて表示され、マウスやキーボードなどが操作された場合に様子画像910の注目位置に第2の指示画像901が重ねて表示される。以下、図9A、Bを参照して、第2の実施形態にかかる表示装置が表示する画像について説明する。   In the present embodiment, an image representing a state in which a desktop space in which a plurality of windows or icons are arranged is viewed is generated as the state image 910. An instruction input for designating a target position in the state image 910 is accepted by a mouse or a keyboard. In the present embodiment, the position of interest does not change unless the mouse or keyboard is operated. Therefore, basically, the first instruction image 902 is displayed so as to overlap the attention position of the state image 910, and the second instruction image 901 is displayed at the attention position of the state image 910 when a mouse, a keyboard, or the like is operated. Overlaid. Hereinafter, with reference to FIGS. 9A and 9B, an image displayed by the display device according to the second embodiment will be described.

注目位置の変化の度合が所定の閾値を超える場合、例えば、所定期間における注目位置の移動範囲の大きさが所定の範囲内である場合、ディスプレイ290には、図9Aに示すような合成画像が表示される。この合成画像は、様子画像910の注目位置に第2の指示画像901が重なるように、様子画像910と第2の指示画像901とが合成された画像である。図9Aには、標的オブジェクトである文字列“KB”が注目位置に描画されている場合において、第2の指示画像901が文字列“KB”に重ねられて表示される例を示す。なお、図9Aに示す例においては、第2の指示画像901は、矢印型のポインタを表す画像となっている。   When the degree of change of the attention position exceeds a predetermined threshold, for example, when the size of the movement range of the attention position within a predetermined period is within a predetermined range, a composite image as shown in FIG. 9A is displayed on the display 290. Is displayed. This composite image is an image in which the state image 910 and the second instruction image 901 are combined so that the second instruction image 901 overlaps the target position of the state image 910. FIG. 9A shows an example in which the second instruction image 901 is displayed superimposed on the character string “KB” when the character string “KB” as the target object is drawn at the target position. In the example shown in FIG. 9A, the second instruction image 901 is an image representing an arrow pointer.

一方、注目位置の変化の度合が所定の閾値以下である場合、例えば、所定期間における注目位置の移動範囲の大きさが所定の範囲内ではない場合、ディスプレイ290には、図9Bに示すような合成画像が表示される。この合成画像は、様子画像910の注目位置に第1の指示画像902が重なるように、様子画像910と第1の指示画像902とが合成された画像である。ここで、本実施形態においては、様子画像910により表される様子を、注目位置を中心に拡大して、注目位置を中心に所定の大きさへ切り出した詳細画像を含む画像を、第1の指示画像902としている。図9Bには、標的オブジェクトである文字列“KB”が注目位置に描画されている場合において、第1の指示画像902が文字列“KB”に重ねられて表示される例を示す。なお、図9Bに示す例においては、第1の指示画像902は、様子画像910において注目位置を中心とする円で囲まれた領域により表される画像を拡大した詳細画像と虫眼鏡を表す画像とを合成して得られる画像となっている。従って、第1の指示画像902は、虫眼鏡を用いて注目位置を観察したときに見ることができる様子を表す画像と考えることができる。
このように、注目位置の変化の度合によって、ディスプレイ290には異なる合成画像が表示される。
On the other hand, when the degree of change of the attention position is equal to or less than a predetermined threshold, for example, when the size of the movement range of the attention position in the predetermined period is not within the predetermined range, the display 290 has a display as shown in FIG. 9B. A composite image is displayed. This composite image is an image in which the state image 910 and the first instruction image 902 are combined such that the first instruction image 902 overlaps the target position of the state image 910. Here, in the present embodiment, an image including a detailed image obtained by enlarging the state represented by the state image 910 around the position of interest and cutting out to a predetermined size around the position of interest is the first image. The instruction image 902 is used. FIG. 9B shows an example in which the first instruction image 902 is displayed superimposed on the character string “KB” when the character string “KB” as the target object is drawn at the target position. In the example shown in FIG. 9B, the first instruction image 902 includes a detailed image obtained by enlarging an image represented by a region surrounded by a circle centered on the position of interest in the state image 910, and an image representing a magnifying glass. It is an image obtained by synthesizing. Therefore, the first instruction image 902 can be considered as an image representing a state that can be seen when the target position is observed using a magnifying glass.
In this way, different composite images are displayed on the display 290 depending on the degree of change in the target position.

本実施形態においては、マウスやキーボードなどによる操作がない場合は、注目位置近傍の領域を拡大表示する比較的大きな第1の指示画像902が様子画像910の注目位置に重ねて表示され、マウスやキーボードなどによる操作がある場合は、比較的小さな第2の指示画像901が様子画像910の注目位置に表示される。このため、ユーザは、マウスやキーボードなどを操作していないときは、注目位置に描画されている標的オブジェクトの詳細を観察することができる。一方、ユーザは、マウスやキーボードなどを操作しているときは、注目位置を正確に移動することができる。
このように、本実施形態にかかる表示装置300によれば、ユーザが注目する位置の変化の度合を分かり易く提示することができる。
In the present embodiment, when there is no operation with a mouse, a keyboard, or the like, a relatively large first instruction image 902 that enlarges and displays an area near the target position is displayed superimposed on the target position of the state image 910, and When there is an operation with a keyboard or the like, a relatively small second instruction image 901 is displayed at the target position of the state image 910. For this reason, when the user is not operating the mouse or the keyboard, the user can observe the details of the target object drawn at the target position. On the other hand, when the user is operating a mouse, a keyboard, or the like, the user can move the target position accurately.
As described above, according to the display device 300 according to the present embodiment, it is possible to present the degree of change of the position focused by the user in an easy-to-understand manner.

(変形例)
上記実施形態では、様子画像410により表される様子を、注目位置を中心に拡大して、注目位置を中心に所定の大きさに切り出した詳細画像406と画像407とから構成される画像を、第1の指示画像404とする例を示した。しかし、第1の指示画像404は第2の指示画像403と異なる画像であれば、どのような画像であってもよい。例えば、図10に示すように、照準器を表す画像407を第1の指示画像404とすることができる。これにより、照準が定まっていることを提示することができるとともに、様子画像410内の照準が定まっている位置を提示することができる。また、詳細画像406そのものを、第1の指示画像404としてもよい。
(Modification)
In the above-described embodiment, an image composed of the detailed image 406 and the image 407 obtained by enlarging the state represented by the state image 410 around the attention position and cutting out to a predetermined size around the attention position. An example in which the first instruction image 404 is used is shown. However, the first instruction image 404 may be any image as long as it is different from the second instruction image 403. For example, as shown in FIG. 10, an image 407 representing the sighting device can be used as the first instruction image 404. Accordingly, it is possible to present that the aim is determined, and it is possible to present the position where the aim is determined in the state image 410. Further, the detailed image 406 itself may be the first instruction image 404.

上記実施形態では、注目位置の変化の度合が所定の閾値を超える場合に第2の指示画像403を様子画像410の注目位置に重ねて表示する例を示した。しかし、第2の指示画像403は必ずしも表示されなくてもよい。第1の指示画像404が表示されているか否かによって、注目位置の変化の度合を提示することが可能なためである。
また、第2の指示画像403を、第1の指示画像404と同じ形状であって、第1の指示画像404と異なる色彩の画像とすることができる。かかる場合であっても、注目位置の変化の度合を提示することが可能である。
In the above-described embodiment, an example in which the second instruction image 403 is displayed so as to overlap the attention position of the state image 410 when the degree of change in the attention position exceeds a predetermined threshold value has been described. However, the second instruction image 403 is not necessarily displayed. This is because the degree of change of the target position can be presented depending on whether or not the first instruction image 404 is displayed.
Further, the second instruction image 403 can be an image having the same shape as the first instruction image 404 and a color different from that of the first instruction image 404. Even in such a case, it is possible to present the degree of change of the target position.

上記実施形態では、詳細画像406の拡大率が一定になるように、第2の視点V2を定める例を示した。しかし、例えば、ディスプレイ290における標的オブジェクト401の大きさが一定になるようにしてもよい。この場合、第2の視点V2から標的オブジェクト401までの距離が一定の距離になるように、第2の視点V2を定める。   In the above embodiment, an example in which the second viewpoint V2 is determined so that the enlargement ratio of the detailed image 406 is constant has been described. However, for example, the size of the target object 401 on the display 290 may be constant. In this case, the second viewpoint V2 is determined so that the distance from the second viewpoint V2 to the target object 401 is a constant distance.

上記実施形態では、所定期間における注目位置の移動範囲の大きさが、所定期間に所定のサンプリング周期(画面更新周期)でサンプリングされた注目位置の、最左端、最右端、最下端、および、最上端の座標に基づいて定められる例を示した。しかし、注目位置の移動範囲の大きさをどのように定義するかは任意である。例えば、注目位置の移動範囲の大きさを、所定期間に所定のサンプリング周期でサンプリングされた注目位置のうち、最も遠い2つの注目位置間の距離と定義することができる。また、例えば、注目位置の移動範囲の大きさを、所定期間に所定のサンプリング周期でサンプリングされた注目位置のうち、注目位置の重心から最も遠い注目位置から当該注目位置の重心までの距離と定義することができる。また、例えば、注目位置の移動範囲の大きさを、所定期間に所定のサンプリング周期でサンプリングされた注目位置の全てを囲む、最も面積が小さい所定の形状の図形(多角形、円、楕円)の面積と定義することができる。   In the embodiment described above, the size of the moving range of the target position in the predetermined period is the leftmost, rightmost, lowermost, and lowest positions of the target positions sampled in the predetermined period with a predetermined sampling cycle (screen update cycle). The example shown based on the coordinate of an upper end was shown. However, how to define the size of the movement range of the target position is arbitrary. For example, the size of the movement range of the target position can be defined as the distance between the two most distant target positions among the target positions sampled at a predetermined sampling period in a predetermined period. Further, for example, the size of the moving range of the target position is defined as the distance from the target position farthest from the center of gravity of the target position to the center of gravity of the target position among the target positions sampled at a predetermined sampling period in a predetermined period. can do. In addition, for example, the size of the moving range of the target position is set to a figure (polygon, circle, ellipse) of a predetermined shape with the smallest area surrounding all the target positions sampled at a predetermined sampling period in a predetermined period. It can be defined as area.

上記実施形態では、注目位置の変化の度合を、所定期間における注目位置の移動範囲の大きさとする例を示した。しかし、注目位置の変化の度合を、所定期間における注目位置の移動する速さの平均値とすることができる。例えば、所定期間内における所定のサンプリング周期毎に、注目位置をサンプリングするとともに、前回サンプリングされた注目位置との差分を求めて注目位置の移動する速さを求める。そして、所定期間内における所定のサンプリング周期毎に求めた注目位置の移動する速さの当該所定期間における平均値を、注目位置の変化の度合とする。   In the above-described embodiment, an example in which the degree of change in the attention position is set to the size of the movement range of the attention position in the predetermined period is shown. However, the degree of change of the target position can be set as an average value of the moving speed of the target position in a predetermined period. For example, the position of interest is sampled at a predetermined sampling period within a predetermined period, and the speed of movement of the position of interest is determined by obtaining a difference from the previously sampled position of interest. Then, an average value of the moving speed of the target position obtained for each predetermined sampling period within the predetermined period in the predetermined period is set as the degree of change of the target position.

上記実施形態では、画面更新周期の10回分の期間において画面更新周期毎にサンプリングされた10個の注目位置に基づいて、注目位置の変化の度合が取得される例を示した。しかし、注目位置をサンプリングする期間、ならびに、注目位置をサンプリングする周期は適宜調整することが可能である。   In the above-described embodiment, the example in which the degree of change of the target position is acquired based on the ten target positions sampled for each screen update period in the period of ten screen update periods. However, the period for sampling the position of interest and the period for sampling the position of interest can be adjusted as appropriate.

上記実施形態では、様子画像410とは別に詳細画像406が生成される例を示した。しかし、様子画像410を拡大して得られる画像から、注目位置を中心にして、所定の大きさに切り出された画像が、詳細画像406となるようにしてもよい。かかる手法によれば、詳細画像406を生成する時間が短縮されることが期待できる。   In the above embodiment, an example in which the detailed image 406 is generated separately from the state image 410 has been described. However, an image cut out to a predetermined size from the image obtained by enlarging the state image 410 with the attention position at the center may be the detailed image 406. According to such a method, it can be expected that the time for generating the detailed image 406 is shortened.

以上説明したように、本発明によれば、ユーザが注目する位置の変化の度合を分かり易く提示するのに好適な表示装置、表示方法、ならびに、これらをコンピュータにより実現するためのプログラムを提供することができる。   As described above, according to the present invention, it is possible to provide a display device, a display method, and a program for realizing these by a computer, which are suitable for presenting the degree of change in the position of interest of the user in an easy-to-understand manner. be able to.

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェース
105 コントローラユニット
106 外部メモリ
107 画像処理部
108 DVD−ROMドライブ
109 NIC
110 音声処理部
111 RTC
210 コントローラ
211 CCDカメラ
212 十字形キー
213 Aボタン
214 Bボタン
215 ボタン
216 孔
217 インジケータ
218 電源ボタン
220 センサバー
221 発光素子
290 ディスプレイ
300 表示装置
301 様子生成部
302 表示部
303 受付部
304 詳細生成部
305 移動部
306 第2の指示画像生成部
307 記憶部
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Interface 105 Controller unit 106 External memory 107 Image processing unit 108 DVD-ROM drive 109 NIC
110 Audio processing unit 111 RTC
210 Controller 211 CCD Camera 212 Cross Key 213 A Button 214 B Button 215 Button 216 Hole 217 Indicator 218 Power Button 220 Sensor Bar 221 Light Emitting Element 290 Display 300 Display Device 301 Appearance Generation Unit 302 Display Unit 303 Reception Unit 304 Detailed Generation Unit 305 Movement Unit 306 second instruction image generation unit 307 storage unit

Claims (12)

複数のオブジェクトが配置される仮想空間を見た様子を表す様子画像を生成する様子生成部、
前記生成された様子画像を表示する表示部、
前記表示された様子画像内の注目位置を指定する指示入力を受け付ける受付部、を備え、
前記表示部は、前記注目位置の変化の度合が所定の閾値以下である場合、第1の指示画像を前記様子画像の前記注目位置に重ねて表示する
ことを特徴とする表示装置。
A state generation unit that generates a state image representing a state in which a virtual space where a plurality of objects are arranged is viewed,
A display unit for displaying the generated state image;
A reception unit for receiving an instruction input for designating a target position in the displayed state image;
The display unit displays the first instruction image so as to overlap the target position of the state image when the degree of change of the target position is a predetermined threshold value or less.
請求項1に記載の表示装置であって、
前記表示部は、前記注目位置の変化の度合が前記所定の閾値を超える場合、第2の指示画像を前記様子画像の前記注目位置に重ねて表示する
ことを特徴とする表示装置。
The display device according to claim 1,
The display unit displays a second instruction image so as to overlap the target position of the state image when the degree of change of the target position exceeds the predetermined threshold.
請求項1又は2に記載の表示装置であって、
前記注目位置の変化の度合が前記所定の閾値以下である場合、前記様子画像より小さい所定の大きさの詳細画像を生成する詳細生成部、をさらに備え、
前記表示部は、前記詳細画像が生成された場合、当該詳細画像を前記第1の指示画像とし、
前記詳細画像は、前記様子画像により表される様子を、前記注目位置を中心に拡大して、前記注目位置を中心に前記所定の大きさへ切り出した画像である
ことを特徴とする表示装置。
The display device according to claim 1 or 2,
A detail generation unit that generates a detailed image having a predetermined size smaller than the state image when the degree of change in the target position is equal to or less than the predetermined threshold;
When the detailed image is generated, the display unit sets the detailed image as the first instruction image,
The display device according to claim 1, wherein the detailed image is an image obtained by enlarging the state represented by the state image around the position of interest and cutting out the image to the predetermined size around the position of interest.
請求項3に記載の表示装置であって、
前記仮想空間は、複数のウインドウもしくはアイコンが配置されるデスクトップ空間である
ことを特徴とする表示装置。
The display device according to claim 3,
The display device, wherein the virtual space is a desktop space in which a plurality of windows or icons are arranged.
請求項4に記載の表示装置であって、
前記仮想空間は、複数のオブジェクトが配置される三次元空間であり、
前記様子画像は、前記仮想空間内に配置された第1の視点から見た様子を表す画像であり、
前記詳細画像は、前記仮想空間において、前記第1の視点から前記様子画像において前記注目位置に描画されているオブジェクトへ近づいた第2の視点から、前記仮想空間を見た様子を表す画像である
ことを特徴とする表示装置。
The display device according to claim 4,
The virtual space is a three-dimensional space in which a plurality of objects are arranged,
The state image is an image representing a state viewed from a first viewpoint arranged in the virtual space,
The detailed image is an image representing a state in which the virtual space is viewed from a second viewpoint approaching an object drawn at the target position in the state image from the first viewpoint in the virtual space. A display device characterized by that.
請求項5に記載の表示装置であって、
前記第1の視点から前記第2の視点までの距離は、前記第1の視点から前記注目位置に描画されているオブジェクトまでの距離にあらかじめ対応付けられている長さである
ことを特徴とする表示装置。
The display device according to claim 5,
The distance from the first viewpoint to the second viewpoint is a length previously associated with the distance from the first viewpoint to the object drawn at the target position. Display device.
請求項4乃至6のいずれか1項に記載の表示装置であって、
前記詳細画像の大きさは、前記注目位置の変化の度合にあらかじめ対応付けられている大きさである
ことを特徴とする表示装置。
The display device according to any one of claims 4 to 6,
The size of the detailed image is a size associated with the degree of change of the target position in advance.
請求項1乃至7のいずれか1項に記載の表示装置であって、
前記注目位置の変化の度合は、最近の所定期間における前記注目位置の移動する速さの平均値である
ことを特徴とする表示装置。
The display device according to any one of claims 1 to 7,
The degree of change of the attention position is an average value of the moving speed of the attention position in a recent predetermined period.
請求項1乃至7のいずれか1項に記載の表示装置であって、
前記注目位置の変化の度合は、最近の所定期間における前記注目位置の移動範囲の大きさである
ことを特徴とする表示装置。
The display device according to any one of claims 1 to 7,
The degree of change of the attention position is the size of the movement range of the attention position in a recent predetermined period.
請求項5又は6に記載の表示装置であって、
前記受付部は、前記複数のオブジェクトのうち、前記第1の視点からの相対的な位置が固定された移動開始位置に配置される所定の移動可能オブジェクトの移動を行う旨を指定する指示入力をさらに受け付け、
前記移動を行う旨を指定する指示入力が受け付けられると、前記移動可能オブジェクトを前記移動開始位置から、前記注目位置に描画されているオブジェクトへ、時間の経過とともに移動させる移動部、をさらに備える
ことを特徴とする表示装置。
The display device according to claim 5 or 6,
The receiving unit receives an instruction input for designating movement of a predetermined movable object arranged at a movement start position in which a relative position from the first viewpoint is fixed among the plurality of objects. Further acceptance,
A moving unit that moves the movable object from the movement start position to the object drawn at the target position as time elapses when an instruction input specifying that the movement is to be performed is received; A display device.
様子生成部、表示部、受付部を備える表示装置が実行する表示方法であって、
前記様子生成部が、複数のオブジェクトが配置される仮想空間を見た様子を表す様子画像を生成する様子生成工程、
前記表示部が、前記生成された様子画像を表示する表示工程、
前記受付部が、前記表示された様子画像内の注目位置を指定する指示入力を受け付ける受付工程、を備え、
前記表示部は、前記注目位置の変化の度合が所定の閾値以下である場合、第1の指示画像を前記様子画像の前記注目位置に重ねて表示する
ことを特徴とする表示方法。
A display method executed by a display device including a state generation unit, a display unit, and a reception unit,
A state generation step in which the state generation unit generates a state image representing a state of viewing a virtual space in which a plurality of objects are arranged;
A display step in which the display unit displays the generated state image;
The reception unit includes a reception step of receiving an instruction input for designating a target position in the displayed state image,
When the degree of change of the attention position is a predetermined threshold value or less, the display unit displays the first instruction image so as to overlap the attention position of the state image.
コンピュータを、
複数のオブジェクトが配置される仮想空間を見た様子を表す様子画像を生成する様子生成部、
前記生成された様子画像を表示する表示部、
前記表示された様子画像内の注目位置を指定する指示入力を受け付ける受付部、
として機能させるためのプログラムであって、
前記表示部は、前記注目位置の変化の度合が所定の閾値以下である場合、第1の指示画像を前記様子画像の前記注目位置に重ねて表示する
ことを特徴とするプログラム。
Computer
A state generation unit that generates a state image representing a state in which a virtual space where a plurality of objects are arranged is viewed,
A display unit for displaying the generated state image;
A receiving unit for receiving an instruction input for designating a target position in the displayed state image;
Is a program for functioning as
The display unit displays the first instruction image so as to overlap the attention position of the state image when the degree of change of the attention position is a predetermined threshold value or less.
JP2009173891A 2009-07-27 2009-07-27 Display device, display method, and program Pending JP2011024787A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009173891A JP2011024787A (en) 2009-07-27 2009-07-27 Display device, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009173891A JP2011024787A (en) 2009-07-27 2009-07-27 Display device, display method, and program

Publications (1)

Publication Number Publication Date
JP2011024787A true JP2011024787A (en) 2011-02-10

Family

ID=43634252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009173891A Pending JP2011024787A (en) 2009-07-27 2009-07-27 Display device, display method, and program

Country Status (1)

Country Link
JP (1) JP2011024787A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101943A (en) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス Display system and display method
JP2021511585A (en) * 2018-01-19 2021-05-06 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Viewing angle adjustment methods and devices, storage media, and electronic devices

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07313734A (en) * 1994-05-26 1995-12-05 Sega Enterp Ltd Target appearing method for gun game in game machine
JP3345600B2 (en) * 2000-04-10 2002-11-18 コナミ株式会社 Game system and computer-readable storage medium
JP2004041525A (en) * 2002-07-12 2004-02-12 Konami Co Ltd Video game apparatus, image processing method, and program
JP2004049412A (en) * 2002-07-17 2004-02-19 Konami Co Ltd Video game apparatus, video game image processing method, and program
JP2004130146A (en) * 2000-07-03 2004-04-30 Sony Computer Entertainment Inc Program execution system, program execution device, recording medium and program as well as method for switching viewpoint and method for switching aim
JP2004195164A (en) * 2002-12-19 2004-07-15 Square Enix Co Ltd Video game device, recording medium, and program
JP2005287801A (en) * 2004-03-31 2005-10-20 Sega Corp Image forming device, image displaying method, and program
JP2006122123A (en) * 2004-10-26 2006-05-18 Game Republic:Kk Game apparatus and program
JP2007295384A (en) * 2006-04-26 2007-11-08 Konica Minolta Medical & Graphic Inc Image display apparatus
JP2008302241A (en) * 2008-08-29 2008-12-18 Nintendo Co Ltd Information processing system, method and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07313734A (en) * 1994-05-26 1995-12-05 Sega Enterp Ltd Target appearing method for gun game in game machine
JP3345600B2 (en) * 2000-04-10 2002-11-18 コナミ株式会社 Game system and computer-readable storage medium
JP2004130146A (en) * 2000-07-03 2004-04-30 Sony Computer Entertainment Inc Program execution system, program execution device, recording medium and program as well as method for switching viewpoint and method for switching aim
JP2004041525A (en) * 2002-07-12 2004-02-12 Konami Co Ltd Video game apparatus, image processing method, and program
JP2004049412A (en) * 2002-07-17 2004-02-19 Konami Co Ltd Video game apparatus, video game image processing method, and program
JP2004195164A (en) * 2002-12-19 2004-07-15 Square Enix Co Ltd Video game device, recording medium, and program
JP2005287801A (en) * 2004-03-31 2005-10-20 Sega Corp Image forming device, image displaying method, and program
JP2006122123A (en) * 2004-10-26 2006-05-18 Game Republic:Kk Game apparatus and program
JP2007295384A (en) * 2006-04-26 2007-11-08 Konica Minolta Medical & Graphic Inc Image display apparatus
JP2008302241A (en) * 2008-08-29 2008-12-18 Nintendo Co Ltd Information processing system, method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101943A (en) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス Display system and display method
JP2021511585A (en) * 2018-01-19 2021-05-06 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Viewing angle adjustment methods and devices, storage media, and electronic devices

Similar Documents

Publication Publication Date Title
US8882591B2 (en) Storage medium having image display program stored therein, image display apparatus, image display system, and image display method
KR100970866B1 (en) Game device, progress control method, and information recording medium
JP6018480B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
US9904982B2 (en) System and methods for displaying panoramic content
JP5396620B2 (en) Information processing program and information processing apparatus
JP5519591B2 (en) Information display device, information display method, and program
JP2009226081A (en) Information processing program and information processor
US20060258444A1 (en) Storage medium having game program stored thereon and game apparatus
EP1825893A1 (en) Game device, computer control method, and information storage medium
US7695367B2 (en) Storage medium having game program stored thereon and game apparatus
JP2011239985A (en) Game device, game program, game system, and game processing method
US9724613B2 (en) Game device, control method of game device, program, and information storage medium
JPH10333834A (en) Information storage medium and picture generating device
JP2008295483A (en) Program and device for controlling shift
JP2010142404A (en) Game program, and game apparatus
JP2014091001A (en) Information processor, information processing system, information processing method, program and information storage medium
JP5519610B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2011024787A (en) Display device, display method, and program
JP3983789B1 (en) GAME DEVICE, CORRECTION METHOD, AND PROGRAM
JP2010063616A (en) Game device, method for selecting object, information recording medium and program
JP5945297B2 (en) GAME PROGRAM AND GAME DEVICE
JP2008071069A (en) Program, information storage medium, and image generation system
JP2019205514A (en) Program, method, and information terminal device
JP2007260346A (en) Game device, vibration control method and program
US9180366B2 (en) Game system, game processing method, game apparatus, and computer-readable storage medium having stored therein game program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131112