JP2011212123A - Program, information storage medium and terminal - Google Patents

Program, information storage medium and terminal Download PDF

Info

Publication number
JP2011212123A
JP2011212123A JP2010081531A JP2010081531A JP2011212123A JP 2011212123 A JP2011212123 A JP 2011212123A JP 2010081531 A JP2010081531 A JP 2010081531A JP 2010081531 A JP2010081531 A JP 2010081531A JP 2011212123 A JP2011212123 A JP 2011212123A
Authority
JP
Japan
Prior art keywords
pointing
reference point
bullet
space
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010081531A
Other languages
Japanese (ja)
Inventor
Junro Kuramoto
順郎 倉本
Kazunori Imoto
一史 井本
Kazutoshi Kono
一聡 河野
Yukihiko Mishina
幸彦 三品
Kunya Muto
薫也 武藤
Kazuya Watanabe
和也 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2010081531A priority Critical patent/JP2011212123A/en
Publication of JP2011212123A publication Critical patent/JP2011212123A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a program, an information storage medium and a terminal, easily and instantaneously recognizing the position and direction of a missile launched from an enemy aircraft.SOLUTION: An object designated is disposed on a screen based on a distance between a first object in an object space and a bullet, the direction of the bullet to the first object, and a predetermined reference point on a screen. The center position of the screen is defined as a reference point. The object is disposed on the screen based on the reference point.

Description

本発明は、プログラム、情報記憶媒体、及び端末に関する。   The present invention relates to a program, an information storage medium, and a terminal.

従来から、オブジェクト空間(仮想的3次元空間)内において仮想カメラ(所与の視点)から見える画像を生成する端末が知られており、いわゆる仮想現実を体験できるものとして人気が高い。例えば、ミサイル、機関砲などをターゲットオブジェクトにヒットさせて攻撃を行うシューティングゲームのための端末が存在する(特許文献1)。   Conventionally, a terminal that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) is known, and is popular as a device that can experience so-called virtual reality. For example, there is a terminal for a shooting game in which a target object is hit by hitting a missile, a machine gun, or the like (Patent Document 1).

特開2005−319108号公報JP 2005-319108 A

しかし、従来技術では、自機(プレーヤの操作対象の機体)に向けて敵機から発射されたミサイルの位置や向きを認識することが困難であった。特に、操作技量の劣る初心者プレーヤは、ミサイルの位置及び方向を認識できないために、ミサイル攻撃を回避できないことがあった。   However, in the prior art, it was difficult to recognize the position and orientation of the missile launched from the enemy aircraft toward the own aircraft (the aircraft to be operated by the player). In particular, a novice player with inferior operation skill may not be able to avoid a missile attack because the position and direction of the missile cannot be recognized.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、
敵機から発射されたミサイルの位置や方向を容易にかつ瞬時に認識することが可能なプログラム、情報記憶媒体、及び端末を提供することにある。
The present invention has been made in view of the problems as described above, and the object is as follows.
To provide a program, an information storage medium, and a terminal capable of easily and instantly recognizing the position and direction of a missile launched from an enemy aircraft.

(1)本発明は、画像生成処理を行うプログラムであって、オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と、スクリーンの所与の基準点と基づいて、指示オブジェクトをスクリーン上に配置する処理を行う指示オブジェクト制御部と、前記指示オブジェクトを含む画像を生成する処理を行う描画部として、コンピュータを機能させ、前記指示オブジェクト制御部が、スクリーンの中心位置を基準点とし、当該基準点に基づいて指示オブジェクトをスクリーン上に配置する処理を行うプログラムに関する。また、本発明は、上記プログラムを記憶した情報記憶媒体、上記各部として構成する端末に関係する。   (1) The present invention is a program for performing an image generation process, and includes a movement process for moving a first object based on input information of an input unit in an object space, and a first process from a second object in the object space. A movement processing unit that performs a movement process of moving a bullet that has been fired on the object of the object, a distance between the first object and the bullet in the object space, a direction of the bullet with respect to the first object, and a given screen Based on the reference point, a computer functions as an instruction object control unit that performs a process of arranging an instruction object on the screen and a drawing unit that performs a process of generating an image including the instruction object. , With the center position of the screen as the reference point, the pointing object based on the reference point A program for performing processing to place on the screen. The present invention also relates to an information storage medium storing the program and a terminal configured as each unit.

本発明によれば、スクリーンの中心位置を基準点とし、オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と当該基準点とに基づいて、指示オブジェクトをスクリーン上に配置する。したがって、本発明によれば、プレーヤは、第2のオブジェクトから発射された弾の位置や方向を容易にかつ瞬時に認識することができる。   According to the present invention, the pointing object is placed on the screen based on the distance between the first object in the object space and the bullet, the direction of the bullet relative to the first object, and the reference point, with the center position of the screen as the reference point. To place. Therefore, according to the present invention, the player can easily and instantly recognize the position and direction of the bullet fired from the second object.

例えば、プレーヤは、敵機(第2のオブジェクトの一例)から自機(第1のオブジェクトの一例)に発射されたミサイル(弾の一例)の位置や方向を容易に認識することができる。一般的に、プレーヤはスクリーンの中央部分を見てゲームを行うことが多い。本発明によれば、スクリーンの中心位置を基準点として指示オブジェクトを配置するので、視線を大きく動かすことなく、敵機から発射されたミサイルの位置や方向を視認することができる。   For example, the player can easily recognize the position and direction of a missile (an example of a bullet) fired from an enemy aircraft (an example of a second object) to the own aircraft (an example of a first object). In general, players often play games by looking at the center of the screen. According to the present invention, since the pointing object is arranged using the center position of the screen as a reference point, the position and direction of the missile launched from the enemy aircraft can be visually recognized without greatly moving the line of sight.

(2)本発明は、画像生成処理を行うプログラムであって、オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と、スクリーンの所与の基準点と基づいて、指示オブジェクトをスクリーン上に配置する処理を行う指示オブジェクト制御部と、前記指示オブジェクトを含む画像を生成する処理を行う描画部として、コンピュータを機能させ、前記指示オブジェクト制御部が、第1のオブジェクトの表示位置に基づいて基準点を設定し、当該基準点に基づいて指示オブジェクトをスクリーン上に配置する処理を行うプログラムに関する。また、本発明は、上記プログラムを記憶した情報記憶媒体、上記各部として構成する端末に関係する。   (2) The present invention is a program for performing an image generation process, and includes a moving process for moving a first object based on input information of an input unit in an object space, and a first object from a second object in the object space. A movement processing unit that performs a movement process of moving a bullet that has been fired on the object of the object, a distance between the first object and the bullet in the object space, a direction of the bullet with respect to the first object, and a given screen Based on the reference point, a computer functions as an instruction object control unit that performs a process of arranging an instruction object on the screen and a drawing unit that performs a process of generating an image including the instruction object. A reference point is set based on the display position of the first object, and the reference point is set based on the reference point. A program for performing processing to place the designated object on the screen Te. The present invention also relates to an information storage medium storing the program and a terminal configured as each unit.

本発明によれば、第1のオブジェクトの表示位置に基づいて基準点を設定し、オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と当該基準点とに基づいて、指示オブジェクトをスクリーン上に配置する。したがって、本発明によれば、プレーヤは、第2のオブジェクトから発射された弾の位置や方向を容易にかつ瞬時に認識することができる。   According to the present invention, the reference point is set based on the display position of the first object, and based on the distance between the first object and the bullet in the object space, the direction of the bullet relative to the first object, and the reference point. To place the pointing object on the screen. Therefore, according to the present invention, the player can easily and instantly recognize the position and direction of the bullet fired from the second object.

例えば、プレーヤは、敵機(第2のオブジェクトの一例)から自機(第1のオブジェクトの一例)に発射されたミサイル(弾の一例)の位置や方向を容易に認識することができる。また、本発明によれば、自機の表示位置に基づいて設定された基準点に基づいて指示オブジェクトを配置するので、プレーヤは、自機の表示位置に関連性のある適切な表示位置に敵機から発射されたミサイルの位置や方向を視認することができる。   For example, the player can easily recognize the position and direction of a missile (an example of a bullet) fired from an enemy aircraft (an example of a second object) to the own aircraft (an example of a first object). In addition, according to the present invention, the pointing object is arranged based on the reference point set based on the display position of the player's own device, so that the player can move the enemy to an appropriate display position related to the display position of the player's own device. The position and direction of the missile launched from the aircraft can be viewed.

(3)また、本発明のプログラム、情報記憶媒体及び端末は、前記指示オブジェクト制御部が、オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、スクリーン上の前記基準点と前記指示オブジェクトとの距離を変化させるようにしてもよい。   (3) In the program, the information storage medium, and the terminal of the present invention, the pointing object control unit is configured so that the reference point on the screen and the pointing object are based on the distance between the first object in the object space and the bullet. You may make it change the distance.

本発明によれば、オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、スクリーン上の基準点と指示オブジェクトとの距離を変化させるので、プレーヤは容易にかつ瞬時に、自機(第1のオブジェクト)に対するミサイル(弾)の接近距離の変化を知ることができる。   According to the present invention, since the distance between the reference point on the screen and the pointing object is changed based on the distance between the first object in the object space and the bullet, the player can easily and instantaneously It is possible to know a change in the approach distance of a missile (bullet) to (one object).

(4)また、本発明のプログラム、情報記憶媒体及び端末は、前記指示オブジェクト制御部が、オブジェクト空間の第1のオブジェクトに対する弾の方向に基づいて、スクリーン上の前記基準点に対する前記指示オブジェクトの方向を変化させるようにしてもよい。   (4) In the program, the information storage medium, and the terminal according to the present invention, the pointing object control unit is configured to store the pointing object with respect to the reference point on the screen based on a bullet direction with respect to the first object in the object space. The direction may be changed.

本発明によれば、オブジェクト空間の第1のオブジェクトに対する弾の方向に基づいて、スクリーン上の基準点に対する指示オブジェクトの方向を変化させるので、プレーヤは容易にかつ瞬時に、自機(第1のオブジェクト)に対するミサイル(弾)の接近方向の変化を知ることができる。   According to the present invention, since the direction of the pointing object with respect to the reference point on the screen is changed based on the direction of the bullet with respect to the first object in the object space, the player can easily and instantaneously It is possible to know the change in the approach direction of the missile (bullet) to the (object).

(5)本発明は、画像生成処理を行うプログラムであって、オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、オブジェクト空間の第1のオブジェクトと弾との距離、第1のオブジェクトに対する弾の方向、及び所与の基準点に基づいて、指示オブジェクトをオブジェクト空間に配置する処理を行う指示オブジェクト制御部と、前記指示オブジェクトを含む画像を生成する処理を行う描画部として、コンピュータを機能させ、前記指示オブジェクト制御部が、オブジェクト空間の仮想カメラの視点位置に基づいて基準点を設定し、当該基準点に基づいて前記指示オブジェクトを配置する処理を行うプログラムに関する。また、本発明は、上記プログラムを記憶した情報記憶媒体、上記各部として構成する端末に関係する。   (5) The present invention is a program for performing an image generation process, and includes a moving process for moving a first object based on input information of an input unit in an object space, and a first object from a second object in the object space. A movement processing unit for performing a movement process for moving the bullets fired on the object, a distance between the first object and the bullet in the object space, a direction of the bullet relative to the first object, and a given reference point Based on the instruction object control unit that performs processing for placing the pointing object in the object space, and the drawing unit that performs processing for generating an image including the pointing object. A reference point is set based on the viewpoint position of the virtual camera in the space, and based on the reference point. A program for performing processing of placing the indication object are. The present invention also relates to an information storage medium storing the program and a terminal configured as each unit.

本発明によれば、オブジェクト空間において、仮想カメラの視点位置に基づいて基準点を設定し、当該基準点に基づいて指示オブジェクトを配置する処理を行う。したがって、本発明によれば、プレーヤは、第2のオブジェクトから発射された弾の位置や方向を容易にかつ瞬時に認識することができる。また、本発明によれば、オブジェクト空間に指示オブジェクトが配置されるので、プレーヤは、弾の位置や方向を立体的に確認することができる。   According to the present invention, in the object space, the reference point is set based on the viewpoint position of the virtual camera, and the process of arranging the pointing object based on the reference point is performed. Therefore, according to the present invention, the player can easily and instantly recognize the position and direction of the bullet fired from the second object. Further, according to the present invention, since the pointing object is arranged in the object space, the player can confirm the position and direction of the bullet three-dimensionally.

例えば、プレーヤは、敵機(第2のオブジェクトの一例)から自機(第1のオブジェクトの一例)に発射されたミサイル(弾の一例)の位置や方向を容易に認識することができる。一般的に、プレーヤはスクリーンの中央部分を見てゲームを行うことが多い。本発明によれば、仮想カメラの視点位置に基づいて設定された基準点に基づいて指示オブジェクトを配置するので、指示オブジェクトがスクリーンの中央部分に表示されることになり、プレーヤは視線を大きく動かすことなく、敵機から発射されたミサイルの位置や方向を視認することができる。   For example, the player can easily recognize the position and direction of a missile (an example of a bullet) fired from an enemy aircraft (an example of a second object) to the own aircraft (an example of a first object). In general, players often play games by looking at the center of the screen. According to the present invention, since the pointing object is arranged based on the reference point set based on the viewpoint position of the virtual camera, the pointing object is displayed in the central portion of the screen, and the player moves the line of sight greatly. The position and direction of the missile fired from the enemy aircraft can be visually recognized.

(6)本発明は、画像生成処理を行うプログラムであって、オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、オブジェクト空間の第1のオブジェクトと弾との距離、第1のオブジェクトに対する弾の方向、及び所与の基準点に基づいて、指示オブジェクトをオブジェクト空間に配置する処理を行う指示オブジェクト制御部と、前記指示オブジェクトを含む画像を生成する処理を行う描画部として、コンピュータを機能させ、前記指示オブジェクト制御部が、オブジェクト空間の第1のオブジェクトの位置に基づいて基準点を設定し、当該基準点に基づいて前記指示オブジェクトを配置する処理を行うプログラムに関する。また、本発明は、上記プログラムを記憶した情報記憶媒体、上記各部として構成する端末に関係する。   (6) The present invention is a program for performing an image generation process, and includes a moving process for moving a first object based on input information of an input unit in an object space, and a first process from a second object in the object space. A movement processing unit for performing a movement process for moving the bullets fired on the object, a distance between the first object and the bullet in the object space, a direction of the bullet relative to the first object, and a given reference point Based on the instruction object control unit that performs processing for placing the pointing object in the object space, and the drawing unit that performs processing for generating an image including the pointing object. A reference point is set based on the position of the first object in the space, and the reference point A program for performing the processes for arranging the indication object based. The present invention also relates to an information storage medium storing the program and a terminal configured as each unit.

本発明によれば、オブジェクト空間において、第1のオブジェクトの位置に基づいて基準点を設定し、当該基準点に基づいて指示オブジェクトを配置する処理を行う。したがって、本発明によれば、プレーヤは、第2のオブジェクトから発射された弾の位置や方向を容易にかつ瞬時に認識することができる。また、本発明によれば、オブジェクト空間に指示オブジェクトが配置されるので、プレーヤは、弾の位置や方向を立体的に確認することができる。   According to the present invention, in the object space, the reference point is set based on the position of the first object, and the instruction object is arranged based on the reference point. Therefore, according to the present invention, the player can easily and instantly recognize the position and direction of the bullet fired from the second object. Further, according to the present invention, since the pointing object is arranged in the object space, the player can confirm the position and direction of the bullet three-dimensionally.

例えば、プレーヤは、敵機(第2のオブジェクトの一例)から自機(第1のオブジェクトの一例)に発射されたミサイル(弾の一例)の位置や方向を容易に認識することができる。本発明によれば、第1のオブジェクトの位置に基づいて設定された基準点に基づいて指示オブジェクトを配置するので、プレーヤは、自機の配置位置に関連性のある表示領域でミサイルの位置や方向を視認することができる。   For example, the player can easily recognize the position and direction of a missile (an example of a bullet) fired from an enemy aircraft (an example of a second object) to the own aircraft (an example of a first object). According to the present invention, since the pointing object is arranged based on the reference point set based on the position of the first object, the player can display the position of the missile in the display area related to the arrangement position of the player. You can see the direction.

(7)また、本発明のプログラム、情報記憶媒体及び端末は、前記指示オブジェクト制御部が、オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、オブジェクト空間の前記基準点と前記指示オブジェクトとの距離を変化させるようにしてもよい。   (7) According to the program, the information storage medium, and the terminal of the present invention, the pointing object control unit is configured so that the reference point in the object space and the pointing object are based on the distance between the first object in the object space and the bullet. You may make it change the distance.

本発明は、オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、オブジェクト空間の基準点と指示オブジェクトとの距離を変化させるので、プレーヤは容易にかつ瞬時に、自機(第1のオブジェクト)に対するミサイル(弾)の接近距離の変化を知ることができる。   According to the present invention, the distance between the reference point of the object space and the pointing object is changed based on the distance between the first object in the object space and the bullet, so that the player can easily and instantly It is possible to know the change in the approach distance of the missile (bullet) to the (object).

(8)また、本発明のプログラム、情報記憶媒体及び端末は、前記指示オブジェクト制御部が、オブジェクト空間の第1のオブジェクトに対する弾の方向に基づいて、オブジェクト空間の前記基準点に対する前記指示オブジェクトの方向を変化させるようにしてもよい。   (8) Further, in the program, the information storage medium, and the terminal according to the present invention, the pointing object control unit is configured so that the pointing object with respect to the reference point in the object space is based on a bullet direction with respect to the first object in the object space. The direction may be changed.

本発明によれば、オブジェクト空間の第1のオブジェクトに対する弾の方向に基づいて、オブジェクト空間の基準点に対する指示オブジェクトの方向を変化させるので、プレーヤは容易にかつ瞬時に、自機(第1のオブジェクト)に対するミサイル(弾)の接近方向の変化を知ることができる。   According to the present invention, since the direction of the pointing object with respect to the reference point of the object space is changed based on the direction of the bullet with respect to the first object in the object space, the player can easily and instantly It is possible to know the change in the approach direction of the missile (bullet) to the (object).

(9)また、本発明のプログラム、情報記憶媒体及び端末は、前記指示オブジェクト制御部が、オブジェクト空間の所定ボリューム内において、前記指示オブジェクトを配置するようにしてもよい。   (9) In the program, the information storage medium, and the terminal of the present invention, the pointing object control unit may arrange the pointing object in a predetermined volume in the object space.

本発明によれば、オブジェクト空間の所定ボリューム内において、指示オブジェクトを配置するので、指示オブジェクトを適切に配置することができ、プレーヤは容易に弾の位置や方向を視認することができる。   According to the present invention, since the pointing object is arranged in the predetermined volume of the object space, the pointing object can be appropriately arranged, and the player can easily visually recognize the position and direction of the bullet.

(10)また、本発明のプログラム、情報記憶媒体及び端末は、前記指示オブジェクト制御部が、前記仮想カメラから見て前記指示オブジェクトを遮蔽する遮蔽物オブジェクトが存在する場合には、仮想カメラに対して当該遮蔽物オブジェクトよりも前に、前記指示オブジェクトを配置するようにしてもよい。   (10) Further, the program, the information storage medium, and the terminal according to the present invention are configured so that the pointing object control unit has a shielding object that shields the pointing object when viewed from the virtual camera. The instruction object may be arranged before the shielding object.

本発明によれば、仮想カメラから見て指示オブジェクトを遮蔽する遮蔽物オブジェクトが存在する場合には、仮想カメラに対して当該遮蔽物オブジェクトよりも前に、指示オブジェクトを配置するので、プレーヤは確実に指示オブジェクトを視認することができる。   According to the present invention, when there is a shielding object that shields the pointing object when viewed from the virtual camera, the pointing object is arranged before the shielding object with respect to the virtual camera, so that the player can reliably The pointing object can be visually recognized.

(11)また、本発明のプログラム、情報記憶媒体及び端末は、前記描画部が、立体視のための左目用仮想カメラから見える前記指示オブジェクトを含む左目用画像と、立体視のための右目用仮想カメラから見える前記指示オブジェクトを含む右目用画像とを生成し、当該左目用画像と当該右目用画像とを合成して立体視用画像を生成する処理を行うようにしてもよい。本発明によれば、プレーヤは立体視によってより現実に近い奥行きのある感覚を得ることができる。指示オブジェクトについても立体的に表現されるので、オブジェクト空間の第1のオブジェクトと弾との距離、第1のオブジェクトに対する弾の方向について、より現実味をもって体感することができる。   (11) In the program, the information storage medium, and the terminal according to the present invention, the drawing unit includes a left-eye image including the pointing object that is visible from the left-eye virtual camera for stereoscopic viewing, and a right-eye for stereoscopic viewing. A process for generating a stereoscopic image by generating a right-eye image including the pointing object seen from a virtual camera and combining the left-eye image and the right-eye image may be performed. According to the present invention, the player can obtain a sense with a depth closer to reality by stereoscopic viewing. Since the pointing object is also expressed three-dimensionally, the distance between the first object and the bullet in the object space and the direction of the bullet relative to the first object can be experienced more realistically.

(12)また、本発明のプログラム、情報記憶媒体及び端末は、前記指示オブジェクト制御部が、前記オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、前記指示オブジェクトの大きさ、形状、模様の少なくとも1つを変化させるようにしてもよい。本発明によれば、プレーヤは、オブジェクト空間の第1のオブジェクトと弾との距離を更に容易に知ることができる。   (12) Further, according to the program, the information storage medium, and the terminal of the present invention, the pointing object control unit may determine the size, shape, and shape of the pointing object based on the distance between the first object in the object space and the bullet. At least one of the patterns may be changed. According to the present invention, the player can more easily know the distance between the first object in the object space and the bullet.

(13)また、本発明のプログラム、情報記憶媒体及び端末は、前記弾が前記第1のオブジェクトにヒットしたか否かを判定するヒット判定部と、前記弾が前記第1のオブジェクトにヒットしたと判定された場合に、ダメージ演出処理を行うダメージ演出処理部として、コンピュータを更に機能させるようにしてもよい。   (13) Further, the program, the information storage medium, and the terminal of the present invention include a hit determination unit that determines whether or not the bullet has hit the first object, and the bullet has hit the first object. If it is determined, the computer may further function as a damage effect processing unit that performs damage effect processing.

本発明によれば、第1のオブジェクトが弾にヒットされた場合に、ダメージ演出処理を行うので、例えば、自機(第1のオブジェクト)がミサイル(弾)にヒットされたことによるダメージを強くプレーヤに印象づけることができる。   According to the present invention, since the damage effect process is performed when the first object is hit by a bullet, for example, the damage caused when the own aircraft (first object) is hit by a missile (bullet) is strongly increased. Impress the player.

図1は、本実施形態の端末の構成の一例である。FIG. 1 is an example of a configuration of a terminal according to the present embodiment. 図2(A)〜(C)は、仮想カメラ制御の説明図。2A to 2C are explanatory diagrams of virtual camera control. 図3は、画像の一例。FIG. 3 shows an example of an image. 図4は、画像の一例。FIG. 4 is an example of an image. 図5は、指示オブジェクトの配置処理を説明するための図。FIG. 5 is a diagram for explaining an instruction object arrangement process. 図6(A)〜(C)は、指示オブジェクトの配置処理を説明するための図。FIGS. 6A to 6C are diagrams for explaining instruction object arrangement processing. 図7は、指示オブジェクトの配置処理を説明するための図。FIG. 7 is a diagram for explaining an instruction object arrangement process. 図8は、指示オブジェクトの配置処理を説明するための図。FIG. 8 is a diagram for explaining an instruction object arrangement process. 図9(A)(B)は、指示オブジェクトの制御に関する説明図。9A and 9B are explanatory diagrams relating to control of the pointing object. 図10は、ダメージ演出処理の説明図。FIG. 10 is an explanatory diagram of damage effect processing. 図11は、ダメージ演出処理の画像の一例。FIG. 11 shows an example of an image of damage effect processing. 図12は、本実施形態のフローチャート。FIG. 12 is a flowchart of this embodiment. 図13は、ミサイルの移動演算の説明図。FIG. 13 is an explanatory diagram of missile movement calculation. 図14は、ミサイルの移動演算の説明図。FIG. 14 is an explanatory diagram of missile movement calculation. 図15(A)(B)は、指示オブジェクトの配置処理を説明するための図。FIGS. 15A and 15B are diagrams for explaining instruction object arrangement processing. 図16(A)(B)は、指示オブジェクトの配置処理を説明するための図。FIGS. 16A and 16B are diagrams for explaining instruction object arrangement processing. 図17(A)〜(D)は、指示オブジェクトの配置処理を説明するための図。FIGS. 17A to 17D are diagrams for explaining instruction object arrangement processing. 図18(A)〜(D)は、指示オブジェクトの配置処理を説明するための図。FIGS. 18A to 18D are diagrams for explaining instruction object arrangement processing. 図19(A)(B)は、立体視画像に関する説明図。19A and 19B are explanatory diagrams related to stereoscopic images. 図20は、立体視画像に関する説明図。FIG. 20 is an explanatory diagram relating to a stereoscopic image.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の端末(画像生成装置、ゲーム装置、携帯電話、携帯端末、携帯型ゲーム装置)の機能ブロック図の例を示す。なお本実施形態の端末は図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of a terminal (an image generating device, a game device, a mobile phone, a mobile terminal, and a portable game device) according to the present embodiment. Note that the terminal of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

入力部160は、プレーヤ(操作者)からの入力情報を入力するための入力機器(コントローラ)であり、プレーヤの入力情報を処理部に出力する。本実施形態の入力部160は、プレーヤの入力情報(入力信号)を検出する検出部162を備える。入力部160は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイなどがある。また、入力部160は、振動信号に基づいて振動させる処理を行う振動部を備えていてもよい。   The input unit 160 is an input device (controller) for inputting input information from the player (operator), and outputs the input information of the player to the processing unit. The input unit 160 of this embodiment includes a detection unit 162 that detects input information (input signal) of the player. The input unit 160 includes, for example, a lever, a button, a steering, a microphone, a touch panel display, and the like. The input unit 160 may include a vibration unit that performs a process of vibrating based on the vibration signal.

また、入力部160は、3軸の加速度を検出する加速度センサや、角速度を検出するジャイロセンサ、撮像部を備えた入力機器でもよい。例えば、入力部160は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力部160は、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られた入力機器でもよい。また入力部160は、入力機器と一体化されている端末(携帯電話、携帯端末、携帯型ゲーム装置)なども含まれる。   The input unit 160 may be an input device including an acceleration sensor that detects triaxial acceleration, a gyro sensor that detects angular velocity, and an imaging unit. For example, the input unit 160 may be held and moved by the player, or may be worn by the player and moved. The input unit 160 may be an input device imitating an actual tool such as a sword-type controller or gun-type controller held by the player, or a glove-type controller worn by the player (attached to the hand of the player). Good. The input unit 160 also includes a terminal (a mobile phone, a mobile terminal, a portable game device) integrated with an input device.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えば他の端末、サーバ)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, other terminals and servers), and the functions are realized by hardware such as various processors or communication ASICs, programs, and the like. it can.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して端末を機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the terminal is functioned by receiving the program or data as described above is also included in the scope of the present invention.

処理部100(プロセッサ)は、入力部160からの入力データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on input data from the input unit 160, a program, and the like.

この処理部100は記憶部170内の主記憶部171をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 performs various processes using the main storage unit 171 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、受け付け部110、オブジェクト配置部111、移動・動作処理部112、指示オブジェクト制御部113、ヒット判定部114、ゲーム演算部115、ダメージ演出処理部116、仮想カメラ制御部117、通信制御部118、描画部120、音処理部130を含む。なお、これらの一部を省略する構成としてもよい。   The processing unit 100 includes a receiving unit 110, an object placement unit 111, a movement / motion processing unit 112, an instruction object control unit 113, a hit determination unit 114, a game calculation unit 115, a damage effect processing unit 116, a virtual camera control unit 117, communication A control unit 118, a drawing unit 120, and a sound processing unit 130 are included. Note that some of these may be omitted.

受け付け部110は、プレーヤの入力情報を受け付ける処理を行う。例えば、自機(第1のオブジェクト、プレーヤの操作対象のオブジェクト)を移動させるための移動入力情報を受け付ける処理や、自機から弾(ミサイル、機関砲)を発射させる発射入力情報を受け付ける処理を行う。   The accepting unit 110 performs processing for accepting player input information. For example, a process of receiving movement input information for moving the own aircraft (first object, player operation target object) or a process of receiving firing input information for firing a bullet (missile, machine gun) from the own aircraft. Do.

オブジェクト配置部111は、オブジェクトをオブジェクト空間(仮想的3次元空間)に配置する処理を行う。例えば、オブジェクト配置部111は、自機、敵機(第2のオブジェクト、コンピュータプログラムに基づいて移動・動作、攻撃を行う移動体、ノンプレーヤキャラクターNPC、他のプレーヤの操作対象のオブジェクト)の他に、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を、オブジェクト空間に配置する処理を行う。ここでオブジェクト空間とは、仮想的なゲーム空間であり、例えば、ワールド座標系、仮想カメラ座標系のように、3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。   The object placement unit 111 performs processing for placing an object in an object space (virtual three-dimensional space). For example, the object placement unit 111 may be an own aircraft, an enemy aircraft (second object, a moving object that moves / operates based on a computer program, a non-player character NPC, an object to be operated by another player), or the like. In addition, a display object such as a building, a stadium, a car, a tree, a pillar, a wall, and a map (terrain) is arranged in the object space. Here, the object space is a virtual game space, for example, a space in which objects are arranged in three-dimensional coordinates (X, Y, Z) such as a world coordinate system and a virtual camera coordinate system.

例えば、オブジェクト配置部111は、ワールド座標系にオブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)を配置する。また、例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   For example, the object placement unit 111 places an object (an object composed of a primitive such as a polygon, a free-form surface, or a subdivision surface) in the world coordinate system. Also, for example, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system is determined, and the rotation angle (X, Y, Z axis rotation) is determined at that position (X, Y, Z). Position the object at (Angle).

移動・動作処理部112は、オブジェクト空間にあるオブジェクトの移動・動作演算を行う。すなわち入力部160から受け付けた入力情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(移動速度、移動速度、移動加速度、位置、向きなど)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求める処理を行う。なおフレームは、オブジェクトの移動・動作処理や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation of an object in the object space. That is, based on input information received from the input unit 160, a program (movement / motion algorithm), various data (motion data), etc., the object is moved in the object space, or the object is moved (motion, animation). Process. Specifically, object movement information (movement speed, movement speed, movement acceleration, position, orientation, etc.) and movement information (positions or rotation angles of each part constituting the object) are stored in one frame (1/60 second). ) The processing for obtaining each is sequentially performed. Note that a frame is a unit of time for performing object movement / motion processing and image generation processing.

例えば、本実施形態の移動処理部112aは、入力部160の入力情報(移動用の入力情報)に基づいて、第1のオブジェクト(例えば、自機)を移動させる処理や、移動処理プログラムに基づいて、敵機を移動させる処理を行う。   For example, the movement processing unit 112a according to the present embodiment is based on a process of moving a first object (for example, its own device) based on input information (input information for movement) of the input unit 160, or a movement processing program. To move the enemy aircraft.

また、移動処理部112aは、オブジェクトから発射された弾(例えば、ミサイル、機関砲)がターゲットオブジェクトに追尾するように、弾の移動処理を行う。つまり、移動処理部112aは、第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理を行う。   Further, the movement processing unit 112a performs a bullet movement process so that a bullet (for example, a missile or a cannon) fired from the object tracks the target object. That is, the movement processing unit 112a performs a movement process for moving the bullets fired from the second object to the first object.

なお、移動・動作処理部112は、他の端末とネットワークを介してデータを送受信している場合には、他の端末から受信した移動情報等のデータに基づいて、本端末のオブジェクト空間に配置される他の移動体(他の端末を操作するプレーヤの操作対象の移動体)を移動・動作させるようにしてもよい。   When the movement / motion processing unit 112 transmits / receives data to / from other terminals via the network, the movement / motion processing unit 112 is arranged in the object space of the terminal based on data such as movement information received from the other terminals. It is also possible to move / operate other moving bodies (movable bodies to be operated by players who operate other terminals).

指示オブジェクト制御部113は、スクリーン(2次元画像、画面、スクリーン座標系)上に、指示オブジェクトを配置する処理を行う。例えば、指示オブジェクト制御部113は、オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と、スクリーンの所与の基準点と基づいて、指示オブジェクトをスクリーン上に配置する処理を行う。   The instruction object control unit 113 performs processing for arranging the instruction object on the screen (two-dimensional image, screen, screen coordinate system). For example, the pointing object control unit 113 arranges the pointing object on the screen based on the distance between the first object in the object space and the bullet, the direction of the bullet relative to the first object, and a given reference point on the screen. Perform the process.

ここで、本実施形態の指示オブジェクト制御部113は、基準点をスクリーンの中心位置とすることができる。また基準点を第1のオブジェクトの表示位置に基づいて設定してもよい。また、指示オブジェクト制御部113は、オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、スクリーン上の基準点と指示オブジェクトとの距離を変化させるようにしてもよい。また、指示オブジェクト制御部113は、オブジェクト空間の第1のオブジェクトに対する弾の方向に基づいて、スクリーン上の基準点に対する指示オブジェクトの方向を変化させるようにしてもよい。   Here, the pointing object control unit 113 of the present embodiment can set the reference point as the center position of the screen. The reference point may be set based on the display position of the first object. Further, the pointing object control unit 113 may change the distance between the reference point on the screen and the pointing object based on the distance between the first object in the object space and the bullet. Further, the pointing object control unit 113 may change the direction of the pointing object with respect to the reference point on the screen based on the direction of the bullet with respect to the first object in the object space.

また、指示オブジェクト制御部113は、オブジェクト空間(3次元空間、ワールド座標系、仮想カメラ座標系、モデル座標系)に、指示オブジェクトを配置する処理を行う。   In addition, the instruction object control unit 113 performs a process of arranging the instruction object in the object space (three-dimensional space, world coordinate system, virtual camera coordinate system, model coordinate system).

例えば、指示オブジェクト制御部113は、オブジェクト空間の第1のオブジェクトと弾との距離、第1のオブジェクトに対する弾の方向、及び所与の基準点に基づいて、指示オブジェクトをオブジェクト空間に配置する処理を行う。   For example, the pointing object control unit 113 arranges the pointing object in the object space based on the distance between the first object and the bullet in the object space, the bullet direction with respect to the first object, and a given reference point. I do.

ここで、本実施形態の指示オブジェクト制御部113は、所与の基準点を、オブジェクト空間の仮想カメラの視点位置に基づいて設定してもよいし、所与の基準点をオブジェクト空間の第1のオブジェクトの位置に基づいて設定してもよい。   Here, the pointing object control unit 113 of the present embodiment may set the given reference point based on the viewpoint position of the virtual camera in the object space, or set the given reference point as the first reference in the object space. It may be set based on the position of the object.

また、指示オブジェクト制御部113は、オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、オブジェクト空間の基準点と指示オブジェクトとの距離を変化させるようにしてもよい。また、指示オブジェクト制御部113は、オブジェクト空間の第1のオブジェクトに対する弾の方向に基づいて、オブジェクト空間の基準点に対する指示オブジェクトの方向を変化させるようにしてもよい。また、指示オブジェクト制御部113は、オブジェクト空間の所定ボリューム内において、指示オブジェクトを配置するようにしてもよい。   Further, the instruction object control unit 113 may change the distance between the reference point of the object space and the instruction object based on the distance between the first object in the object space and the bullet. Further, the pointing object control unit 113 may change the direction of the pointing object with respect to the reference point in the object space based on the direction of the bullet with respect to the first object in the object space. The instruction object control unit 113 may arrange the instruction object in a predetermined volume of the object space.

また、指示オブジェクト制御部113は、仮想カメラから見て指示オブジェクトを遮蔽する遮蔽物オブジェクトが存在する場合には、仮想カメラに対して当該遮蔽物オブジェクトよりも前に、指示オブジェクトを配置するようにしてもよい。   In addition, when there is a shielding object that shields the pointing object when viewed from the virtual camera, the pointing object control unit 113 arranges the pointing object before the shielding object with respect to the virtual camera. May be.

また、指示オブジェクト制御部113は、オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、指示オブジェクトの大きさ、形状、模様の少なくとも1つを変化させるようにしてもよい。   The instruction object control unit 113 may change at least one of the size, shape, and pattern of the instruction object based on the distance between the first object in the object space and the bullet.

ヒット判定部114は、第2のオブジェクト(例えば、敵機)から発射された弾(例えば、ミサイル)が第1のオブジェクト(例えば、自機)にヒットしたか否かを判定する。また、ヒット判定部114は、第1のオブジェクトから発射された弾が第2のオブジェクトにヒットしたか否かを判定する。   The hit determination unit 114 determines whether or not a bullet (for example, a missile) fired from a second object (for example, an enemy aircraft) hits the first object (for example, its own aircraft). Further, the hit determination unit 114 determines whether or not a bullet fired from the first object hits the second object.

ゲーム演算部115は、種々のゲーム処理を行う。例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、最終ステージをクリアした場合にはエンディングを進行させる処理などがある。   The game calculation unit 115 performs various game processes. For example, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for ending a game when the game end condition is satisfied, and an ending when the final stage is cleared There is processing.

本実施形態のゲーム演算部115は、各オブジェクト(自機、敵機を含む)のパラメータを更新する処理を行う。本実施形態のゲーム演算部115では、弾が自機にヒットする度に、ダメージを蓄積したダメージ蓄積値Iを更新している。例えば、自機のダメージ蓄積値Iが最大値(I=100)になると、自機が撃墜したものとみなされ、ゲームを終了する処理を行う。一方、ゲーム中の全ての敵機のダメージ蓄積値Iが最大値になると、ゲームクリアと判定する処理を行う。   The game calculation unit 115 of the present embodiment performs a process of updating the parameters of each object (including its own machine and enemy aircraft). In the game calculation unit 115 of this embodiment, the damage accumulation value I in which damage is accumulated is updated every time a bullet hits the player. For example, when the damage accumulation value I of the own machine reaches the maximum value (I = 100), it is considered that the own machine has shot down, and a process for ending the game is performed. On the other hand, when the damage accumulation value I of all enemy aircraft in the game reaches the maximum value, processing for determining that the game is cleared is performed.

ダメージ演出処理部116は、弾が第1のオブジェクトにヒットしたと判定された場合に、ダメージ演出処理を行う。例えば、ダメージ演出処理部116は、弾が第1のオブジェクトにヒットしたと判定された場合に、指示オブジェクトを点滅して表示させる処理を行ったり、右側と左側に赤い色を施した画像を、既に画像バッファに描画されている画像に重ねて描画する処理を行う。   The damage effect processing unit 116 performs a damage effect process when it is determined that the bullet has hit the first object. For example, when it is determined that the bullet has hit the first object, the damage effect processing unit 116 performs a process of blinking and displaying the instruction object, or displays an image with a red color on the right and left sides. A process of drawing on an image already drawn in the image buffer is performed.

仮想カメラ制御部117は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、3次元の画像を生成する場合には、ワールド座標系における仮想カメラの位置(X、Y、Z)、回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、仮想カメラ制御部117は、仮想カメラの視点位置、視線方向、画角、移動方向、移動速度の少なくとも1つを制御する処理を行う。   The virtual camera control unit 117 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, when generating a three-dimensional image, the position (X, Y, Z) of the virtual camera in the world coordinate system and the rotation angle (for example, from the positive direction of each axis of the X, Y, and Z axes) (Rotation angle when turning clockwise) is controlled. In short, the virtual camera control unit 117 performs processing for controlling at least one of the viewpoint position, the line-of-sight direction, the angle of view, the moving direction, and the moving speed of the virtual camera.

特に、本実施形態の仮想カメラ制御部118は、移動体の移動に追従する仮想カメラを制御する。例えば、図2(A)(B)に示す一人称視点、図2(C)に示す三人称視点(後方視点)によって、仮想カメラを制御する。   In particular, the virtual camera control unit 118 of the present embodiment controls a virtual camera that follows the movement of the moving object. For example, the virtual camera is controlled based on the first person viewpoint shown in FIGS. 2A and 2B and the third person viewpoint (rear viewpoint) shown in FIG.

例えば、仮想カメラ制御部117は、移動・動作処理部112で得られたオブジェクトの位置、向き又は速度などの移動情報に基づいて、仮想カメラを制御する。つまり、仮想カメラ制御部117は、ワールド座標において、移動・動作処理部112で処理される移動体の移動情報と仮想カメラの移動情報とが所定の関係を保つように制御する。より具体的には、ワールド座標において、移動・動作処理部112で処理される移動体の位置(移動体の中心点P)と仮想カメラの位置(CP)とが所定の位置関係を保つように制御する。例えば、移動体の位置(移動体の中心点P)と仮想カメラの位置(CP)とが、所定の距離を保つように制御する。また、移動体の移動方向及び移動速度と、仮想カメラの移動方向及び移動速度とが所定の関係を保つように制御する。例えば、移動体の移動方向と仮想カメラの移動方向が同一の方向になるように制御したり、移動体の移動速度と仮想カメラの移動速度とが同一の速度になるように制御する。また、仮想カメラ制御部117は、移動体の向きと、仮想カメラの向き(視線方向)とが所定の関係を保つように仮想カメラの向き(視線方向)を制御する。例えば、移動体の向きと仮想カメラの向きとが同一の方向を向くように制御する。   For example, the virtual camera control unit 117 controls the virtual camera based on movement information such as the position, orientation, or speed of the object obtained by the movement / motion processing unit 112. That is, the virtual camera control unit 117 controls the movement information of the moving object processed by the movement / motion processing unit 112 and the movement information of the virtual camera to maintain a predetermined relationship in the world coordinates. More specifically, in the world coordinates, the position of the moving object (the center point P of the moving object) processed by the movement / motion processing unit 112 and the position (CP) of the virtual camera are maintained in a predetermined positional relationship. Control. For example, the position of the moving body (central point P of the moving body) and the position (CP) of the virtual camera are controlled so as to maintain a predetermined distance. In addition, control is performed so that the moving direction and moving speed of the moving body and the moving direction and moving speed of the virtual camera maintain a predetermined relationship. For example, the moving direction of the moving body and the moving direction of the virtual camera are controlled to be the same direction, or the moving speed of the moving body and the moving speed of the virtual camera are controlled to be the same speed. In addition, the virtual camera control unit 117 controls the direction of the virtual camera (gaze direction) so that the direction of the moving body and the direction of the virtual camera (gaze direction) maintain a predetermined relationship. For example, the moving body and the virtual camera are controlled so that they face the same direction.

なお、仮想カメラ制御部117は、仮想カメラを予め決められた向きに設定したり、予め決められた移動経路で移動させる制御を行うようにしてもよい。かかる場合には、仮想カメラの位置(移動経路)又は向きを制御するための仮想カメラデータ(記憶部170、情報記憶媒体180等に記憶されている仮想カメラデータ)に基づいて、仮想カメラを制御する。   Note that the virtual camera control unit 117 may set the virtual camera in a predetermined direction or perform control to move the virtual camera along a predetermined movement route. In such a case, the virtual camera is controlled based on virtual camera data (virtual camera data stored in the storage unit 170, the information storage medium 180, etc.) for controlling the position (movement path) or orientation of the virtual camera. To do.

また、仮想カメラ制御部117は、オブジェクト空間において所与の位置から見下ろすような俯瞰用仮想カメラを配置させて当該俯瞰用仮想カメラを制御するようにしてもよい。   The virtual camera control unit 117 may control an overhead virtual camera by arranging an overhead virtual camera that looks down from a given position in the object space.

また、仮想カメラ制御部117は、リプレイ用で画像を生成するためのリプレイ用仮想カメラをオブジェクト空間に配置させて、当該リプレイ用仮想カメラを制御するように使用してもよい。リプレイ用仮想カメラは、移動体の移動に必ずしも追従させる必要はないが、移動体の移動情報に応じて、リプレイ用仮想カメラを制御するようにしてもよい。   In addition, the virtual camera control unit 117 may be used to control a replay virtual camera by arranging a replay virtual camera for generating an image for replay in the object space. The replay virtual camera does not necessarily follow the movement of the moving body, but may control the replay virtual camera according to the movement information of the moving body.

通信制御部118は、端末(例えば第1の端末)が他の端末(例えば第2の端末)とネットワークを介して相互にデータを送受信する処理を行う。   The communication control unit 118 performs a process in which a terminal (for example, a first terminal) transmits / receives data to / from another terminal (for example, a second terminal) via a network.

なお、本実施形態の端末では、通信制御で必要となるネットワーク情報をゲームサーバから取得し、管理する処理等を行う。例えば、端末は、各端末に個別に付与される端末の識別情報(オンラインゲームに参加できる端末を識別するために個別に付与されたデータ、ID)と、端末の識別情報に対応付けられたパケットの送信先を指定する宛先情報(IPアドレスなど)とを取得し、管理する処理を行う。   Note that the terminal of the present embodiment performs processing for acquiring and managing network information necessary for communication control from the game server. For example, the terminal has a packet associated with terminal identification information (data and ID individually assigned to identify a terminal that can participate in an online game) and terminal identification information that is individually assigned to each terminal. Destination information (IP address or the like) for designating the destination of transmission is acquired and managed.

通信制御部118は、他の端末(第2の端末)に送信するパケットを生成する処理、パケット送信先の端末のIPアドレスやポート番号を指定する処理、受信したパケットに含まれるデータを記憶部170に保存する処理、受信したパケットを解析する処理、その他のパケットの送受信に関する制御処理等を行う。   The communication control unit 118 stores a process for generating a packet to be transmitted to another terminal (second terminal), a process for specifying an IP address and a port number of a packet transmission destination terminal, and data included in the received packet Processing to be stored in 170, processing to analyze received packets, control processing related to transmission / reception of other packets, and the like are performed.

また本実施形態の通信制御部118は、複数の端末間においての接続(第1の端末と第2の端末との接続)が確立されてから接続が切断されるまで、データを所定周期(例えば、1秒周期で)互いに送受信する処理を行う。ここで、端末間で送受信されるデータは、入力部の入力情報としてもよいし、各端末の操作対象のオブジェクト(機体、移動体)の位置情報、移動情報としてもよい。   In addition, the communication control unit 118 according to the present embodiment stores data between a plurality of terminals until the connection is disconnected after the connection (connection between the first terminal and the second terminal) is established (for example, Processes that transmit and receive each other (with a 1-second cycle) Here, the data transmitted / received between the terminals may be input information of the input unit, or may be position information and movement information of the operation target object (airframe, moving body) of each terminal.

また、本実施形態の通信制御部118は、他の端末(第2の端末)から送信されたパケットを受信すると、受信したパケットを解析し、パケットに含まれる他の端末の操作対象のオブジェクトの位置情報などのデータを記憶部に記憶する処理を行う。   In addition, when the communication control unit 118 of this embodiment receives a packet transmitted from another terminal (second terminal), the communication control unit 118 analyzes the received packet, and determines the operation target object of the other terminal included in the packet. Processing for storing data such as position information in the storage unit is performed.

なお、複数の端末で構成されるネットワークシステムの場合は、複数の端末間でデータの送受信を行いながらオンラインゲームを実行するピア・ツー・ピア(いわゆるP2P)方式としてもよいし、特定のサービスを提供するためのサーバと端末間においてデータを送受信できるものであってもよい。また、サーバを介して各端末がデータ(情報)の送受信を行いながらオンラインゲームを実行するクライアント・サーバ方式によるものであってもよい。また、本実施形態のネットワークシステムでは、有線通信のみならず無線通信でデータを送受信してもよい。   In the case of a network system composed of a plurality of terminals, a peer-to-peer (so-called P2P) method for executing an online game while transmitting / receiving data between the plurality of terminals may be used. Data that can be transmitted and received between the server for providing and the terminal may be used. Further, a client-server system in which each terminal executes an online game while transmitting and receiving data (information) via the server may be used. In the network system of the present embodiment, data may be transmitted / received not only by wired communication but also by wireless communication.

描画部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。言い換えると、描画部120は、オブジェクト空間において、仮想カメラから見える画像を生成する。   The drawing unit 120 performs drawing processing based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In other words, the drawing unit 120 generates an image that can be seen from the virtual camera in the object space.

例えば、描画部120は、オブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   For example, the drawing unit 120 receives object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model). Based on the vertex data included in the object data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, perspective transformation (projection transformation) ), Geometry processing such as viewport conversion is performed, and based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted).

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を画像バッファ172(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット、フレームバッファ)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the image buffer 172 (buffer that can store image information in units of pixels; VRAM, rendering target, frame buffer). . That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .

テクスチャマッピングは、記憶部170に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the storage unit 170 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. . That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

例えば、αブレンディングでは、これから画像バッファ172に描画する描画色(上書きする色)C1と、既に画像バッファ172(レンダリングターゲット)に描画されている描画色(下地の色)C2とを、α値に基づいて線形合成処理を行う。つまり、最終的な描画色をCとすると、C=C1*α+C2*(1−α)によって求めることができる。   For example, in α blending, the drawing color (overwriting color) C1 to be drawn in the image buffer 172 and the drawing color (background color) C2 already drawn in the image buffer 172 (rendering target) are set to α values. Based on this, a linear synthesis process is performed. That is, if the final drawing color is C, it can be obtained by C = C1 * α + C2 * (1−α).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

なお、描画部120は、他の端末(第2の端末)とネットワークを介してデータを送受信するマルチプレーヤオンラインゲームを行う場合であっても、端末(第1の端末)の操作対象のオブジェクトの移動に追従する仮想カメラ(端末(第1の端末)で制御される仮想カメラ)から見える画像を生成する処理を行う。つまり、各端末が独立した描画処理を行う。   It should be noted that the drawing unit 120 does not display the object to be operated on the terminal (first terminal) even when performing a multiplayer online game in which data is transmitted / received to / from another terminal (second terminal) via the network. A process of generating an image that can be seen from a virtual camera (virtual camera controlled by the terminal (first terminal)) that follows the movement is performed. That is, each terminal performs an independent drawing process.

音処理部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound processing unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates a game sound such as BGM, sound effect, or sound, and outputs the game sound to the sound output unit 192.

なお、本実施形態の端末は、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他の端末とデータを送受信してゲーム処理を行うようにしてもよいし、1つの端末が、複数の入力部からの入力情報に基づいて処理を行うようにしてもよい。   Note that the terminal according to the present embodiment may be controlled so that the game can be played in a single player mode in which only one player can play or in a multiplayer mode in which a plurality of players can play. For example, in the case of controlling in the multiplayer mode, game processing may be performed by transmitting / receiving data to / from other terminals via a network, or one terminal may receive input information from a plurality of input units. Processing may be performed based on this.

2.概要
本実施形態では、シューティングゲームのための画像生成処理に関するものである。例えば、本実施形態では、プレーヤの操作対象の自機と、コンピュータオブジェクト或いは他のプレーヤのオブジェクトである敵機と、互いにミサイルや機関砲などで攻撃し合うフライトシューティングゲームに関するものである。
2. Outline This embodiment relates to an image generation process for a shooting game. For example, the present embodiment relates to a flight shooting game in which a player's operation target self-machine and an enemy aircraft that is a computer object or another player's object attack each other with a missile or a cannon.

本実施形態では、自機と敵機が互いに相手をターゲットオブジェクト(標的)とし、互いにミサイルや機関砲を発射してターゲットオブジェクトを撃墜させるゲーム処理を行う。したがって、自機を操作するプレーヤは、自機から発射されるミサイルや機関砲を敵機にヒットさせるように攻撃操作を行い、敵機から発射されるミサイル等の攻撃から回避するように自機を移動させる操作を行う。つまり、プレーヤは、敵機の位置だけでなく、自機に対して敵機から発射された機関砲やミサイルの位置や方向を把握することが必要になる。   In the present embodiment, a game process is performed in which the own aircraft and the enemy aircraft use each other as a target object (target) and fire a missile or a machine gun to shoot down the target object. Therefore, the player who operates the aircraft performs an attack operation so that a missile or machine gun launched from the aircraft hits the enemy aircraft, and avoids an attack such as a missile launched from the enemy aircraft. Perform the operation to move. That is, the player needs to grasp not only the position of the enemy aircraft but also the position and direction of the cannon and missile fired from the enemy aircraft with respect to the own aircraft.

例えば、本実施形態では、図3に示すように、画面左下の一部の領域に地上を上からみたときの自機のマークPMと敵機のマークEMとの位置関係を簡略的に示したレーダーマップを表示している。これにより、プレーヤは自機に対する敵機の相対的な位置を把握できるようにすることはできる。しかし、本実施形態では、敵機から発射された機関砲やミサイルの位置や方向をレーダーマップに表示していないので、敵機から発射された機関砲やミサイルの位置や方向をプレーヤは認識することができず、敵機からの攻撃を回避することが難しくなる。   For example, in the present embodiment, as shown in FIG. 3, the positional relationship between the mark PM of the own aircraft and the mark EM of the enemy aircraft when viewing the ground from above in a partial area at the lower left of the screen is simply shown. Radar map is displayed. Thereby, the player can grasp the relative position of the enemy aircraft with respect to the player's own aircraft. However, in this embodiment, since the position and direction of the machine gun and missile fired from the enemy aircraft are not displayed on the radar map, the player recognizes the position and direction of the machine gun and missile fired from the enemy aircraft. It is difficult to avoid attacks from enemy aircraft.

また、本実施形態では、レーダーマップ上に、敵機から発射された機関砲やミサイルの位置を表示してもよいが、かかる場合、プレーヤの視線移動を強いることになるので適切ではない。つまり、レーダーマップ上にミサイル等の位置を表示した場合に、プレーヤは、視線を画面中央部からレーダーマップに移動させてミサイル等の位置を確認することになる。この視線移動のタイムラグが、敵機からの攻撃を受けたり、自機が地面に撃墜するなど致命的なミスを発生させる要因となるおそれがある。特に、初心者は操作に不慣れであるので、レーダーマップへの視線移動を強いることは望ましくない。   In this embodiment, the position of a machine gun or missile fired from an enemy aircraft may be displayed on the radar map. However, in this case, it is not appropriate because the player's line of sight movement is forced. That is, when the position of a missile or the like is displayed on the radar map, the player moves the line of sight from the center of the screen to the radar map and confirms the position of the missile or the like. The time lag of the line of sight movement may cause a fatal mistake such as being attacked by an enemy aircraft or being shot down on the ground. In particular, since beginners are unfamiliar with the operation, it is not desirable to force the line of sight movement to the radar map.

そこで、本実施形態では、図4に示すように、スクリーンの中心位置(画面中心位置)を基準に、指示オブジェクトMK(マーカー)を配置して画像を生成している。つまり、指示オブジェクトMKの配置状況で、プレーヤは、ミサイルの接近距離や接近方向を容易にかつ瞬時に認識することができる。   Therefore, in the present embodiment, as shown in FIG. 4, an image is generated by arranging the pointing object MK (marker) with reference to the center position of the screen (screen center position). That is, the player can easily and instantly recognize the approach distance and approach direction of the missile in the arrangement state of the pointing object MK.

本実施形態では、現実世界のHUDを模して、自機、敵機の移動情報を指示したHUD画像を生成し、オブジェクト空間の仮想カメラから見える画像とHUD画像とを合成した画像を生成して表示部に表示させる処理を行っている。つまり、本実施形態では、スクリーン上(画面上)にHUDに関するオブジェクトを配置してHUD画像を生成する処理を行っている。特に本実施形態では、図4に示すように、指示オブジェクトMKのほかに、攻撃目標となる敵機の位置を示す攻撃目標マーク等を、HUDに関するオブジェクトとして描画している。   In the present embodiment, an HUD image instructing movement information of the own aircraft and enemy aircraft is generated by imitating a real world HUD, and an image obtained by synthesizing the HUD image with an image that can be seen from the virtual camera in the object space is generated. To display on the display unit. In other words, in the present embodiment, processing for generating an HUD image by arranging an object related to HUD on the screen (on the screen) is performed. In particular, in the present embodiment, as shown in FIG. 4, in addition to the pointing object MK, an attack target mark indicating the position of an enemy aircraft serving as an attack target is drawn as an object related to HUD.

なお、HUDとは、Head−Up Displayの略であり、情報を直接映し出すディスプレイのことであり、フロントガラスなどの無色透明なスクリーンに、情報を投影するものである。   HUD is an abbreviation for Head-Up Display, which is a display that directly displays information, and projects information onto a colorless and transparent screen such as a windshield.

3.指示オブジェクトの制御
3−1.指示オブジェクトの配置
次に、本実施形態において、敵機から自機に向けて発射された弾(機関砲、ミサイル)の位置及び方向を示すために、指示オブジェクトをスクリーン上に配置する処理について説明する。本実施形態では、弾1つあたり1つの指示オブジェクトを配置している。
3. 3. Control of instruction object 3-1. Next, in the present embodiment, a process for arranging an instruction object on the screen to indicate the position and direction of a bullet (machine gun, missile) fired from an enemy aircraft toward the own aircraft will be described. To do. In this embodiment, one instruction object is arranged for each bullet.

例えば、図5に示すように、本実施形態では、スクリーンの中心点Oをオブジェクト空間のXZ平面上の自機の位置P(Xp,Zp)に対応させると共に、スクリーンのy軸方向をオブジェクト空間のXZ平面上の自機の向き(機軸)に対応させている。そして、オブジェクト空間のXZ平面上において、自機の位置に対する弾の相対的な位置関係に基づいて、指示オブジェクトMK1、MK2、MK3をスクリーン上に配置する処理を行っている。   For example, as shown in FIG. 5, in this embodiment, the center point O of the screen is made to correspond to the position P (Xp, Zp) of the own device on the XZ plane of the object space, and the y-axis direction of the screen is set to the object space. It corresponds to the direction (axis) of the own machine on the XZ plane. Then, on the XZ plane of the object space, a process of arranging the pointing objects MK1, MK2, and MK3 on the screen is performed based on the relative positional relationship of the bullets with respect to the position of the own aircraft.

つまり、図5の例によれば、指示オブジェクトMK1はスクリーンの中心位置Oの下方向の遠い位置にあるので、プレーヤは、弾が自機の後方にあり自機よりやや離れたところに位置していることを認識できる。また、指示オブジェクトMK2はスクリーンの中心位置Oの右下方向のMK1よりも近い位置にあるので、プレーヤは、弾が自機の後方右側にあり、指示オブジェクトMK1で示す弾よりも自機に近い位置に存在していることを認識できる。また、指示オブジェクトMK3は左上方向のスクリーン中心位置Oに最も近いところにあるので、プレーヤは弾が自機の前方左側にあり、指示オブジェクトMK1、MK2で示す弾よりも自機に近い位置に存在していることを認識できる。   That is, according to the example of FIG. 5, since the pointing object MK1 is at a position far below the center position O of the screen, the player is located at a position slightly behind the player with the bullet behind the player. Can be recognized. Further, since the pointing object MK2 is closer to the lower right direction MK1 than the center position O of the screen, the player has the bullet on the right side behind the player's own machine and closer to the player's own than the bullet indicated by the instruction object MK1. It can be recognized that it exists at the position. Further, since the pointing object MK3 is closest to the screen center position O in the upper left direction, the player has a bullet on the left side in front of the player and is closer to the player than the bullets indicated by the pointing objects MK1 and MK2. Can recognize that

このように、本実施形態では、オブジェクト空間(ワールド座標系)の自機の位置P(Xp,Zp)を中心とするXZ平面の360度の範囲の弾の位置、及び方向を、スクリーン上の指示オブジェクトMKの配置位置によって表現している。   As described above, in the present embodiment, the position and direction of the bullet in the range of 360 degrees on the XZ plane centering on the position P (Xp, Zp) of the own device in the object space (world coordinate system) are displayed on the screen. This is expressed by the arrangement position of the instruction object MK.

本実施形態の指示オブジェクトの配置手法についてより具体的に説明する。例えば、図6(A)に示すように、オブジェクト空間において、ミサイルM1と自機POBとの距離Lが10〜15キロメートル(10<L≦15)である場合には、スクリーンの中心点Oを中心とする半径r1の円周上に、指示オブジェクトMK1を配置する。   The instruction object arrangement method of the present embodiment will be described more specifically. For example, as shown in FIG. 6A, in the object space, when the distance L between the missile M1 and the own machine POB is 10 to 15 kilometers (10 <L ≦ 15), the center point O of the screen is The instruction object MK1 is arranged on the circumference having the radius r1 as the center.

また、図6(B)に示すように、オブジェクト空間において、ミサイルM2と自機POBとの距離Lが5〜10キロメートル(5<L≦10)である場合には、スクリーン(画面)の中心点Oを中心とする半径r2(r2<r1)の円周上に、指示オブジェクトMK2を配置する。   As shown in FIG. 6B, when the distance L between the missile M2 and the own device POB is 5 to 10 kilometers (5 <L ≦ 10) in the object space, the center of the screen (screen). The pointing object MK2 is arranged on the circumference of the radius r2 (r2 <r1) with the point O as the center.

そして、図6(C)に示すように、オブジェクト空間において、ミサイルM3と自機POBとの距離Lが0〜5キロメートル(0<L≦5)である場合には、スクリーンの中心点Oを中心とする半径r3(r3<r2<r1)の円周上に、指示オブジェクトMK3を配置する。   As shown in FIG. 6C, when the distance L between the missile M3 and the own device POB is 0 to 5 kilometers (0 <L ≦ 5) in the object space, the center point O of the screen is The pointing object MK3 is arranged on the circumference of the radius r3 (r3 <r2 <r1) as the center.

つまり、本実施形態では、自機POBの位置P(Xp,Zp)とミサイルMの位置Q(Xq,Zq)との距離Lを求め、距離Lに基づいて、図6(A)(B)(C)において、半径r1の円、半径r2の円、半径r3の円のいずれの円周上に配置するかを決める。言い換えると、オブジェクト空間の自機POBとミサイルとの距離に基づいて、スクリーン上の中心点Oと指示オブジェクトMKとの距離を変化させる。つまり、オブジェクト空間において、ミサイルMが自機POBに近づくにつれて、ミサイルMに対応する指示オブジェクトMKを、画面中心点Oに接近させるように制御する。このようにすれば、ミサイルの接近距離を瞬時に把握することができる。   That is, in the present embodiment, the distance L between the position P (Xp, Zp) of the own device POB and the position Q (Xq, Zq) of the missile M is obtained, and based on the distance L, FIGS. In (C), it is determined which of the circle with the radius r1, the circle with the radius r2, and the circle with the radius r3 is arranged on the circumference. In other words, the distance between the center point O on the screen and the pointing object MK is changed based on the distance between the own device POB and the missile in the object space. That is, in the object space, control is performed so that the pointing object MK corresponding to the missile M approaches the screen center point O as the missile M approaches the own device POB. In this way, the approach distance of the missile can be grasped instantaneously.

また、本実施形態では、図7に示すように、オブジェクト空間の自機POBに対するミサイルMの方向に基づいて、スクリーン上の中心点Oに対する指示オブジェクトの方向を変化させるようにしてもよい。   Further, in the present embodiment, as shown in FIG. 7, the direction of the pointing object with respect to the center point O on the screen may be changed based on the direction of the missile M with respect to the own device POB in the object space.

例えば、スクリーンの中心点Oを原点とするx軸、y軸において、オブジェクト空間のXZ平面における自機POBの位置P(Xp,Zp)をスクリーンの中心点O(xo,yo)に対応付けると共に、オブジェクト空間のXZ平面における自機POBの向き(機首方向、機軸)をスクリーンy軸方向に対応付ける。   For example, in the x-axis and y-axis with the center point O of the screen as the origin, the position P (Xp, Zp) of the own device POB in the XZ plane of the object space is associated with the center point O (xo, yo) of the screen. The orientation of the own device POB in the XZ plane of the object space (the nose direction, the axis) is associated with the screen y-axis direction.

そして、オブジェクト空間の自機POBの位置P(Xp,Zp)に対するミサイルMの位置Q(Xq,Zq)の方向PMVを、指示オブジェクトMKの位置KP(x_kp,y_kp)からスクリーンの中心点Oに向かう方向に対応づける。つまり、ミサイルMの位置Wから自機POBの位置Pに向かう方向PMVを求め、求めた方向PMVに基づいて、スクリーン上の指示オブジェクトの位置KP(x_kp,y_kp)を決定し、位置KP(x_kp,y_kp)に指示オブジェクトを配置する処理を行う。言い換えると、オブジェクト空間の位置Pを原点とする機軸から位置Qへの角度θを、スクリーン上のy軸からの位置KP(x_kp,y_kp)への角度に対応させて、角度θの方向上に指示オブジェクトMKを配置する。   Then, the direction PMV of the position Q (Xq, Zq) of the missile M with respect to the position P (Xp, Zp) of the own device POB in the object space is moved from the position KP (x_kp, y_kp) of the pointing object MK to the center point O of the screen. Associate with the direction you head. That is, the direction PMV from the position W of the missile M toward the position P of the own machine POB is obtained, the position KP (x_kp, y_kp) of the pointing object on the screen is determined based on the obtained direction PMV, and the position KP (x_kp , Y_kp), a process of arranging the pointing object is performed. In other words, the angle θ from the machine axis with the position P in the object space as the origin to the position Q is made to correspond to the angle to the position KP (x_kp, y_kp) from the y axis on the screen, in the direction of the angle θ. An instruction object MK is arranged.

つまり、本実施形態では、オブジェクト空間の自機POBの位置P(Xp,Zp)とミサイルMの位置Q(Xq,Zq)までの距離Lと、位置P(Xp,Zp)に対する位置Q(Xq,Zq)の方向PMVとに基づいて、指示オブジェクトMKをスクリーン上に配置する位置KP(x_kp,y_kp)を決定し、位置KP(x_kp,y_kp)に円弧形状のオブジェクトMKを配置する処理を行う。   That is, in the present embodiment, the distance L between the position P (Xp, Zp) of the own device POB in the object space and the position Q (Xq, Zq) of the missile M, and the position Q (Xq) with respect to the position P (Xp, Zp) , Zq) based on the direction PMV, a position KP (x_kp, y_kp) at which the pointing object MK is arranged on the screen is determined, and a process of arranging the arc-shaped object MK at the position KP (x_kp, y_kp) is performed. .

以上の処理によって本実施形態では、プレーヤが自機POBに対するミサイルMなどの弾の距離や方向を簡易に認識できる。   According to the above processing, in the present embodiment, the player can easily recognize the distance and direction of the bullet such as the missile M with respect to the own POB.

なお、本実施形態では、図5に示すように、半径r1がスクリーンの縦横の長さの半分以下の長さとなるようにr1を設定している。つまり、r1≦H/2となるように半径r1を設定し、r2、r3がr3<r2<r1の関係になるようにr2、r3の半径を設定している。要するに、本実施形態では、半径r1の円が、スクリーン内に収まるように設定する。   In the present embodiment, as shown in FIG. 5, r1 is set so that the radius r1 is not more than half the vertical and horizontal lengths of the screen. That is, the radius r1 is set so that r1 ≦ H / 2, and the radii r2 and r3 are set so that r2 and r3 have a relationship of r3 <r2 <r1. In short, in the present embodiment, the circle having the radius r1 is set so as to be within the screen.

また、本実施形態では、半径r1、r2、r3の円を同心円とし、各円の中心点COをスクリーンの中心点Oとして設定している。言い換えると、スクリーンの中心点Oは、オブジェクト空間において、仮想カメラCの視線方向CV(カメラ座標系のZ方向)の点をスクリーン座標系に変換した点である。つまり、通常、プレーヤは、スクリーンの中心にプレーヤ自身の視点を合わせてゲームプレイを行うことが多いので、本実施形態ではスクリーンの中心点Oを基準に、ミサイルMの配置位置を決定する処理を行っている。このようにすれば、プレーヤは自身の視点を大きく移動することなく、ミサイルMの位置を瞬時に認識することができ、初心者など技量が劣るプレーヤにとっても簡易にミサイルMを回避するように操作することができる。   In this embodiment, the circles having radii r1, r2, and r3 are concentric circles, and the center point CO of each circle is set as the center point O of the screen. In other words, the center point O of the screen is a point obtained by converting a point in the line-of-sight direction CV (the Z direction of the camera coordinate system) of the virtual camera C into the screen coordinate system in the object space. That is, usually, a player often plays a game by aligning the player's own viewpoint with the center of the screen. Therefore, in the present embodiment, a process of determining the position of the missile M with reference to the center point O of the screen is performed. Is going. In this way, the player can instantly recognize the position of the missile M without greatly moving his / her viewpoint, and the player can easily avoid the missile M even for beginners and other players with poor skills. be able to.

なお、本実施形態では、半径r1、r2、r3の各円の中心点COを、スクリーンの中心点Oとは異なる位置に設定してもよい。例えば、図8に示すように、半径r1、r2、r3の各円の中心点COを、スクリーンのy軸上の位置に設定してもよい。   In the present embodiment, the center point CO of each circle having the radii r1, r2, and r3 may be set at a position different from the center point O of the screen. For example, as shown in FIG. 8, the center point CO of each circle having the radii r1, r2, and r3 may be set at a position on the y-axis of the screen.

なお、本実施形態では、自機の表示位置に基づいて基準点(特定位置)を設定し、設定された基準点を中心に指示オブジェクトMKを配置するようにしてもよい。例えば、後方視点で自機を含む画像を生成している場合には、オブジェクト空間の自機POBの位置P(Xp,Yp,Zp)を、スクリーン座標系に変換した表示位置座標p(xp,yp)を、半径r1、r2、r3の各円の中心点COとして設定してもよい。   In the present embodiment, a reference point (specific position) may be set based on the display position of the own device, and the pointing object MK may be arranged around the set reference point. For example, when an image including the own device is generated from the rear viewpoint, the display position coordinates p (xp, xp, xp, x) converted from the position P (Xp, Yp, Zp) of the own device POB in the object space to the screen coordinate system. yp) may be set as the center point CO of each circle of radius r1, r2, r3.

また、自機の表示領域とは異なる位置に指示オブジェクトを配置した方が望ましい場合があるので、スクリーン座標系に変換した自機POBの表示位置座標p(xp,yp)に追従する移動追従点e(xe、ye)を求め、移動追従点e(xe,ye)を、半径r1、r2、r3の各円の中心点COとして設定してもよい。例えば、移動追従点eは、自機POBの表示位置座標p(xp,yp)から所定距離、所定方向離れた位置座標とすることができる。   Further, since it may be desirable to place the pointing object at a position different from the display area of the own device, a movement follow-up point that follows the display position coordinate p (xp, yp) of the own device POB converted into the screen coordinate system may be used. e (xe, ye) may be obtained, and the movement follow-up point e (xe, ye) may be set as the center point CO of each circle having the radii r1, r2, and r3. For example, the movement follow-up point e can be set to a position coordinate separated from the display position coordinate p (xp, yp) of the own device POB by a predetermined distance and in a predetermined direction.

3−2.自機と弾との距離に基づいて指示オブジェクトを制御する手法
本実施形態では、自機と弾との距離に基づいて、半径r1、r2、r3の円上に指示オブジェクトを配置するので、円に沿った円弧形状の指示オブジェクトを配置するように制御している。例えば、半径r1の円に指示オブジェクトを配置する場合には、半径r1の円の円弧形状(例えば内角度30度の円弧形状)の指示オブジェクトMK1を配置する。そして、半径r2の円に指示オブジェクトを配置する場合には、半径r2の円の円弧形状の指示オブジェクトMK2を配置する。そして、半径r3の円に指示オブジェクトを配置する場合には、半径r3の円の円弧形状の指示オブジェクトMK2を配置する。
3-2. In this embodiment, the pointing object is arranged on a circle having radii r1, r2, and r3 based on the distance between the own aircraft and the bullet. The arc-shaped pointing object is controlled so as to be arranged along the line. For example, when an instruction object is arranged in a circle with a radius r1, an instruction object MK1 having a circular arc shape with a radius r1 (for example, an arc shape with an inner angle of 30 degrees) is arranged. When the pointing object is arranged in a circle having the radius r2, the circular arc-shaped pointing object MK2 having the radius r2 is arranged. When the pointing object is arranged on a circle having a radius r3, the circular arc-shaped pointing object MK2 having a radius r3 is arranged.

また、本実施形態では、自機と弾との距離に基づいて指示オブジェクトMKの大きさを変化させる制御を行ってもよい。例えば、ミサイルMが自機POBに接近するにつれて、指示オブジェクトMKの大きさを縮小するようにスケーリング制御している。具体的には、図9(A)に示すように、半径r1の円上に指示オブジェクトMK1を配置する場合には、指示オブジェクトMK1を1倍の大きさにし、半径r2の円上に指示オブジェクトMK2を配置する場合には、指示オブジェクトMKを0.75倍の大きさにし、半径r3の円上に指示オブジェクトMK3を配置する場合には、指示オブジェクトMK3を0.5倍の大きさにするようにしてもよい。このようにすれば、画面中心に指示オブジェクトMKが多く配置された場合であっても、オブジェクトMKを視認しやすくすることができる。   In the present embodiment, control may be performed to change the size of the pointing object MK based on the distance between the own aircraft and the bullet. For example, scaling control is performed so that the size of the pointing object MK is reduced as the missile M approaches the own machine POB. Specifically, as shown in FIG. 9A, when the pointing object MK1 is arranged on the circle with the radius r1, the pointing object MK1 is set to a size of 1 and the pointing object MK1 is set on the circle with the radius r2. When arranging MK2, the indication object MK is made 0.75 times larger, and when the instruction object MK3 is arranged on a circle having the radius r3, the indication object MK3 is made 0.5 times larger. You may do it. In this way, even when many instruction objects MK are arranged at the center of the screen, the object MK can be easily viewed.

また、本実施形態では、本物のHUDのように表示させるようにするために、指示オブジェクトMKを半透明表示しないで表示している。したがって、指示オブジェクトMKの背景がわかるようにするために、指示オブジェクトMKを枠で表示し、或いは、網目模様のテクスチャを指示オブジェクトMKにマッピングしている。   Further, in the present embodiment, the instruction object MK is displayed without being translucently displayed so as to be displayed like a real HUD. Therefore, in order to make the background of the pointing object MK clear, the pointing object MK is displayed with a frame, or a mesh texture is mapped to the pointing object MK.

例えば、図9(B)に示すように、半径r1の円に沿って指示オブジェクトMK1を配置する場合には、指示オブジェクトMK1に枠だけ表示し、半径r2の円に沿って指示オブジェクトMK2を配置する場合には、指示オブジェクトMKに粗い編目模様のテクスチャTAをマッピングし、半径r3の円に沿って指示オブジェクトMK3を配置する場合には、指示オブジェクトMK3に、テクスチャTAよりも編目の詰まった網目模様のテクスチャTBをマッピングする。このようにすれば、ミサイルが接近するにつれて危険が増していることを表現することができる。   For example, as shown in FIG. 9B, when the pointing object MK1 is arranged along the circle with the radius r1, only the frame is displayed on the pointing object MK1, and the pointing object MK2 is arranged along the circle with the radius r2. In the case where the texture TA having a coarse stitch pattern is mapped to the instruction object MK and the instruction object MK3 is arranged along the circle having the radius r3, the mesh having a stitch that is more tight than the texture TA is arranged on the instruction object MK3. Map the texture TB of the pattern. In this way, it can be expressed that the danger increases as the missile approaches.

4.ダメージ演出処理
本実施形態では、敵から発射された弾(ミサイル、機関砲)が、自機POBにヒットしたか否かを判定し、弾が自機POBにヒットしたと判定された場合には、ダメージ演出処理を行っている。本実施形態では、1つの弾によるヒットあたりに、1回のダメージ演出処理を行っている。
4). In the present embodiment, in this embodiment, it is determined whether or not a bullet (missile, machine gun) fired from an enemy hits the own POB, and if it is determined that the bullet hits the own POB The damage production process is performed. In the present embodiment, one damage effect process is performed per hit with one bullet.

例えば、図10に示すように、弾が自機POBにヒットしたと判定された場合に、半径r3上に配置された指示オブジェクトMKを点滅させる処理を行う。また、図11に示すように、弾が自機POBにヒットしたと判定された場合に、スクリーンの右側、左側に赤い色を施した画像を既にフレームバッファに描画されている元画像に重ねて描画するオーバーレイ表示を行うようにしてもよい。このようにすれば、プレーヤは敵機からのミサイル攻撃等を受けたことを瞬時に認識することができる。   For example, as shown in FIG. 10, when it is determined that the bullet hits the own machine POB, a process of blinking the pointing object MK arranged on the radius r3 is performed. In addition, as shown in FIG. 11, when it is determined that the bullet hits its own POB, the red colored images on the right and left sides of the screen are superimposed on the original image already drawn in the frame buffer. An overlay display for drawing may be performed. In this way, the player can instantly recognize that a missile attack or the like has been received from an enemy aircraft.

本実施形態では、弾が自機POBにヒットする度に、ダメージを蓄積したダメージ蓄積値Iを更新している。最終的にダメージ蓄積値Iが最大値(I=100)になると、自機が撃墜したものとみなされ、ゲームを終了する処理を行う。そこで、本実施形態では、ダメージ蓄積値をプレーヤに簡易に知らせるために、ダメージ蓄積値Iに基づいて、オーバーレイ表示を行う期間を調整している。   In this embodiment, every time a bullet hits its own POB, the damage accumulation value I that accumulates damage is updated. When the damage accumulation value I finally reaches the maximum value (I = 100), it is considered that the player has shot down and the process of ending the game is performed. Therefore, in this embodiment, in order to easily notify the player of the damage accumulation value, the period for performing the overlay display is adjusted based on the damage accumulation value I.

例えば、ダメージ蓄積値Iが0〜50(0≦I<50)である場合には、ヒットしたと判定された時点から2秒間オーバーレイ表示を行う。そして、ダメージ蓄積値Iが50〜80(50≦I<80)である場合には、ヒットしたと判定された時点から10秒間オーバーレイ表示を行う。そして、ダメージ蓄積値Iが80〜100(80≦I<100)である場合には、ヒットしたと判定された時点から60秒間オーバーレイ表示を行う。そして、ダメージ蓄積値Iが最大値(I=100)になると、ゲーム終了の演出処理を行う。   For example, when the damage accumulation value I is 0 to 50 (0 ≦ I <50), overlay display is performed for 2 seconds from the time when it is determined that the hit has occurred. When the damage accumulation value I is 50 to 80 (50 ≦ I <80), overlay display is performed for 10 seconds from the time when it is determined that the damage has occurred. When the damage accumulation value I is 80 to 100 (80 ≦ I <100), overlay display is performed for 60 seconds from the time when it is determined that the damage has occurred. When the damage accumulation value I reaches the maximum value (I = 100), a game end effect process is performed.

なお、本実施形態では、弾が自機POBにヒットしたと判定された場合に、1〜2秒間HUD画像にノイズを施した画像を生成してもよい。また、弾が自機POBにヒットしたと判定された場合に、HUD画像に歪みを施した画像を生成してもよい。   In the present embodiment, when it is determined that the bullet hits the own POB, an image in which noise is applied to the HUD image may be generated for 1 to 2 seconds. Further, when it is determined that the bullet hits the own POB, an image in which the HUD image is distorted may be generated.

5.移動演算処理
本実施形態における移動処理について説明する。本実施形態では、入力部からの入力情報に基づいて、自機を移動させる処理を行う。例えば、フレーム毎に自機の位置を求め、求めた位置に自機を移動させる処理を行う。例えば、N−1フレーム目の自機の位置をP(N−1)、自機の移動ベクトルをPV、1フレームの時間をTとすると、Nフレーム目の自機の位置PNは下式(1)によって求めることができる。
PN=P(N−1)+PV×T・・・(1)
5. Movement calculation process The movement process in this embodiment is demonstrated. In this embodiment, based on the input information from an input part, the process which moves an own machine is performed. For example, the position of the own machine is obtained for each frame, and the process of moving the own machine to the obtained position is performed. For example, if the position of the N-1th frame is P (N-1), the movement vector of the N-1th frame is PV, and the time of 1 frame is T, the position PN of the Nth frame is expressed by the following formula ( 1).
PN = P (N−1) + PV × T (1)

次に、自機、敵機などの機体から発射される機関砲やミサイルなどの弾の移動処理について説明する。まず、機関砲については、機関砲の移動ベクトルに基づいて、毎フレーム機関砲の位置を求め、求めた位置に移動させる処理を行う。   Next, the process of moving bullets such as machine guns and missiles fired from aircraft such as the own aircraft and enemy aircraft will be described. First, with respect to the cannon, the position of the cannon for each frame is obtained based on the movement vector of the cannon, and a process of moving to the obtained position is performed.

そして、本実施形態においてミサイルの移動処理を行う場合には、ミサイルの追尾機能(誘導性能)に基づいて移動処理を行う。本実施形態では、ターゲットオブジェクトをロックオンしたことを条件に、ロックオン対象のターゲットオブジェクトを追尾して移動する誘導性能が備わっている。例えば、自機が敵機からロックオンされた場合であって、敵機からミサイルが自機に向けて発射されると、敵機から発射されたミサイルを自機に追尾して移動させる処理を行っている。   In the present embodiment, when the missile movement process is performed, the movement process is performed based on the tracking function (guidance performance) of the missile. In the present embodiment, guidance performance is provided for tracking and moving the target object to be locked on, provided that the target object is locked on. For example, if your aircraft is locked on from an enemy aircraft, and a missile is launched from your enemy aircraft toward your aircraft, you can track and move the missile launched from the enemy aircraft to your aircraft. Is going.

なお、ロックオンとは、第1の機体と第2の機体との距離が所定距離以内(例えば15キロメートル以内)になった場合に、第1の機体が第2の機体を攻撃目標として設定した状態のことをいう。例えば、敵機が自機の背後に位置し、敵機と自機との距離が所定距離以内になると、敵機が自機を攻撃目標として設定するロックオン状態となる。本実施形態では、ロックオン状態のときにミサイルを発射可能としている。   Lock-on means that the first aircraft sets the second aircraft as the attack target when the distance between the first aircraft and the second aircraft is within a predetermined distance (for example, within 15 kilometers). It means a state. For example, when the enemy aircraft is located behind the aircraft and the distance between the enemy aircraft and the aircraft is within a predetermined distance, the enemy aircraft enters a lock-on state in which the aircraft is set as an attack target. In the present embodiment, the missile can be launched in the lock-on state.

また、図12に示すように、本実施形態では、ミサイルMの向きに基づいて所定範囲MAを設定し、所定範囲MA内に自機POBが位置しているか否かを判断し、ミサイルMの所定範囲MA内に自機POBが位置している場合にミサイルMは自機POBを追尾するように移動処理を行う。一方、ミサイルMの所定範囲MA内に自機POBが位置していない場合には、図13に示すように、ミサイルMは自機POBを追尾せずに、追尾対象のオブジェクトが存在しないものと判断してミサイルMをオブジェクト空間から消去する処理を行う。   Also, as shown in FIG. 12, in the present embodiment, a predetermined range MA is set based on the direction of the missile M, it is determined whether or not the own POB is located within the predetermined range MA, and the missile M's When the own POB is located within the predetermined range MA, the missile M performs a movement process so as to track the own POB. On the other hand, when the own device POB is not located within the predetermined range MA of the missile M, as shown in FIG. 13, the missile M does not track the own device POB, and no tracking target object exists. Judgment is performed to delete the missile M from the object space.

追尾移動処理について具体的に説明すると、本実施形態では、例えば、追尾係数K(K>0)に基づいて、ミサイルMの移動処理を行う。例えば、N−1フレーム目のミサイルの位置をQ(N−1)とし、N−1フレーム目の自機POBの位置をP(N−1)とし、ミサイルの移動ベクトルMVとし、1フレームの時間をTとし、追尾係数をKとすると、Nフレーム目のミサイルの位置QNは下式(2)によって求めることができる。
QN=Q(N−1)+MV×T+K(P(N−1)−Q(N−1))・・・(2)
The tracking movement process will be specifically described. In the present embodiment, for example, the movement process of the missile M is performed based on the tracking coefficient K (K> 0). For example, the position of the missile of the N-1th frame is set to Q (N-1), the position of the POB of the N-1th frame is set to P (N-1), and the movement vector MV of the missile is set to 1 frame. If the time is T and the tracking coefficient is K, the missile position QN of the Nth frame can be obtained by the following equation (2).
QN = Q (N−1) + MV × T + K (P (N−1) −Q (N−1)) (2)

例えば、式(2)の追尾係数Kが大きくなるほどミサイルMの追尾力を高めることができる。そして、追尾移動処理の結果、図12に示すように、ミサイルMの移動方向上に自機POBが位置するとミサイルMが自機POBにヒットすることになり、図13に示すように、ミサイルMの移動方向上に自機POBが位置しない場合にはミサイルMが自機POBにヒットしないことになる。また、自機POBがミサイルMの追尾力より速く逃げれば、自機POBはミサイルMの攻撃から逃れることができる。   For example, the tracking force of the missile M can be increased as the tracking coefficient K in Expression (2) increases. As a result of the tracking movement process, as shown in FIG. 12, when the own apparatus POB is positioned in the movement direction of the missile M, the missile M hits the own apparatus POB, and as shown in FIG. When the own POB is not located in the moving direction, the missile M does not hit the own POB. Also, if the own POB escapes faster than the tracking force of the missile M, the own POB can escape from the attack of the missile M.

6.フローチャート
最後に、敵機から発射されたミサイルに関する指示オブジェクト表示の処理の流れについて、図14を用いて説明する。まず、敵機から自機に向けてミサイルが発射されたか否かを判断する(ステップS1)。そして、敵機から自機に向けてミサイルが発射された場合に(ステップS1のY)、オブジェクト空間において、自機の位置に対するミサイルの相対的な距離及び方向に基づいて、指示オブジェクトをスクリーン上に配置する処理を行う(ステップS2)。そして、ミサイルが自機にヒットしたか否かを判定する(ステップS3)。ミサイルが自機にヒットした場合には(ステップS3のY)、ダメージ演出処理を行い(ステップS4)、処理を終了する。一方、ミサイルが自機にヒットしていない場合には(ステップS3のN)、ミサイルを回避したか否かを判定する(ステップS5)。ミサイルを回避していない場合には(ステップS5のN)、ステップS2の処理に戻る。一方、ミサイルを回避した場合には(ステップS5のY)、指示オブジェクトを消去する処理を行い(ステップS6)処理を終了する。以上で処理が終了する。
6). Flowchart Finally, the flow of processing for displaying an instruction object related to a missile launched from an enemy aircraft will be described with reference to FIG. First, it is determined whether or not a missile has been launched from an enemy aircraft toward itself (step S1). Then, when a missile is launched from the enemy aircraft toward the aircraft (Y in Step S1), the pointing object is placed on the screen based on the relative distance and direction of the missile with respect to the location of the aircraft in the object space. The process arrange | positioning to is performed (step S2). Then, it is determined whether or not the missile has hit the aircraft (step S3). If the missile hits the aircraft (Y in step S3), a damage effect process is performed (step S4), and the process ends. On the other hand, if the missile has not hit the machine (N in step S3), it is determined whether or not the missile has been avoided (step S5). If the missile is not avoided (N in Step S5), the process returns to Step S2. On the other hand, when a missile is avoided (Y in step S5), a process for deleting the designated object is performed (step S6), and the process is terminated. The process ends here.

7.応用例
本実施形態では、指示オブジェクトをオブジェクト空間(3次元)に配置し、オブジェクト空間において仮想カメラから見える画像を生成するようにしてもよい。つまり、HUD画像に関する指示オブジェクトを3次元空間に配置して画像を生成するようにしてもよい。
7). Application Example In the present embodiment, an instruction object may be arranged in an object space (three-dimensional) to generate an image that can be viewed from a virtual camera in the object space. In other words, the pointing object related to the HUD image may be arranged in a three-dimensional space to generate an image.

7−1.仮想カメラの視点位置に基づいて指示オブジェクトを配置する手法
例えば、本実施形態ではオブジェクト空間の仮想カメラの視点位置CPに基づいて基準点(特定位置)DP1を設定し、基準点DP1に基づいて指示オブジェクトを配置する処理を行うようにしてもよい。
7-1. For example, in this embodiment, a reference point (specific position) DP1 is set based on the viewpoint position CP of the virtual camera in the object space, and the instruction is based on the reference point DP1. You may make it perform the process which arrange | positions an object.

つまり、本実施形態では、オブジェクト空間において自機POBとミサイルMとの距離L及び自機POBに対するミサイルMの方向に基づいて、指示オブジェクトMKを、基準点DP1を基準にオブジェクト空間に配置する処理を行うようにしてもよい。   That is, in the present embodiment, the process of arranging the pointing object MK in the object space based on the reference point DP1 based on the distance L between the own device POB and the missile M in the object space and the direction of the missile M with respect to the own device POB. May be performed.

そして、この仮想カメラCから見える指示オブジェクトMKを含む画像を生成する処理を行い、生成された画像を表示部に表示させる。このようにすれば、プレーヤはミサイルなどの接近について立体的に知ることができる。   And the process which produces | generates the image containing the instruction | indication object MK visible from this virtual camera C is performed, and the produced | generated image is displayed on a display part. In this way, the player can know three-dimensionally about the approach of a missile or the like.

なお、本実施形態では、仮想カメラの視点位置CPに基づいて基準点DP1を設定する。例えば、仮想カメラCの注視点(注目点)を基準点DP1として設定してもよいし、仮想カメラCの視線方向CV上であって仮想カメラの視点位置CPから所定距離にある位置を基準点DP1としてもよい。また、仮想カメラCの移動に追従する点を基準点DP1として設定してもよい。   In the present embodiment, the reference point DP1 is set based on the viewpoint position CP of the virtual camera. For example, the gazing point (attention point) of the virtual camera C may be set as the reference point DP1, or a position on the visual line direction CV of the virtual camera C and at a predetermined distance from the viewpoint position CP of the virtual camera is set as the reference point. It may be DP1. A point that follows the movement of the virtual camera C may be set as the reference point DP1.

そして、本実施形態では、オブジェクト空間に指示オブジェクトを配置する場合も、スクリーン上に配置する場合と同じように、オブジェクト空間の自機POBとミサイルMとの距離に基づいて、オブジェクト空間の基準点と指示オブジェクトとの距離を変化させるようにしてもよい。例えば、ミサイルが自機に近づくにつれて視点からみて奥行き方向に遠ざかるように指示オブジェクトを配置してもよい。また、オブジェクト空間の自機に対するミサイルの方向に基づいて、オブジェクト空間の基準点に対する指示オブジェクトの方向を変化させるようにしてもよい。   In the present embodiment, when the pointing object is arranged in the object space, the reference point of the object space is determined based on the distance between the own device POB and the missile M in the object space, as in the case of arranging on the screen. And the distance between the pointing object and the pointing object may be changed. For example, the pointing object may be arranged so as to move away from the viewpoint as viewed from the viewpoint as the missile approaches the aircraft. Further, the direction of the pointing object with respect to the reference point of the object space may be changed based on the direction of the missile with respect to the own device in the object space.

また、本実施形態では、図15(A)に示すように、指示オブジェクトの奥行き方向へ幅のある所定ボリュームVM1内に指示オブジェクトMK1、MK2、MK3を配置してもよい。例えば、仮想カメラCのビューボリュームCA内の所定ボリュームVM1内に、指示オブジェクトMK1、MK2、MK3を配置する。   In the present embodiment, as shown in FIG. 15A, the instruction objects MK1, MK2, and MK3 may be arranged in a predetermined volume VM1 having a width in the depth direction of the instruction object. For example, the instruction objects MK1, MK2, and MK3 are arranged in a predetermined volume VM1 in the view volume CA of the virtual camera C.

例えば、所定ボリュームVM1は、Near Plane(前方クリッピング面)を含み、奥行き方向へ幅のあるボリュームである。より具体的には、所定ボリュームVM1は、基準点DP1を頂点とし、カメラ座標系の所定奥行き値Z1のXY平面(Near Plane)の半径r1の円を底面とする円錐状のボリュームである。   For example, the predetermined volume VM1 is a volume that includes a near plane (front clipping plane) and has a width in the depth direction. More specifically, the predetermined volume VM1 is a conical volume having a reference point DP1 as a vertex and a bottom surface of a circle having a radius r1 of an XY plane (Near Plane) having a predetermined depth value Z1 in the camera coordinate system.

そして、本実施形態では、例えば、オブジェクト空間において、ミサイルM1と自機POBとの距離Lが10〜15キロメートル(10<L≦15)である場合には、図15(A)に示すように、視点CPを原点とするカメラ座標系の奥行き値がZ1であって、図15(B)に示すように、XY平面上の半径r1の円周上に、ミサイルM1の指示オブジェクトMK1を配置する。   In the present embodiment, for example, in the object space, when the distance L between the missile M1 and the own machine POB is 10 to 15 kilometers (10 <L ≦ 15), as shown in FIG. The depth value of the camera coordinate system with the viewpoint CP as the origin is Z1, and as shown in FIG. 15B, the pointing object MK1 of the missile M1 is placed on the circumference of the radius r1 on the XY plane. .

また、オブジェクト空間において、ミサイルM2と自機POBとの距離Lが5〜10キロメートル(5<L≦10)である場合には、図15(A)に示すように、視点CPを原点とするカメラ座標系の奥行き値がZ2(Z1<Z2)であって、図15(B)に示すように、XY平面上の半径r2(r2<r1)の円周上に、ミサイルM2の指示オブジェクトMK2を配置する。   Further, in the object space, when the distance L between the missile M2 and the own device POB is 5 to 10 kilometers (5 <L ≦ 10), the viewpoint CP is the origin as shown in FIG. The depth value of the camera coordinate system is Z2 (Z1 <Z2), and the pointing object MK2 of the missile M2 is placed on the circumference of the radius r2 (r2 <r1) on the XY plane as shown in FIG. 15B. Place.

そして、オブジェクト空間において、ミサイルM3と自機POBとの距離Lが0〜5キロメートル(0<L≦5)である場合には、図15(A)に示すように、視点CPを原点とするカメラ座標系の奥行き値がZ3(Z1<Z2<Z3)であって、図15(B)に示すように、XY平面上の半径r3(r3<r2<r1)の円周上に、ミサイルM3の指示オブジェクトMK3を配置する。   Then, in the object space, when the distance L between the missile M3 and the own device POB is 0 to 5 kilometers (0 <L ≦ 5), the viewpoint CP is the origin as shown in FIG. The depth value of the camera coordinate system is Z3 (Z1 <Z2 <Z3), and as shown in FIG. 15B, the missile M3 is placed on the circumference of the radius r3 (r3 <r2 <r1) on the XY plane. The pointing object MK3 is arranged.

以上のように、本実施形態では、ミサイルと自機との距離に基づいて、指示オブジェクトの平面上(XY面上)だけでなく、奥行き方向への配置状態も変化するので、ミサイルが自機に接近している距離や方向を瞬時に把握することができる。   As described above, in the present embodiment, not only the position of the pointing object on the plane (XY plane) but also the arrangement state in the depth direction changes based on the distance between the missile and the own aircraft. The distance and direction approaching can be grasped instantly.

7−2.自機の位置に基づいて指示オブジェクトを配置する手法
本実施形態ではオブジェクト空間の自機の位置Pに基づいて基準点(特定位置)DP2を設定し、基準点DP2に基づいて指示オブジェクトを配置する処理を行うようにしてもよい。
7-2. In this embodiment, a reference point (specific position) DP2 is set based on the position P of the own device in the object space, and the pointing object is arranged based on the reference point DP2. Processing may be performed.

つまり、本実施形態では、オブジェクト空間において自機POBとミサイルMとの距離L及び自機POBに対するミサイルMの方向に基づいて、指示オブジェクトMKを、基準点DP2を基準にオブジェクト空間に配置する処理を行うようにしてもよい。   That is, in the present embodiment, the process of arranging the pointing object MK in the object space based on the reference point DP2 based on the distance L between the own device POB and the missile M and the direction of the missile M with respect to the own device POB in the object space. May be performed.

そして、自機POBの移動に追従する仮想カメラCから見える指示オブジェクトMKを含む画像を生成する処理を行い、生成された画像を表示部に表示させる。このようにすれば、プレーヤはミサイルなどの接近について立体的に知ることができる。   And the process which produces | generates the image containing the instruction | indication object MK seen from the virtual camera C which follows the movement of the own apparatus POB is performed, and the produced | generated image is displayed on a display part. In this way, the player can know three-dimensionally about the approach of a missile or the like.

なお、本実施形態では、オブジェクト空間の自機POBの位置Pに基づいて基準点DP2を設定する。例えば、自機POBの位置Pから所定距離、所定方向離れた位置を基準点DP2として設定してもよいし、自機POBの向き上の、自機POBの位置Pから所定距離(例えば2メートル)離れた位置を基準点DP2として設定してもよい。また、自機POBの移動に追従する点を基準点DP2として設定してもよい。   In the present embodiment, the reference point DP2 is set based on the position P of the own device POB in the object space. For example, a position that is a predetermined distance and a predetermined direction away from the position P of the own apparatus POB may be set as the reference point DP2, or a predetermined distance (for example, 2 meters) from the position P of the own apparatus POB on the direction of the own apparatus POB. ) A distant position may be set as the reference point DP2. Also, a point that follows the movement of the own device POB may be set as the reference point DP2.

そして、本実施形態では、オブジェクト空間に指示オブジェクトを配置する場合も、スクリーン上に配置する場合と同じように、オブジェクト空間の自機POBとミサイルMとの距離に基づいて、オブジェクト空間の基準点と指示オブジェクトとの距離を変化させるようにしてもよい。例えば、ミサイルが自機に近づくにつれて自機POBの位置Pから奥行き方向に遠ざかるように指示オブジェクトを配置してもよい。また、オブジェクト空間の自機に対するミサイルの方向に基づいて、オブジェクト空間の基準点に対する指示オブジェクトの方向を変化させるようにしてもよい。   In the present embodiment, when the pointing object is arranged in the object space, the reference point of the object space is determined based on the distance between the own device POB and the missile M in the object space, as in the case of arranging on the screen. And the distance between the pointing object and the pointing object may be changed. For example, the pointing object may be arranged so as to move away from the position P of the own device POB in the depth direction as the missile approaches the own device. Further, the direction of the pointing object with respect to the reference point of the object space may be changed based on the direction of the missile with respect to the own device in the object space.

また、本実施形態では、図16(A)に示すように、指示オブジェクトを奥行き方向へ幅のある所定ボリュームVM2内に指示オブジェクトMK1、MK2、MK3を配置してもよい。   In the present embodiment, as shown in FIG. 16A, the pointing objects MK1, MK2, and MK3 may be arranged in a predetermined volume VM2 that is wide in the depth direction.

例えば、所定ボリュームVM2は、自機POBの位置Pを原点とするモデル座標系において、奥行き方向へ幅のあるボリュームである。例えば、基準点DP2を頂点とし、モデル座標系の所定奥行き値Z1のXY平面上の半径r1の円を底面とする円錐状のボリュームとすることができる。   For example, the predetermined volume VM2 is a volume having a width in the depth direction in the model coordinate system with the position P of the own device POB as the origin. For example, a conical volume having a reference point DP2 as a vertex and a bottom surface of a circle having a radius r1 on the XY plane of a predetermined depth value Z1 in the model coordinate system can be used.

そして、本実施形態では、例えば、オブジェクト空間において、ミサイルM1と自機POBとの距離Lが10〜15キロメートル(10<L≦15)である場合には、図16(A)に示すように、自機POBのモデル座標系の奥行き値がZ1であって、図16(B)に示すように、XY平面上の半径r1の円周上に、ミサイルM1の指示オブジェクトMK1を配置する。   In the present embodiment, for example, in the object space, when the distance L between the missile M1 and the own device POB is 10 to 15 kilometers (10 <L ≦ 15), as shown in FIG. The depth value of the model coordinate system of the own device POB is Z1, and as shown in FIG. 16B, the pointing object MK1 of the missile M1 is arranged on the circumference of the radius r1 on the XY plane.

また、オブジェクト空間において、ミサイルM2と自機POBとの距離Lが5〜10キロメートル(5<L≦10)である場合には、図16(A)に示すように、自機POBのモデル座標系の奥行き値がZ2(Z1<Z2)であって、図16(B)に示すように、XY平面上の半径r2(r2<r1)の円周上に、ミサイルM2の指示オブジェクトMK2を配置する。   Further, in the object space, when the distance L between the missile M2 and the own POB is 5 to 10 kilometers (5 <L ≦ 10), as shown in FIG. The depth value of the system is Z2 (Z1 <Z2), and the pointing object MK2 of the missile M2 is arranged on the circumference of the radius r2 (r2 <r1) on the XY plane as shown in FIG. To do.

そして、オブジェクト空間において、ミサイルM3と自機POBとの距離Lが0〜5キロメートル(0<L≦5)である場合には、図16(A)に示すように、自機POBのモデル座標系の奥行き値がZ3(Z1<Z2<Z3)であって、図16(B)に示すように、XY平面上の半径r3(r3<r2<r1)の円周上に、ミサイルM3の指示オブジェクトMK3を配置する。   In the object space, when the distance L between the missile M3 and the own device POB is 0 to 5 kilometers (0 <L ≦ 5), as shown in FIG. 16A, the model coordinates of the own device POB. The depth value of the system is Z3 (Z1 <Z2 <Z3), and as shown in FIG. 16B, the missile M3 is indicated on the circumference of the radius r3 (r3 <r2 <r1) on the XY plane. The object MK3 is arranged.

以上のように、本実施形態では、ミサイルと自機との距離に基づいて、指示オブジェクトの平面上(XY面上)だけでなく、自機POBを基準とする奥行き方向への配置状態も変化するので、ミサイルが近づいている様子を瞬時に把握することができる。   As described above, in the present embodiment, the arrangement state of the pointing object not only on the plane (XY plane) but also in the depth direction based on the own POB is changed based on the distance between the missile and the own aircraft. So, you can instantly understand how the missile is approaching.

7−3.仮想カメラから見て遮蔽物よりも手前に指示オブジェクトを配置する手法
また、本実施形態では、仮想カメラCから見て指示オブジェクトMKを遮蔽する遮蔽物オブジェクトDOB(例えば、建物、ビルなど)が存在する場合には、仮想カメラCに対して遮蔽物オブジェクトDOBよりも前に、指示オブジェクトMKを配置するようにしてもよい。このようにすれば、プレーヤが常にミサイルの位置や方向を、指示オブジェクトMKによって確認できるからである。
7-3. In this embodiment, there is a shielding object DOB (for example, a building or a building) that shields the pointing object MK when viewed from the virtual camera C. In this case, the instruction object MK may be arranged before the shield object DOB with respect to the virtual camera C. This is because the player can always confirm the position and direction of the missile with the pointing object MK.

より具体的に説明すると、例えば、図17(A)に示すように、遮蔽物オブジェクトDOBよりも仮想カメラCから見て奥側に指示オブジェクトMK2、MK3が存在する場合がある。かかる場合には、次のように、指示オブジェクトMK2、MK3を配置する。例えば、図17(B)に示すように、仮想カメラCのカメラ座標系の奥行き値Z1であるNear Plane(所定ボリュームVM1の底面)に、指示オブジェクトMK2、MK3を配置する。   More specifically, for example, as shown in FIG. 17A, there are cases where the pointing objects MK2 and MK3 exist behind the shielding object DOB when viewed from the virtual camera C. In such a case, the instruction objects MK2 and MK3 are arranged as follows. For example, as shown in FIG. 17B, the indication objects MK2 and MK3 are arranged on the Near Plane (the bottom surface of the predetermined volume VM1) which is the depth value Z1 of the camera coordinate system of the virtual camera C.

また、図17(C)に示すように、奥行き値Z1(Near Plane)から遮蔽物オブジェクトDOBが位置する奥行き値Zdまでの範囲(Z1≦Z<Zd)に、指示オブジェクトMK2、MK3を配置する。かかる場合には、ミサイルと自機との距離及び方向に基づいて、指示オブジェクトMK2、MK3を配置する。   In addition, as shown in FIG. 17C, the indication objects MK2 and MK3 are arranged in a range (Z1 ≦ Z <Zd) from the depth value Z1 (Near Plane) to the depth value Zd where the shielding object DOB is located. . In such a case, the pointing objects MK2 and MK3 are arranged based on the distance and direction between the missile and the own aircraft.

また、図17(D)に示すように、仮想カメラCの位置を、位置CPを視線方向に対して逆方向の位置CP´に移動させるようにしてもよい。つまり、仮想カメラCをワールド座標系のZW1からZW0に移動させる。   Further, as shown in FIG. 17D, the position of the virtual camera C may be moved to a position CP ′ in the direction opposite to the line-of-sight direction. That is, the virtual camera C is moved from ZW1 to ZW0 in the world coordinate system.

また、図17(D)に示すように、仮想カメラCから見て遮蔽物オブジェクトDOBよりも手前に所定ボリュームVM1を移動させるようにしてもよい。つまり、基準点DP1をワールド座標系のZW4から遮蔽物オブジェクトDOBの位置ZW3より仮想カメラ側の位置ZW2(ZW2<ZW3)に移動させて、基準点DP1に基づく所定ボリュームVM1を設定するようにしてもよい。そして、所定ボリュームVM1において、指示オブジェクトMK1〜MK3を配置する。以上の処理によって、本実施形態では、プレーヤは確実に指示オブジェクトを確認することができ、ミサイルの接近を予知することができる。   Further, as shown in FIG. 17D, the predetermined volume VM1 may be moved in front of the shield object DOB when viewed from the virtual camera C. That is, the reference point DP1 is moved from ZW4 in the world coordinate system to the position ZW2 (ZW2 <ZW3) on the virtual camera side from the position ZW3 of the shielding object DOB, and the predetermined volume VM1 based on the reference point DP1 is set. Also good. Then, the instruction objects MK1 to MK3 are arranged in the predetermined volume VM1. Through the above processing, in the present embodiment, the player can surely confirm the pointing object and can predict the approach of the missile.

また、本実施形態では、自機POBの位置Pに基づいて設定された基準点DP2を基準に、オブジェクト空間に指示オブジェクト配置する場合においても、仮想カメラCに対して遮蔽物オブジェクトDOBよりも前に、指示オブジェクトを配置するようにしてもよい。   Further, in the present embodiment, even when the pointing object is arranged in the object space with reference to the reference point DP2 set based on the position P of the own device POB, the virtual camera C is positioned before the shielding object DOB. In addition, an instruction object may be arranged.

より具体的に説明すると、例えば、図18(A)に示すように、遮蔽物オブジェクトDOBよりも仮想カメラCから見て奥側に指示オブジェクトMK2、MK3が存在する場合がある。かかる場合には、次のように、指示オブジェクトMK2、MK3を配置する。例えば、図18(B)に示すように、自機POBのモデル座標系の奥行き値Z1である面(所定ボリュームVM2の底面)に、指示オブジェクトMK2、MK3を配置する。   More specifically, for example, as shown in FIG. 18A, there are cases where the instruction objects MK2 and MK3 are present behind the shielding object DOB as viewed from the virtual camera C. In such a case, the instruction objects MK2 and MK3 are arranged as follows. For example, as shown in FIG. 18B, the instruction objects MK2 and MK3 are arranged on the surface (the bottom surface of the predetermined volume VM2) having the depth value Z1 of the model coordinate system of the own device POB.

また、図18(C)に示すように、自機POBのモデル座標系の奥行き値Z1から遮蔽物オブジェクトDOBが位置する奥行き値Zdまでの範囲(Z1≦Z<Zd)に、指示オブジェクトMK2、MK3を配置する。かかる場合には、ミサイルと自機との距離及び方向に基づいて、指示オブジェクトMK2、MK3を配置する。   Further, as shown in FIG. 18C, the pointing object MK2, within the range (Z1 ≦ Z <Zd) from the depth value Z1 of the model coordinate system of the own device POB to the depth value Zd where the shielding object DOB is located. Place MK3. In such a case, the pointing objects MK2 and MK3 are arranged based on the distance and direction between the missile and the own aircraft.

また、図18(D)に示すように、仮想カメラCから見て遮蔽物オブジェクトDOBよりも手前に所定ボリュームVM2を移動させるようにしてもよい。つまり、基準点DP2をワールド座標系のZW4から遮蔽物オブジェクトDOBの位置ZW3より仮想カメラ側の位置ZW2(ZW2<ZW3)に移動させて、基準点DP2に基づく所定ボリュームVM2を設定するようにしてもよい。そして、所定ボリュームVM2において、指示オブジェクトMK1〜MK3を配置する。以上の処理によって、本実施形態では、プレーヤは確実に指示オブジェクトを確認することができ、ミサイルの接近を予知することができる。   Further, as shown in FIG. 18D, the predetermined volume VM2 may be moved in front of the shield object DOB when viewed from the virtual camera C. That is, the reference point DP2 is moved from ZW4 in the world coordinate system to the position ZW2 (ZW2 <ZW3) on the virtual camera side from the position ZW3 of the shielding object DOB to set the predetermined volume VM2 based on the reference point DP2. Also good. Then, the instruction objects MK1 to MK3 are arranged in the predetermined volume VM2. Through the above processing, in the present embodiment, the player can surely confirm the pointing object and can predict the approach of the missile.

7−4.立体視画像への応用
また、本実施形態では、立体視画像に応用してもよい。すなわち、本実施形態の描画部120が、立体視のための左目用仮想カメラから見える左目用画像と、立体視のための右目用仮想カメラから見える右目用画像とを生成し、当該左目用画像と当該右目用画像とを合成して立体視用画像を生成する処理を行うようにしてもよい。
7-4. Application to Stereoscopic Image In the present embodiment, the present invention may be applied to a stereoscopic image. That is, the rendering unit 120 of the present embodiment generates a left-eye image that can be seen from the left-eye virtual camera for stereoscopic viewing and a right-eye image that can be seen from the right-eye virtual camera for stereoscopic viewing, and the left-eye image And the right-eye image may be combined to generate a stereoscopic image.

ここで、立体視画像とは、人間の左右の眼の視線角度のずれ、輻輳、焦点距離(ピント調整)の生理的機能を利用して、立体物があるかのように感じることができる画像のことである。   Here, a stereoscopic image is an image that can be felt as if there is a three-dimensional object by using physiological functions such as a shift in gaze angle between the left and right eyes of a human, convergence, and focal length (focus adjustment). That is.

例えば、図19(A)(B)に示すように、オブジェクト空間に所定間隔dをおいて、左目用仮想カメラCLを位置CPLに配置すると共に、右目用仮想カメラCRを位置CPRに配置する。なお、左右の仮想カメラCL、CRは、仮想カメラ制御部117によって制御される。例えば、仮想カメラCL、CRは、自機の移動に追従させるように制御する。   For example, as shown in FIGS. 19A and 19B, the left-eye virtual camera CL is arranged at the position CPL and the right-eye virtual camera CR is arranged at the position CPR with a predetermined interval d in the object space. Note that the left and right virtual cameras CL and CR are controlled by the virtual camera control unit 117. For example, the virtual cameras CL and CR are controlled to follow the movement of the own device.

そして、図19(A)(B)に示すように、左目用画像を生成する際には、視点位置CPLを原点として、視線方向CVLを正方向にとった左目用視点座標系を設定し、オブジェクトを左目用視点座標系に座標変換し、投影面であるスクリーン座標系へオブジェクトの各頂点座標を透視投影変換し、左目用画像ILを生成する。そして、左目用画像ILのデータを左目用画像バッファに記憶する。   Then, as shown in FIGS. 19A and 19B, when generating the left-eye image, a left-eye viewpoint coordinate system with the viewpoint position CPL as the origin and the line-of-sight direction CVL in the positive direction is set. The object is coordinate-transformed into the left-eye viewpoint coordinate system, and each vertex coordinate of the object is perspective-projected into the screen coordinate system that is the projection plane, thereby generating a left-eye image IL. Then, the data of the left eye image IL is stored in the left eye image buffer.

同様に、図19(A)(B)に示すように、右目用画像を生成する際には、視点位置CPRを原点として、視線方向CVRを正方向にとった右目用視点座標系を設定し、オブジェクトを右目用視点座標系に座標変換し、投影面であるスクリーン座標系へオブジェクトの各頂点座標を透視投影変換し、右目用画像IRを生成する。そして、右目用画像IRのデータを、右目用画像バッファに記憶する。   Similarly, as shown in FIGS. 19A and 19B, when generating a right-eye image, a right-eye viewpoint coordinate system with the viewpoint position CPR as the origin and the line-of-sight direction CVR as the positive direction is set. Then, the object is coordinate-transformed into the right-eye viewpoint coordinate system, and each vertex coordinate of the object is perspective-projected into the screen coordinate system that is the projection plane to generate the right-eye image IR. Then, the data of the right eye image IR is stored in the right eye image buffer.

そして、左目用画像バッファに記憶された左目用画像ILと、右用画像バッファに記憶された右目用画像IRに基づいて、立体視画像を生成し、立体視画像バッファに記憶する。なお、立体視画像を生成する際はアナグリフ処理を行うようにしてもよい。つまり、本実施形態では、アナグリフ処理により左目用画像と右目用画像との色を変えて立体視画像を生成し、左右の目で異なる色フィルタ(例えば、左目が赤、右目が青)を介して見るようにして立体視を実現するようにしてもよい。   Then, a stereoscopic image is generated based on the left-eye image IL stored in the left-eye image buffer and the right-eye image IR stored in the right-image buffer, and stored in the stereoscopic image buffer. An anaglyph process may be performed when generating a stereoscopic image. That is, in the present embodiment, a stereoscopic image is generated by changing the color of the left-eye image and the right-eye image by anaglyph processing, and the left and right eyes use different color filters (for example, the left eye is red and the right eye is blue). You may make it implement | achieve stereoscopic vision by seeing.

また、本実施形態では、いわゆる「偏光式」による立体視を実現してもよい。例えば、立体視画像を上映するプロジェクタのレンズの前に、特定方向の光のみ通過させるフィルターを設定し、左右の映像を分離する手法によって立体視を実現してもよい。また、本実施形態では、いわゆる「シャッター式」による立体視を実現してもよい。例えば、左目用画像と右目用画像とを交互に表示し、眼鏡に組み込まれた液晶シャッターを左右交互に開閉して右目には右目用画像、左目には左目用画像が見えるようにして、立体視を実現してもよい。その他、様々な手法によって、立体視を実現することができる。   In the present embodiment, stereoscopic viewing by so-called “polarization” may be realized. For example, a stereoscopic view may be realized by a method of setting a filter that allows only light in a specific direction to pass in front of a projector lens that displays a stereoscopic image and separating the left and right images. In the present embodiment, a so-called “shutter type” stereoscopic view may be realized. For example, a left-eye image and a right-eye image are displayed alternately, and the liquid crystal shutter incorporated in the glasses is opened and closed alternately so that the right-eye image can be seen by the right eye and the left-eye image can be seen by the left eye. Visualization may be realized. In addition, stereoscopic vision can be realized by various methods.

なお、本実施形態では、立体視画像を生成する際においても、図19(A)(B)に示すように、左目用仮想カメラ及び右目用仮想カメラの視点CPR、CPLに基づいて共通の基準点DP1、所定ボリュームVM1を設定して指示オブジェクトを配置するようにしてもよい。   In the present embodiment, when generating a stereoscopic image, as shown in FIGS. 19A and 19B, a common reference is based on the viewpoints CPR and CPL of the left-eye virtual camera and the right-eye virtual camera. The point DP1 and the predetermined volume VM1 may be set and the pointing object may be arranged.

例えば、図19(A)(B)に示すように、左目用仮想カメラCLの視線方向CVLと右目用仮想カメラCRの視線方向CVRとが平行になるように左目用仮想カメラCLと右目用仮想カメラCRとをオブジェクト空間に配置する場合には、次のように基準点DP1を設定する。例えば、左目用仮想カメラCLの視点位置CPLと、右目用仮想カメラCRの視点位置CPRとに基づいて、基準点DP1を設定する。具体的には、左目用仮想カメラCLの注視点と、右目用仮想カメラCRの注視点との中点を基準点DP1として設定してもよい。また、左目用仮想カメラCLの視線方向CVL上であって左目用仮想カメラCLの視点位置CPLから所定距離にある位置DPLと、右目用仮想カメラCRの視線方向CVR上であって右目用仮想カメラCRの視点位置CPRから所定距離にある位置DPRとの中点を基準点DP1として設定してもよい。また、左目用仮想カメラCL及び右目用仮想カメラCRの移動に追従する点を基準点DP1として設定してもよい。   For example, as shown in FIGS. 19A and 19B, the left-eye virtual camera CL and the right-eye virtual camera so that the line-of-sight direction CVL of the left-eye virtual camera CL and the line-of-sight direction CVR of the right-eye virtual camera CR are parallel to each other. When the camera CR is arranged in the object space, the reference point DP1 is set as follows. For example, the reference point DP1 is set based on the viewpoint position CPL of the left-eye virtual camera CL and the viewpoint position CPR of the right-eye virtual camera CR. Specifically, a midpoint between the gazing point of the left-eye virtual camera CL and the gazing point of the right-eye virtual camera CR may be set as the reference point DP1. Also, a position DPL that is on the line-of-sight direction CVL of the left-eye virtual camera CL and at a predetermined distance from the viewpoint position CPL of the left-eye virtual camera CL, and a line-of-sight direction CVR of the right-eye virtual camera CR and the right-eye virtual camera The midpoint of the position DPR at a predetermined distance from the CR viewpoint position CPR may be set as the reference point DP1. Further, a point that follows the movement of the left-eye virtual camera CL and the right-eye virtual camera CR may be set as the reference point DP1.

そして、図19(A)(B)に示すように、基準点DP1に基づいて所定ボリュームVM1を設定する。つまり、左目用仮想カメラCLの視点位置CPL、右目用仮想カメラCRの視点位置CPRを基準に奥行き方向へ幅のあるボリュームを所定ボリュームVM1として設定する。例えば、所定ボリュームVM1は、基準点DP1を頂点とし、左目用仮想カメラCL、右目用仮想カメラCRの各カメラ座標系の所定奥行き値Z1のXY平面(例えば、各カメラ座標系のNear Planeを有する平面)の半径r1の円を底面とする円錐状のボリュームとする。   Then, as shown in FIGS. 19A and 19B, a predetermined volume VM1 is set based on the reference point DP1. That is, a volume having a width in the depth direction is set as the predetermined volume VM1 based on the viewpoint position CPL of the left-eye virtual camera CL and the viewpoint position CPR of the right-eye virtual camera CR. For example, the predetermined volume VM1 has an XY plane having a predetermined depth value Z1 in each camera coordinate system of the left-eye virtual camera CL and the right-eye virtual camera CR (for example, Near Plane in each camera coordinate system) with the reference point DP1 as a vertex. A circular volume having a radius r1 of a plane is defined as a conical volume.

そして、オブジェクト空間において自機POBとミサイルMとの距離L及び自機POBに対するミサイルMの方向に基づいて、指示オブジェクトMKを、仮想カメラCL、CRの視点移動に追従する基準点DP1を基準に、オブジェクト空間に配置する処理を行ってもよい。これにより、立体視画像により、さらに奥行き感のあるミサイルの接近度合いを表示することができる。   Based on the distance L between the own device POB and the missile M in the object space and the direction of the missile M with respect to the own device POB, the pointing object MK is based on the reference point DP1 that follows the viewpoint movement of the virtual cameras CL and CR. The process of arranging in the object space may be performed. Thereby, the approach degree of the missile with a sense of depth can be further displayed by the stereoscopic image.

また、本実施形態では、立体視画像を生成する場合においても、図20に示すように、自機POBの位置Pに基づいて指示オブジェクトを配置するようにしてもよい。つまり、本実施形態では、オブジェクト空間において自機POBとミサイルMとの距離L及び自機に対するミサイルMの方向に基づいて、指示オブジェクトMKを、自機POBの移動に追従する基準点DP2を基準に、オブジェクト空間に配置するようにしてもよい。これにより、立体視画像により、さらに奥行き感のあるミサイルの接近度合いを表示することができる。   Further, in the present embodiment, even when a stereoscopic image is generated, the pointing object may be arranged based on the position P of the own device POB as shown in FIG. That is, in the present embodiment, based on the distance L between the own device POB and the missile M in the object space and the direction of the missile M with respect to the own device, the reference object DP is used as the reference point DP2 that follows the movement of the own device POB. Alternatively, it may be arranged in the object space. Thereby, the approach degree of the missile with a sense of depth can be further displayed by the stereoscopic image.

また、本実施形態では、立体視画像を生成する場合においても、仮想カメラから見て遮蔽物よりも手前に指示オブジェクトを配置するようにしてもよい。つまり、本実施形態では、左目用仮想カメラCL、右目用仮想カメラCRから見て指示オブジェクトMKを遮蔽する遮蔽物オブジェクトDOB(例えば、建物、ビルなど)が存在する場合には、左目用仮想カメラCL、右目用仮想カメラCRに対して遮蔽物オブジェクトDOBよりも前に、指示オブジェクトを配置するように制御する。したがって、立体視の画像においても、プレーヤは、指示オブジェクトを視認することができる。   Further, in the present embodiment, even when generating a stereoscopic image, the pointing object may be arranged in front of the shield as viewed from the virtual camera. That is, in the present embodiment, when there is a shielding object DOB (for example, a building or a building) that shields the pointing object MK when viewed from the left-eye virtual camera CL and the right-eye virtual camera CR, the left-eye virtual camera Control is performed so that the pointing object is arranged before the shield object DOB with respect to the virtual camera CR for CL and the right eye. Therefore, the player can visually recognize the pointing object even in a stereoscopic image.

100 処理部、110 受け付け部、111 オブジェクト配置部、
112 移動・動作処理部、112a 移動処理部、
113 指示オブジェクト制御部、114 ヒット判定部、115 ゲーム演算部、
116 ダメージ演出処理部、117 仮想カメラ制御部、118 通信制御部
120 描画部、130 音処理部、160 入力部、162 検出部、
170 記憶部、171 主記憶部、172 画像バッファ、
173 オブジェクトデータ記憶部、180 情報記憶媒体、190 表示部、
192 音出力部、196 通信部、
MK、MK1、MK2、MK3 指示オブジェクト、
O スクリーンの中心位置、
r1、r2、r3 半径、
CO r1、r2、r2の円の中心点、
W スクリーンの横の長さ、H スクリーンの縦の長さ、
NPC 敵機(第2のオブジェクトの一例)、
C 仮想カメラ、CP 視点位置、CV 視線方向、CA 視野範囲、
POB 自機(第1のオブジェクト一例)、
PV 自機の移動速度ベクトル、
P、P1、P2、P3 自機の位置(代表点)、
M、M1、M2、M3 ミサイル、
Q、Q1、Q2、Q3 ミサイルの位置、
L 弾と第1のオブジェクトとの距離、
PMV 第1のオブジェクトに対する弾の方向、
TA、TB テクスチャ、
MA 所定範囲、
CA ビューボリューム(視野範囲)、
DP1 基準点、VM1 DP1を基準に設定された所定ボリューム、
DP2 基準点、VM2 DP2を基準に設定された所定ボリューム、
CL 左目用仮想カメラ、
CPL 左目用仮想カメラの視点位置、
CR 右目用仮想カメラ、
CPR 右目用仮想カメラの視点位置、
100 processing unit, 110 receiving unit, 111 object placement unit,
112 movement / motion processing unit, 112a movement processing unit,
113 instruction object control unit, 114 hit determination unit, 115 game calculation unit,
116 damage effect processing unit, 117 virtual camera control unit, 118 communication control unit 120 drawing unit, 130 sound processing unit, 160 input unit, 162 detection unit,
170 storage unit, 171 main storage unit, 172 image buffer,
173 Object data storage unit, 180 information storage medium, 190 display unit,
192 sound output unit, 196 communication unit,
MK, MK1, MK2, MK3 indicating objects,
O Center position of the screen,
r1, r2, r3 radius,
The center point of the circle of CO r1, r2, r2;
W screen horizontal length, H screen vertical length,
NPC enemy aircraft (example of second object),
C virtual camera, CP viewpoint position, CV viewing direction, CA field of view range,
POB own machine (example of first object),
PV The moving speed vector of the aircraft,
P, P1, P2, P3 Position of own aircraft (representative point),
M, M1, M2, M3 missiles,
Q, Q1, Q2, Q3 Missile position,
L The distance between the bullet and the first object,
PMV The direction of the bullet relative to the first object,
TA, TB texture,
MA predetermined range,
CA view volume (view range),
DP1 reference point, a predetermined volume set with reference to VM1 DP1,
DP2 reference point, predetermined volume set with VM2 DP2 as a reference,
CL virtual camera for left eye,
CPL viewpoint position of virtual camera for left eye,
CR virtual camera for right eye,
CPR viewpoint position of virtual camera for right eye,

Claims (18)

画像生成処理を行うプログラムであって、
オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、
オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と、スクリーンの所与の基準点と基づいて、指示オブジェクトをスクリーン上に配置する処理を行う指示オブジェクト制御部と、
前記指示オブジェクトを含む画像を生成する処理を行う描画部として、コンピュータを機能させ、
前記指示オブジェクト制御部が、
スクリーンの中心位置を基準点とし、当該基準点に基づいて指示オブジェクトをスクリーン上に配置する処理を行うことを特徴とするプログラム。
A program for performing image generation processing,
A movement process for moving the first object in the object space based on the input information of the input unit, and a movement process for moving the bullets fired from the second object to the first object in the object space are performed. A movement processing unit;
A pointing object control unit that performs processing for arranging a pointing object on the screen based on a distance between the first object and the bullet in the object space, a bullet direction with respect to the first object, and a given reference point of the screen; ,
As a drawing unit that performs a process of generating an image including the pointing object, the computer functions.
The pointing object control unit
A program characterized in that the center position of the screen is used as a reference point, and the pointing object is arranged on the screen based on the reference point.
画像生成処理を行うプログラムであって、
オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、
オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と、スクリーンの所与の基準点と基づいて、指示オブジェクトをスクリーン上に配置する処理を行う指示オブジェクト制御部と、
前記指示オブジェクトを含む画像を生成する処理を行う描画部として、コンピュータを機能させ、
前記指示オブジェクト制御部が、
第1のオブジェクトの表示位置に基づいて基準点を設定し、当該基準点に基づいて指示オブジェクトをスクリーン上に配置する処理を行うことを特徴とするプログラム。
A program for performing image generation processing,
A movement process for moving the first object in the object space based on the input information of the input unit, and a movement process for moving the bullets fired from the second object to the first object in the object space are performed. A movement processing unit;
A pointing object control unit that performs processing for arranging a pointing object on the screen based on a distance between the first object and the bullet in the object space, a bullet direction with respect to the first object, and a given reference point of the screen; ,
As a drawing unit that performs a process of generating an image including the pointing object, the computer functions.
The pointing object control unit
A program characterized in that a reference point is set based on a display position of a first object, and a process of arranging a pointing object on a screen based on the reference point is performed.
請求項1又は2において、
前記指示オブジェクト制御部が、
オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、スクリーン上の前記基準点と前記指示オブジェクトとの距離を変化させることを特徴とするプログラム。
In claim 1 or 2,
The pointing object control unit
A program for changing a distance between the reference point on the screen and the pointing object based on a distance between the first object in the object space and the bullet.
請求項1〜3のいずれかにおいて、
前記指示オブジェクト制御部が、
オブジェクト空間の第1のオブジェクトに対する弾の方向に基づいて、スクリーン上の前記基準点に対する前記指示オブジェクトの方向を変化させることを特徴とするプログラム。
In any one of Claims 1-3,
The pointing object control unit
A program for changing a direction of the pointing object with respect to the reference point on a screen based on a direction of a bullet with respect to a first object in an object space.
画像生成処理を行うプログラムであって、
オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、
オブジェクト空間の第1のオブジェクトと弾との距離、第1のオブジェクトに対する弾の方向、及び所与の基準点に基づいて、指示オブジェクトをオブジェクト空間に配置する処理を行う指示オブジェクト制御部と、
前記指示オブジェクトを含む画像を生成する処理を行う描画部として、コンピュータを機能させ、
前記指示オブジェクト制御部が、
オブジェクト空間の仮想カメラの視点位置に基づいて基準点を設定し、当該基準点に基づいて前記指示オブジェクトを配置する処理を行うことを特徴とするプログラム。
A program for performing image generation processing,
A movement process for moving the first object in the object space based on the input information of the input unit, and a movement process for moving the bullets fired from the second object to the first object in the object space are performed. A movement processing unit;
A pointing object control unit that performs processing for placing the pointing object in the object space based on the distance between the first object and the bullet in the object space, the direction of the bullet relative to the first object, and a given reference point;
As a drawing unit that performs a process of generating an image including the pointing object, the computer functions.
The pointing object control unit
A program characterized in that a reference point is set based on a viewpoint position of a virtual camera in an object space, and a process of arranging the pointing object based on the reference point is performed.
画像生成処理を行うプログラムであって、
オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、
オブジェクト空間の第1のオブジェクトと弾との距離、第1のオブジェクトに対する弾の方向、及び所与の基準点に基づいて、指示オブジェクトをオブジェクト空間に配置する処理を行う指示オブジェクト制御部と、
前記指示オブジェクトを含む画像を生成する処理を行う描画部として、コンピュータを機能させ、
前記指示オブジェクト制御部が、
オブジェクト空間の第1のオブジェクトの位置に基づいて基準点を設定し、当該基準点に基づいて前記指示オブジェクトを配置する処理を行うことを特徴とするプログラム。
A program for performing image generation processing,
A movement process for moving the first object in the object space based on the input information of the input unit, and a movement process for moving the bullets fired from the second object to the first object in the object space are performed. A movement processing unit;
A pointing object control unit that performs processing for placing the pointing object in the object space based on the distance between the first object and the bullet in the object space, the direction of the bullet relative to the first object, and a given reference point;
As a drawing unit that performs a process of generating an image including the pointing object, the computer functions.
The pointing object control unit
A program characterized in that a reference point is set based on the position of the first object in the object space, and a process of arranging the pointing object based on the reference point is performed.
請求項5又は6において、
前記指示オブジェクト制御部が、
オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、オブジェクト空間の前記基準点と前記指示オブジェクトとの距離を変化させることを特徴とするプログラム。
In claim 5 or 6,
The pointing object control unit
A program that changes the distance between the reference point in the object space and the pointing object based on the distance between the first object in the object space and the bullet.
請求項5〜7のいずれかにおいて、
前記指示オブジェクト制御部が、
オブジェクト空間の第1のオブジェクトに対する弾の方向に基づいて、オブジェクト空間の前記基準点に対する前記指示オブジェクトの方向を変化させることを特徴とするプログラム。
In any one of Claims 5-7,
The pointing object control unit
A program for changing the direction of the pointing object with respect to the reference point in the object space based on the direction of the bullet with respect to the first object in the object space.
請求項5〜8のいずれかにおいて、
前記指示オブジェクト制御部が、
オブジェクト空間の所定ボリューム内において、前記指示オブジェクトを配置することを特徴とするプログラム。
In any one of Claims 5-8,
The pointing object control unit
A program characterized in that the pointing object is arranged in a predetermined volume of an object space.
請求項5〜9のいずれかにおいて、
前記指示オブジェクト制御部が、
前記仮想カメラから見て前記指示オブジェクトを遮蔽する遮蔽物オブジェクトが存在する場合には、仮想カメラに対して当該遮蔽物オブジェクトよりも前に、前記指示オブジェクトを配置することを特徴とするプログラム。
In any one of Claims 5-9,
The pointing object control unit
When there is a shielding object that shields the pointing object when viewed from the virtual camera, the pointing object is arranged in front of the shielding object with respect to the virtual camera.
請求項5〜10のいずれかにおいて、
前記描画部が、
立体視のための左目用仮想カメラから見える前記指示オブジェクトを含む左目用画像と、立体視のための右目用仮想カメラから見える前記指示オブジェクトを含む右目用画像とを生成し、当該左目用画像と当該右目用画像とを合成して立体視用画像を生成する処理を行うことを特徴とするプログラム。
In any one of Claims 5-10,
The drawing unit
Generating a left-eye image including the pointing object visible from the left-eye virtual camera for stereoscopic viewing and a right-eye image including the pointing object visible from the right-eye virtual camera for stereoscopic viewing; A program for performing processing for generating a stereoscopic image by combining the right-eye image.
請求項1〜11のいずれかにおいて、
前記指示オブジェクト制御部が、
前記オブジェクト空間の第1のオブジェクトと弾との距離に基づいて、前記指示オブジェクトの大きさ、形状、模様の少なくとも1つを変化させることを特徴とするプログラム。
In any one of Claims 1-11,
The pointing object control unit
A program that changes at least one of a size, a shape, and a pattern of the pointing object based on a distance between the first object in the object space and a bullet.
請求項1〜12のいずれかにおいて、
前記弾が前記第1のオブジェクトにヒットしたか否かを判定するヒット判定部と、
前記弾が前記第1のオブジェクトにヒットしたと判定された場合に、ダメージ演出処理を行うダメージ演出処理部として、コンピュータを更に機能させることを特徴とするプログラム。
In any one of Claims 1-12,
A hit determination unit for determining whether the bullet has hit the first object;
A program that further causes a computer to function as a damage effect processing unit that performs a damage effect process when it is determined that the bullet has hit the first object.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜13のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 13 is stored. 画像生成処理を行う端末であって、
オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、
オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と、スクリーンの所与の基準点と基づいて、指示オブジェクトをスクリーン上に配置する処理を行う指示オブジェクト制御部と、
前記指示オブジェクトを含む画像を生成する処理を行う描画部とを含み、
前記指示オブジェクト制御部が、
スクリーンの中心位置を基準点とし、当該基準点に基づいて指示オブジェクトをスクリーン上に配置する処理を行うことを特徴とする端末。
A terminal that performs image generation processing,
A movement process for moving the first object in the object space based on the input information of the input unit, and a movement process for moving the bullets fired from the second object to the first object in the object space are performed. A movement processing unit;
A pointing object control unit that performs processing for arranging a pointing object on the screen based on a distance between the first object and the bullet in the object space, a bullet direction with respect to the first object, and a given reference point of the screen; ,
A drawing unit that performs processing for generating an image including the pointing object,
The pointing object control unit
A terminal characterized in that the center position of the screen is used as a reference point, and a process of arranging a pointing object on the screen based on the reference point is performed.
画像生成処理を行う端末であって、
オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、
オブジェクト空間の第1のオブジェクトと弾との距離及び第1のオブジェクトに対する弾の方向と、スクリーンの所与の基準点と基づいて、指示オブジェクトをスクリーン上に配置する処理を行う指示オブジェクト制御部と、
前記指示オブジェクトを含む画像を生成する処理を行う描画部とを含み、
前記指示オブジェクト制御部が、
第1のオブジェクトの表示位置に基づいて基準点を設定し、当該基準点に基づいて指示オブジェクトをスクリーン上に配置する処理を行うことを特徴とする端末。
A terminal that performs image generation processing,
A movement process for moving the first object in the object space based on the input information of the input unit, and a movement process for moving the bullets fired from the second object to the first object in the object space are performed. A movement processing unit;
A pointing object control unit that performs processing for arranging a pointing object on the screen based on a distance between the first object and the bullet in the object space, a bullet direction with respect to the first object, and a given reference point of the screen; ,
A drawing unit that performs processing for generating an image including the pointing object,
The pointing object control unit
A terminal characterized in that a reference point is set based on a display position of a first object, and a process of arranging a pointing object on a screen based on the reference point is performed.
画像生成処理を行う端末であって、
オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、
オブジェクト空間の第1のオブジェクトと弾との距離、第1のオブジェクトに対する弾の方向、及び所与の基準点に基づいて、指示オブジェクトをオブジェクト空間に配置する処理を行う指示オブジェクト制御部と、
前記指示オブジェクトを含む画像を生成する処理を行う描画部とを含み、
前記指示オブジェクト制御部が、
オブジェクト空間の仮想カメラの視点位置に基づいて基準点を設定し、当該基準点に基づいて前記指示オブジェクトを配置する処理を行うことを特徴とする端末。
A terminal that performs image generation processing,
A movement process for moving the first object in the object space based on the input information of the input unit, and a movement process for moving the bullets fired from the second object to the first object in the object space are performed. A movement processing unit;
A pointing object control unit that performs processing for placing the pointing object in the object space based on the distance between the first object and the bullet in the object space, the direction of the bullet relative to the first object, and a given reference point;
A drawing unit that performs processing for generating an image including the pointing object,
The pointing object control unit
A terminal characterized in that a reference point is set based on a viewpoint position of a virtual camera in an object space, and a process of arranging the pointing object based on the reference point is performed.
画像生成処理を行う端末であって、
オブジェクト空間において入力部の入力情報に基づいて第1のオブジェクトを移動させる移動処理と、前記オブジェクト空間において第2のオブジェクトから第1のオブジェクトに対して発射された弾を移動させる移動処理とを行う移動処理部と、
オブジェクト空間の第1のオブジェクトと弾との距離、第1のオブジェクトに対する弾の方向、及び所与の基準点に基づいて、指示オブジェクトをオブジェクト空間に配置する処理を行う指示オブジェクト制御部と、
前記指示オブジェクトを含む画像を生成する処理を行う描画部とを含み、
前記指示オブジェクト制御部が、
オブジェクト空間の第1のオブジェクトの位置に基づいて基準点を設定し、当該基準点に基づいて前記指示オブジェクトを配置する処理を行うことを特徴とする端末。
A terminal that performs image generation processing,
A movement process for moving the first object in the object space based on the input information of the input unit, and a movement process for moving the bullets fired from the second object to the first object in the object space are performed. A movement processing unit;
A pointing object control unit that performs processing for placing the pointing object in the object space based on the distance between the first object and the bullet in the object space, the direction of the bullet relative to the first object, and a given reference point;
A drawing unit that performs processing for generating an image including the pointing object,
The pointing object control unit
A terminal characterized in that a reference point is set based on a position of a first object in an object space, and a process of arranging the pointing object based on the reference point is performed.
JP2010081531A 2010-03-31 2010-03-31 Program, information storage medium and terminal Withdrawn JP2011212123A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010081531A JP2011212123A (en) 2010-03-31 2010-03-31 Program, information storage medium and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010081531A JP2011212123A (en) 2010-03-31 2010-03-31 Program, information storage medium and terminal

Publications (1)

Publication Number Publication Date
JP2011212123A true JP2011212123A (en) 2011-10-27

Family

ID=44942532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010081531A Withdrawn JP2011212123A (en) 2010-03-31 2010-03-31 Program, information storage medium and terminal

Country Status (1)

Country Link
JP (1) JP2011212123A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013202223A (en) * 2012-03-28 2013-10-07 Square Enix Co Ltd Game device
JP2016214888A (en) * 2016-06-10 2016-12-22 グリー株式会社 Game program, information processing method, and information processor
JP2016218210A (en) * 2015-05-19 2016-12-22 株式会社デンソー Optical scanner
JP2018094189A (en) * 2016-12-15 2018-06-21 株式会社コナミデジタルエンタテインメント Display control device and program
CN108854068A (en) * 2018-06-27 2018-11-23 网易(杭州)网络有限公司 Display control method and device, storage medium and terminal in game
JP2019179434A (en) * 2018-03-30 2019-10-17 株式会社コロプラ Program, information processing device, and information processing method
JP6829298B1 (en) * 2019-10-18 2021-02-10 株式会社スクウェア・エニックス Programs, computer equipment, and control methods
JP2022521311A (en) * 2019-02-22 2022-04-06 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド Information processing methods, processing devices, electronic devices and storage media
JP2022521324A (en) * 2019-02-22 2022-04-06 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド Game character control methods, devices, equipment and storage media
JP2022523281A (en) * 2020-01-27 2022-04-22 スクウェア エニックス、リミテッド Graphical indicator for video games

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013202223A (en) * 2012-03-28 2013-10-07 Square Enix Co Ltd Game device
JP2016218210A (en) * 2015-05-19 2016-12-22 株式会社デンソー Optical scanner
JP2016214888A (en) * 2016-06-10 2016-12-22 グリー株式会社 Game program, information processing method, and information processor
JP2018094189A (en) * 2016-12-15 2018-06-21 株式会社コナミデジタルエンタテインメント Display control device and program
JP2019179434A (en) * 2018-03-30 2019-10-17 株式会社コロプラ Program, information processing device, and information processing method
JP7121518B2 (en) 2018-03-30 2022-08-18 株式会社コロプラ Program, information processing device, and information processing method
CN108854068A (en) * 2018-06-27 2018-11-23 网易(杭州)网络有限公司 Display control method and device, storage medium and terminal in game
JP2022521324A (en) * 2019-02-22 2022-04-06 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド Game character control methods, devices, equipment and storage media
JP2022521311A (en) * 2019-02-22 2022-04-06 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド Information processing methods, processing devices, electronic devices and storage media
JP7256283B2 (en) 2019-02-22 2023-04-11 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド Information processing method, processing device, electronic device and storage medium
JP7256284B2 (en) 2019-02-22 2023-04-11 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド GAME CHARACTER CONTROL METHOD, DEVICE, DEVICE AND STORAGE MEDIUM
JP2021068057A (en) * 2019-10-18 2021-04-30 株式会社スクウェア・エニックス Program, computer apparatus, and control method
JP6829298B1 (en) * 2019-10-18 2021-02-10 株式会社スクウェア・エニックス Programs, computer equipment, and control methods
JP2022523281A (en) * 2020-01-27 2022-04-22 スクウェア エニックス、リミテッド Graphical indicator for video games
US11617950B2 (en) 2020-01-27 2023-04-04 Square Enix Ltd. Graphical indicator for video games

Similar Documents

Publication Publication Date Title
JP2011212123A (en) Program, information storage medium and terminal
JP5300777B2 (en) Program and image generation system
US8142277B2 (en) Program, game system, and movement control method for assisting a user to position a game object
US8535154B2 (en) Information storage medium and image generation device
CN104380347B (en) Video processing equipment, method for processing video frequency and processing system for video
US20110245942A1 (en) Information storage medium, terminal, image generation method, and network system
US8574071B2 (en) Information storage medium and image generation system
JP6438207B2 (en) Image generation system and program
WO2018224847A2 (en) Mixed reality gaming system
US9789401B2 (en) Game device, game system, and information storage medium
US9345972B2 (en) Information storage medium, image generation system, and image generation method
US8514255B2 (en) Information storage medium, image control device, and image control method
JP2011215946A (en) Program, information storage medium, and image generation device
JP2012210243A (en) Program, information storage medium, terminal, and server
JP2012212237A (en) Image generation system, server system, program, and information storage medium
JP5939733B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5443129B2 (en) Program and network system
JP2011053838A (en) Program, information storage medium, and image generation device
JP6161749B2 (en) Video processing apparatus, video processing method, and video processing system
JP2012215934A (en) Program, information storage medium, terminal, and server
JP2018171320A (en) Simulation system and program
JP5698028B2 (en) Program and stereoscopic image generation apparatus
JP5649846B2 (en) Program and image generation system
JP2018064836A (en) Virtual game device
JP5809428B2 (en) Game system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604