JP2009245386A - Program, storage medium, and computer device - Google Patents

Program, storage medium, and computer device Download PDF

Info

Publication number
JP2009245386A
JP2009245386A JP2008094039A JP2008094039A JP2009245386A JP 2009245386 A JP2009245386 A JP 2009245386A JP 2008094039 A JP2008094039 A JP 2008094039A JP 2008094039 A JP2008094039 A JP 2008094039A JP 2009245386 A JP2009245386 A JP 2009245386A
Authority
JP
Japan
Prior art keywords
effect object
effect
point
camera position
planar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008094039A
Other languages
Japanese (ja)
Other versions
JP5087453B2 (en
Inventor
Koji Izumaru
幸侍 伊豆丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2008094039A priority Critical patent/JP5087453B2/en
Publication of JP2009245386A publication Critical patent/JP2009245386A/en
Application granted granted Critical
Publication of JP5087453B2 publication Critical patent/JP5087453B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program capable of enhancing visual effects, while expressing determination of the optimal arrangement position of an effect object in a pseudo manner, expressing the appearance that light of the sun, and the like, shines on the water surface, using a simple processing, within a game space, such as action game. <P>SOLUTION: In a virtual three-dimensional game space where a water surface object W is arranged, a right triangle ABC is created by a camera position A; a point opposite to the camera position without sandwiching the water surface object W; and a point C opposite to the point B sandwiching the water surface object W, internal ratio of a segment BC which uses intersection with the water surface object W as an internally dividing point is calculated, and a position for internally dividing a segment AC, using the same ratio as the internal ratio is determined as the arrangement position of the effect object H. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、遊技者が操作するキャラクタが敵キャラクタを倒していくアクションゲーム等のゲームを実行するプログラム、記憶媒体およびコンピュータ装置に関する。   The present invention relates to a program, a storage medium, and a computer device for executing a game such as an action game in which a character operated by a player defeats an enemy character.

海や湖等を構成する面状の半透明オブジェクト(水面オブジェクト)が存在する三次元空間で、水中の様子を描画する場合、リアリティのあるゲーム表現を行うべく、太陽等の光が水面に差し込む様子を擬似的に表した水面効果の図形(効果オブジェクト)も同時に描画される。従来、この図形の三次元空間での配置位置は、簡易な処理によって決定されていた。例えば、水面オブジェクト上でカメラ位置(又はプレイヤキャラクタの位置)の真上にある点からカメラ視線に平行な方向に所定距離だけ前方にある水面オブジェクト上の位置を効果オブジェクトの配置位置として決定しており、カメラ位置(又はプレイヤキャラクタの位置)がどの深さにある場合も、所定距離は固定値であった。この図形は、板ポリゴン等で形成されている(特許文献1)。   When drawing underwater conditions in a three-dimensional space with planar semi-transparent objects (water surface objects) that make up the sea, lakes, etc., light from the sun or the like is inserted into the water surface in order to create a realistic game expression. A water effect figure (effect object) that simulates the situation is also drawn. Conventionally, the position of the figure in the three-dimensional space has been determined by a simple process. For example, the position on the water surface object that is a predetermined distance in the direction parallel to the camera line of sight from the point directly above the camera position (or the position of the player character) on the water surface object is determined as the placement position of the effect object. The predetermined distance is a fixed value regardless of the depth of the camera position (or the position of the player character). This figure is formed of a plate polygon or the like (Patent Document 1).

特許4015644号Patent No. 4015644

通常、カメラ位置が浅い場合には、水面に近いため差し込む太陽の光の量は多く、効果オブジェクトの位置は近くなるはずである。一方、カメラ位置が深い場合には、水面から遠いため差し込む太陽の光の量は少なく、効果オブジェクトの位置は遠くなるはずである。しかしながら、上述のような簡易な処理では、効果オブジェクトがカメラ等から常に同じ位置にあり変化がないことから、遊技者に違和感を与え、リアリティに欠けていた。水面に差し込む太陽等の光は自然現象であって、規則性のないものであるのに対し、上述の処理では描画が画一的になり過ぎて遊技者に与える視覚的な効果が失われていた。   Normally, when the camera position is shallow, the amount of sun light to be inserted is large because it is close to the water surface, and the position of the effect object should be close. On the other hand, when the camera position is deep, it is far from the water surface, so the amount of sun light to be inserted is small, and the position of the effect object should be far. However, in the simple processing as described above, since the effect object is always at the same position from the camera or the like and does not change, the player feels uncomfortable and lacks reality. The sun or other light that enters the surface of the water is a natural phenomenon and has no regularity. On the other hand, the above-mentioned processing is too uniform and the visual effect on the player is lost. It was.

一方、効果オブジェクトはゲームの進行に直接関わらないため、効果オブジェクトの配置処理を複雑な処理にするべきではなく、簡単な処理で光の視覚的な効果を出すべきである。   On the other hand, since the effect object is not directly related to the progress of the game, the arrangement process of the effect object should not be a complicated process, and a visual effect of light should be produced with a simple process.

この発明は、ゲーム空間にリアリティを与える効果オブジェクト(水面に差し込む太陽の光等)の最適な配置位置を簡単な処理によって決定し、視覚的な効果を向上させることのできるプログラムおよびこのプログラムを記憶した記憶媒体、このプログラムを実行するコンピュータ装置を提供することを目的とする。   The present invention determines a suitable arrangement position of an effect object that gives reality to the game space (such as sunlight that is inserted into the water surface) by simple processing, and stores the program. An object of the present invention is to provide a storage medium and a computer device that executes the program.

請求項1の発明は、コンピュータを、仮想の三次元のゲーム空間内に面状のオブジェクトを生成する面状オブジェクト生成手段、前記面状オブジェクトの一方の面側に接して配置され、視覚的効果をプレイヤに付与する効果オブジェクトを生成する効果オブジェクト生成手段、前記面状オブジェクトの前記一方の面側に設定された仮想のカメラ位置から前記面状オブジェクトおよび効果オブジェクトを撮影した画像を作成する画像作成手段、として機能させるプログラムであって、前記画像作成手段は、前記カメラ位置を移動させる手段を含み、前記効果オブジェクト生成手段は、前記カメラ位置と前記面状オブジェクトとの距離に応じて前記効果オブジェクトの位置を決定することを特徴とする。   According to the first aspect of the present invention, the computer is arranged in contact with one surface side of the planar object, the planar object generating means for generating a planar object in the virtual three-dimensional game space, and the visual effect An effect object generating means for generating an effect object for providing a player with an image, and an image creation for creating an image of the planar object and the effect object from a virtual camera position set on the one surface side of the planar object The image creating means includes means for moving the camera position, and the effect object generating means is configured to change the effect object according to a distance between the camera position and the planar object. The position of is determined.

請求項2の発明は、請求項1の発明において、前記効果オブジェクト生成手段は、前記面状オブジェクトの他方の面側の空間内に、前記カメラ位置と特定の位置関係となる点を効果オブジェクト制御点として設定し、前記カメラ位置とこの効果オブジェクト制御点とを結ぶ直線と、前記面状オブジェクトとの交点に前記効果オブジェクトを配置し、前記カメラ位置が移動したとき、前記効果オブジェクト制御点を前記特定の位置関係が維持されるように移動させることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the effect object generating means controls the effect object control to a point having a specific positional relationship with the camera position in the space on the other surface side of the planar object. Set as a point, the effect object is arranged at the intersection of the straight line connecting the camera position and the effect object control point and the planar object, and when the camera position is moved, the effect object control point is It is characterized by being moved so that a specific positional relationship is maintained.

請求項3の発明は、請求項2の発明において、前記効果オブジェクト生成手段は、前記カメラ位置A、前記カメラの視線の目標点である注視点Pを含み前記面状オブジェクトに対して垂直な平面を想定し、この平面上で前記カメラ位置Aを通る直線h上における前記一方の面側にある所定位置の点B、点Bを通過して前記他方の面側に伸びる直線v上の所定位置の点Cを設定し、この点Cを前記効果オブジェクト制御点とすることを特徴とする。   According to a third aspect of the present invention, in the second aspect, the effect object generating means includes a plane perpendicular to the planar object including the camera position A and a gazing point P that is a target point of the line of sight of the camera. And a predetermined position on the straight line v passing through the point B on the straight line h passing through the camera position A and extending on the other surface side through the point B. The point C is set, and this point C is set as the effect object control point.

請求項4の発明は、請求項3の発明において、前記効果オブジェクト生成手段は、前記注視点Pを通る前記面状オブジェクトの垂線を前記直線vとし、この直線vと前記直線hとの交点を点Bとすることを特徴とする。   According to a fourth aspect of the present invention, in the third aspect of the invention, the effect object generating means sets the perpendicular of the planar object passing through the gazing point P as the straight line v, and the intersection of the straight line v and the straight line h. The point B is a feature.

請求項5の発明は、請求項3、4の発明において、前記効果オブジェクト生成手段は、前記カメラ位置Aを通る前記面状オブジェクトに平行な直線を前記直線hとし、前記面状オブジェクトによる前記直線vの一部区間である線分BCの内分比率を、前記カメラ位置Aと点Cとを結ぶ線分に適用して内分点を求めることにより、前記カメラ位置と効果オブジェクト制御点とを結ぶ直線と前記面状オブジェクトとの交点を求めることを特徴とする。   According to a fifth aspect of the present invention, in the third and fourth aspects of the invention, the effect object generating means sets a straight line parallel to the planar object passing through the camera position A as the straight line h, and the straight line formed by the planar object. By applying the internal division ratio of the line segment BC, which is a partial section of v, to the line segment connecting the camera position A and the point C, the internal division point is obtained, thereby obtaining the camera position and the effect object control point. It is characterized in that an intersection point between the connecting straight line and the planar object is obtained.

請求項6の発明は、請求項1〜5の発明において、前記効果オブジェクト生成手段は、前記効果オブジェクトを、前記カメラ位置および前記効果オブジェクト制御点を結ぶ直線と前記面状オブジェクトとの交点に配置することに代えて、前記カメラ位置および前記効果オブジェクト制御点を結ぶ直線と前記面状オブジェクトとの交点から前記一方の面側に微小距離だけ離して配置することを特徴とする。   According to a sixth aspect of the present invention, in the first to fifth aspects of the present invention, the effect object generating means arranges the effect object at an intersection of the straight line connecting the camera position and the effect object control point and the planar object. Instead, it is characterized in that it is arranged at a small distance away from the intersection of the straight line connecting the camera position and the effect object control point and the planar object on the one surface side.

請求項7の発明は、請求項1〜6の発明において、前記面状オブジェクト生成手段は、面状オブジェクトとして水面を表す半透明のオブジェクトを生成する手段であり、前記効果オブジェクト生成手段は、効果オブジェクトとして、光が水面に差し込む様子を擬似的に表す半透明のオブジェクトを生成する手段であることを特徴とする。   The invention of claim 7 is the invention of claims 1 to 6, wherein the planar object generating means is a means for generating a translucent object representing a water surface as a planar object, and the effect object generating means is an effect. The object is a means for generating a translucent object that artificially represents a state in which light is inserted into the water surface.

請求項8の発明は、請求項1〜7の発明において、前記効果オブジェクト生成手段は、前記カメラ位置と前記面状オブジェクトとの距離に応じて、前記効果オブジェクトの生成の有無および/または前記効果オブジェクトの外観サイズを制御することを特徴とする。   According to an eighth aspect of the present invention, in the first to seventh aspects of the present invention, the effect object generating means generates and / or generates the effect object according to a distance between the camera position and the planar object. It is characterized by controlling the appearance size of an object.

請求項9の発明は、請求項1乃至請求項8のいずれかに記載のプログラムを記憶したコンピュータ読み取り可能な記憶媒体である。   The invention according to claim 9 is a computer-readable storage medium storing the program according to any one of claims 1 to 8.

請求項10の発明は、請求項1乃至請求項8のいずれかに記載のプログラムを読み込んで実行するコンピュータ装置である。   A tenth aspect of the present invention is a computer device that reads and executes the program according to any one of the first to eighth aspects.

この発明によれば、ゲーム空間にリアリティを与える効果オブジェクトの最適な配置位置をカメラ位置と面状オブジェクトとの距離によって決定し、遊技者に与える視覚的な効果を向上させることができる。例えば、水中のゲーム空間の様子を描画する場合、カメラ位置と水面を形成する半透明オブジェクトとの距離によって水面に差し込む太陽の光等を表す効果オブジェクトの配置位置を決定する。これにより、カメラの移動に従って差し込む太陽の光等を表す効果オブジェクトの位置も変化し、リアルな水中画像を実現することができる。   According to this invention, the optimal arrangement position of the effect object that gives the reality to the game space is determined by the distance between the camera position and the planar object, and the visual effect given to the player can be improved. For example, when drawing the state of the underwater game space, the arrangement position of the effect object representing the sun light or the like inserted into the water surface is determined by the distance between the camera position and the translucent object forming the water surface. Thereby, the position of the effect object representing the sun light or the like to be inserted changes according to the movement of the camera, and a real underwater image can be realized.

≪ゲームシステムの説明≫
図面を参照して、本発明が適用されるゲームシステム1について説明する。
図1は、ゲームシステム1を説明するための外観図である。以下、据置型ゲーム装置を一例にして、本発明のゲームシステム1について説明する。
≪Description of game system≫
A game system 1 to which the present invention is applied will be described with reference to the drawings.
FIG. 1 is an external view for explaining the game system 1. Hereinafter, the game system 1 of the present invention will be described using a stationary game apparatus as an example.

図1において、ゲームシステム1は、スピーカ2aおよびディスプレイ2bを備えた家庭用テレビジョン受像機等のモニタ装置2に、接続コードを介して接続される据置型ゲーム装置(以下、単にゲーム装置と記載する)3および当該ゲーム装置3に操作情報を与えるコントローラ7によって構成される。ゲーム装置3には、交換可能な記憶媒体の一例である光ディスク4がセットされるとともに、ゲームのセーブデータ等を不揮発的に記憶する着脱自在のメモリカード5が必要に応じて装着される。ゲーム装置3には、ゲームの主電源である電源ON/OFFスイッチ、光ディスク4の着脱を行うイジェクトスイッチが設けられている。   In FIG. 1, a game system 1 includes a stationary game device (hereinafter simply referred to as a game device) connected to a monitor device 2 such as a home television receiver having a speaker 2a and a display 2b via a connection cord. 3) and a controller 7 for giving operation information to the game apparatus 3. An optical disk 4 that is an example of a replaceable storage medium is set in the game apparatus 3 and a removable memory card 5 that stores game save data and the like in a non-volatile manner is mounted as necessary. The game apparatus 3 is provided with a power ON / OFF switch which is a main power source of the game, and an eject switch for attaching / detaching the optical disk 4.

コントローラ7は、遊技者によって操作され、その装置内容を示す操作信号をゲーム装置3に対して送信する装置である。ゲーム装置3は、コントローラ7から送信されてくる操作信号に応じてゲームを開始・終了させ、ゲームを進行させる等の制御を行う。コントローラ7とゲーム装置3との通信は、無線で行われる。通信方式としては、たとえばBluetooth(ブルートゥース)(登録商標)の方式が用いられる。この通信のための通信ユニットとしては、コントローラ7は通信部75(図4参照)を備え、ゲーム装置3は受信ユニット36a(図2参照)を備えている。なお、1台のゲーム装置3に対して1台〜4台のコントローラ7を無線接続することが可能である。すなわち、ゲーム装置3は、4台までの異なるコントローラ7から送られてくる操作信号をそれぞれ識別して受信する機能を備えている。   The controller 7 is a device that is operated by the player and transmits an operation signal indicating the content of the device to the game device 3. The game apparatus 3 performs control such as starting and ending the game in accordance with the operation signal transmitted from the controller 7 and advancing the game. Communication between the controller 7 and the game apparatus 3 is performed wirelessly. As the communication method, for example, the Bluetooth (registered trademark) method is used. As a communication unit for this communication, the controller 7 includes a communication unit 75 (see FIG. 4), and the game apparatus 3 includes a receiving unit 36a (see FIG. 2). One to four controllers 7 can be wirelessly connected to one game apparatus 3. That is, the game apparatus 3 has a function of identifying and receiving operation signals transmitted from up to four different controllers 7.

なお、モニタ装置2の左右上面には、コントローラ7に対してモニタ装置2の位置を知らせるための発光部8L,Rが取り付けられている。発光部8L,Rは、それぞれ赤外線LEDを内蔵しており、ゲーム装置3の動作中は赤外線で発光する。   Light emitting units 8L and 8R are attached to the left and right upper surfaces of the monitor device 2 to inform the controller 7 of the position of the monitor device 2. The light emitting units 8L and R each incorporate an infrared LED, and emit light with infrared rays while the game apparatus 3 is in operation.

次に、図2のブロック図を参照して、ゲーム装置3の機能的構成について説明する。図2において、ゲーム装置3は、各種プログラムを実行する例えばリスク(RISC)CPU(セントラルプロセッシングユニット)30を備える。CPU30は、図示しないブートROMに記憶された起動プログラムを実行し、メインメモリ33等のメモリの初期化等を行った後、光ディスク4に記憶されているゲームプログラムを実行し、そのゲームプログラムに応じたゲーム処理等を行うものである。CPU30には、メモリコントローラ31を介して、GPU(GraphicsProcessingUnit)32、メインメモリ33、DSP(DigitalSignalProcessor)34、およびARAM(AudioRAM)35が接続される。また、メモリコントローラ31には、所定のバスを介して、コントローラI/F(インターフェース)36、ビデオI/F37、外部メモリI/F38、オーディオI/F39、およびディスクI/F41が接続され、それぞれ受信ユニット36a、モニタ装置2、外部メモリカード5、スピーカ2a、およびディスクドライブ40が接続されている。   Next, the functional configuration of the game apparatus 3 will be described with reference to the block diagram of FIG. In FIG. 2, the game apparatus 3 includes, for example, a risk (RISC) CPU (Central Processing Unit) 30 that executes various programs. The CPU 30 executes a boot program stored in a boot ROM (not shown), initializes a memory such as the main memory 33, and the like, and then executes a game program stored in the optical disc 4 according to the game program. Game processing and the like. A GPU (Graphics Processing Unit) 32, a main memory 33, a DSP (Digital Signal Processor) 34, and an ARAM (Audio RAM) 35 are connected to the CPU 30 via a memory controller 31. The memory controller 31 is connected to a controller I / F (interface) 36, a video I / F 37, an external memory I / F 38, an audio I / F 39, and a disk I / F 41 via a predetermined bus. The receiving unit 36a, the monitor device 2, the external memory card 5, the speaker 2a, and the disk drive 40 are connected.

GPU32は、CPU30の命令に基づいて画像処理を行うものであり、例えば、3Dグラフィックスの表示に必要な計算処理を行う半導体チップで構成される。GPU32は、図示しない画像処理専用のメモリやメインメモリ33の一部の記憶領域を用いて三次元の仮想空間(ゲーム空間)の各コマの画像(公知の透視投影法による二次元画像)を生成し、この画像にカーソル等の画像を合成する等して生成したゲーム画像をメモリコントローラ31およびビデオI/F37を介してモニタ装置2(ディスプレイ2b)に出力する。
メインメモリ33は、CPU30で使用される記憶領域であって、光ディスク4から読み出されたゲームプログラムや各種データ等を適宜記憶する。
The GPU 32 performs image processing based on a command from the CPU 30, and is configured by a semiconductor chip that performs calculation processing necessary for displaying 3D graphics, for example. The GPU 32 generates an image of each frame (two-dimensional image by a known perspective projection method) in a three-dimensional virtual space (game space) using a memory dedicated to image processing (not shown) and a partial storage area of the main memory 33. Then, a game image generated by combining an image such as a cursor with this image is output to the monitor device 2 (display 2b) via the memory controller 31 and the video I / F 37.
The main memory 33 is a storage area used by the CPU 30 and appropriately stores a game program read from the optical disc 4 and various data.

DSP34は、ゲームプログラム実行時にCPU30において生成されるサウンドデータ等を処理するものであり、そのサウンドデータ等を記憶するためのARAM35が接続される。ARAM35は、DSP34が所定の処理(例えば、先読みしておいたゲームプログラムやサウンドデータの記憶)を行う際に用いられる。DSP34は、ARAM35に記憶されたサウンドデータを読み出し、メモリコントローラ31およびオーディオI/F39を介してモニタ装置2に備えるスピーカ2aに出力させる。   The DSP 34 processes sound data generated by the CPU 30 when the game program is executed, and is connected to an ARAM 35 for storing the sound data. The ARAM 35 is used when the DSP 34 performs a predetermined process (for example, storing a pre-read game program or sound data). The DSP 34 reads the sound data stored in the ARAM 35 and outputs the sound data to the speaker 2 a included in the monitor device 2 via the memory controller 31 and the audio I / F 39.

メモリコントローラ31は、データ転送を統括的に制御するものであり、上述した各種I/Fが接続される。受信ユニット36aは、コントローラI/F36を介してメモリコントローラ31に接続される。上述したように受信ユニット36aは、コントローラ7からの送信データを受信し、コントローラI/F36およびメモリコントローラ31を介して当該送信データをCPU30へ出力する。ビデオI/F37には、モニタ装置2が接続される。外部メモリI/F38には、外部メモリカード5が接続され、その外部メモリカード5に設けられたバックアップメモリ等とアクセス可能となる。   The memory controller 31 controls the overall data transfer and is connected to the various I / Fs described above. The receiving unit 36a is connected to the memory controller 31 via the controller I / F 36. As described above, the reception unit 36 a receives transmission data from the controller 7 and outputs the transmission data to the CPU 30 via the controller I / F 36 and the memory controller 31. The monitor device 2 is connected to the video I / F 37. An external memory card 5 is connected to the external memory I / F 38, and access to a backup memory or the like provided in the external memory card 5 becomes possible.

オーディオI/F39にはモニタ装置2に内蔵されるスピーカ2aが接続され、DSP34がARAM35から読み出したサウンドデータやディスクドライブ40から直接出力されるサウンドデータをスピーカ2aから出力可能に接続される。ディスクI/F41には、ディスクドライブ40が接続される。ディスクドライブ40は、所定の読み出し位置に配置された光ディスク4に記憶されたデータを読み出し、ゲーム装置3のバスやオーディオI/F39に出力する。
次に、図3を参照して、コントローラ7について説明する。
The audio I / F 39 is connected to a speaker 2a built in the monitor device 2 so that sound data read out from the ARAM 35 by the DSP 34 or sound data directly output from the disk drive 40 can be output from the speaker 2a. A disk drive 40 is connected to the disk I / F 41. The disk drive 40 reads data stored on the optical disk 4 arranged at a predetermined reading position, and outputs the data to the bus of the game apparatus 3 and the audio I / F 39.
Next, the controller 7 will be described with reference to FIG.

コントローラ7は、例えばプラスチック成型によって形成されたハウジング71を有している。ハウジング71は、その前後方向を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。   The controller 7 has a housing 71 formed by plastic molding, for example. The housing 71 has a substantially rectangular parallelepiped shape with the front-rear direction as a longitudinal direction, and is a size that can be gripped with one hand of an adult or a child as a whole.

ハウジング71上面の中央前面側に、十字キー72cが設けられる。この十字キー72cは、十字型の4方向プッシュスイッチであり、矢印で示す4つの方向(前後左右)に対応する操作部分が十字の突出片にそれぞれ90°間隔で配置される。遊技者によって十字キー72cのいずれかの方向の操作部が押下されると、その方向を示す操作信号が、コントローラ7からゲーム装置3に送信される。遊技者が十字キー72cを操作することにより、例えば、ゲーム空間に登場するキャラクタの移動方向を指示したり、カーソルの移動方向を指示したりすることができる。   A cross key 72 c is provided on the center front side of the upper surface of the housing 71. The cross key 72c is a cross-shaped four-direction push switch, and operation portions corresponding to four directions (front and rear, left and right) indicated by arrows are arranged on the cross-shaped projecting piece at intervals of 90 °. When the player presses the operation unit in any direction of the cross key 72 c, an operation signal indicating the direction is transmitted from the controller 7 to the game apparatus 3. When the player operates the cross key 72c, for example, the moving direction of the character appearing in the game space can be instructed, or the moving direction of the cursor can be instructed.

ハウジング71上面の十字キー72cより後側には、多数のボタンスイッチが設けられており、各ボタンがオンされると、対応する操作信号がコントローラ7からゲーム装置3へ送信される。これらのボタンスイッチのうち、最も前方(十字キー72c寄り)に設けられているものが、Aボタン72aである。   A large number of button switches are provided behind the cross key 72c on the top surface of the housing 71. When each button is turned on, a corresponding operation signal is transmitted from the controller 7 to the game apparatus 3. Among these button switches, the A button 72a is provided in the forefront (closer to the cross key 72c).

一方、ハウジング71下面には、凹部が形成されている。ハウジング71下面の凹部は、遊技者がハウジング71を把持したとき、この遊技者の人差し指や中指が位置するような位置に形成される。そして、上記凹部の後面側傾斜面には、ボタンスイッチ72bが設けられる。このボタンスイッチ72bは、Bボタンとして機能する操作部である。
これらAボタン72a、Bボタン72bは、ゲームプログラムにおいて、遊技者がゲームに対する主要な操作を行うボタンスイッチとして設定される。
On the other hand, a recess is formed on the lower surface of the housing 71. The recess on the lower surface of the housing 71 is formed at a position where the player's index finger or middle finger is positioned when the player holds the housing 71. A button switch 72b is provided on the rear inclined surface of the recess. The button switch 72b is an operation unit that functions as a B button.
These A button 72a and B button 72b are set as button switches for the player to perform major operations on the game in the game program.

なお、ハウジング71上面の十字キー72aより前面側に設けられているボタンスイッチ72hは、遠隔からゲーム装置3本体の電源をオン/オフする電源スイッチである。   The button switch 72h provided on the front side of the cross key 72a on the upper surface of the housing 71 is a power switch for remotely turning on / off the game apparatus 3 main body.

また、ハウジング71前面には、コントローラ7前方の画像を撮影するための撮像素子743(図4参照)が設けられている。撮像素子743は、撮像情報演算部74(図4参照)の一部を構成している。撮像素子743は、コントローラ7がモニタ装置2に向けて支持されているとき、モニタ装置2の上面に設けられた発光部8L,Rを撮影する。撮像情報演算部74は、撮像素子743における発光部8L,Rの撮影位置によってコントローラ7の向きを検出する。   In addition, an imaging element 743 (see FIG. 4) for capturing an image in front of the controller 7 is provided on the front surface of the housing 71. The imaging element 743 constitutes a part of the imaging information calculation unit 74 (see FIG. 4). When the controller 7 is supported toward the monitor device 2, the image sensor 743 images the light emitting units 8 </ b> L and R provided on the upper surface of the monitor device 2. The imaging information calculation unit 74 detects the orientation of the controller 7 based on the imaging positions of the light emitting units 8L and R in the imaging element 743.

次に、図4のブロック図を参照して、コントローラ7の内部構成について説明する。
図4において、コントローラ7は、上述した操作部72および撮像情報演算部74の他に、その内部に通信部75、加速度センサ701およびバイブレータ704を備えている。
Next, the internal configuration of the controller 7 will be described with reference to the block diagram of FIG.
In FIG. 4, the controller 7 includes a communication unit 75, an acceleration sensor 701, and a vibrator 704 in addition to the operation unit 72 and the imaging information calculation unit 74 described above.

撮像情報演算部74は、赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744を含んでいる。赤外線フィルタ741は、コアユニット70の前方から入射する光から赤外線のみを通過させる。レンズ742は、赤外線フィルタ741を透過した赤外線を集光して撮像素子743へ出射する。撮像素子743は、例えばCMOSセンサのような固体撮像素子であり、レンズ742が集光した赤外線を撮像する。したがって、撮像素子743は、赤外線フィルタ741を通過した赤外線だけを撮像して画像データを生成する。撮像素子743で生成された画像データは、画像処理回路744で処理される。具体的には、画像処理回路744は、撮像素子743から得られた画像データを処理して高輝度部分、すなわち発光部8L,Rからの光を検出し、それらの位置座標を示す座標データを通信部75へ出力する。   The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744. The infrared filter 741 allows only infrared rays to pass from light incident from the front of the core unit 70. The lens 742 condenses the infrared light that has passed through the infrared filter 741 and outputs the condensed infrared light to the image sensor 743. The image sensor 743 is a solid-state image sensor such as a CMOS sensor, for example, and images the infrared rays collected by the lens 742. Therefore, the image sensor 743 captures only the infrared light that has passed through the infrared filter 741 and generates image data. Image data generated by the image sensor 743 is processed by an image processing circuit 744. Specifically, the image processing circuit 744 processes the image data obtained from the image sensor 743 to detect light from the high-luminance portion, that is, the light from the light emitting units 8L and R, and generates coordinate data indicating their position coordinates. Output to the communication unit 75.

加速度センサ701は、コントローラ7の上下方向、左右方向および前後方向の3軸でそれぞれ加速度を検知する加速度センサである。なお、加速度センサ701は、必要な操作信号の種類によっては、上下方向、左右方向の2軸でそれぞれ加速度を検出する加速度センサが用いられてもかまわない。加速度センサ701が検知した加速度を示すデータは、通信部75へ出力される。なお、加速度センサ701は、典型的には静電容量式の加速度センサが用いられるが、他の方式の加速度センサやジャイロセンサを用いてもかまわない。   The acceleration sensor 701 is an acceleration sensor that detects acceleration on three axes of the controller 7 in the vertical direction, the horizontal direction, and the front-rear direction. The acceleration sensor 701 may be an acceleration sensor that detects acceleration on two axes in the vertical direction and the horizontal direction depending on the type of operation signal required. Data indicating the acceleration detected by the acceleration sensor 701 is output to the communication unit 75. The acceleration sensor 701 is typically a capacitance type acceleration sensor, but other types of acceleration sensors or gyro sensors may be used.

通信部75は、マイクロコンピュータ(MicroComputer:マイコン)751、メモリ752、無線モジュール753、およびアンテナ754を含んでいる。マイコン751は、処理の際にメモリ752を記憶領域として用いながら、送信データを無線送信する無線モジュール753を制御する。   The communication unit 75 includes a microcomputer (microcomputer) 751, a memory 752, a wireless module 753, and an antenna 754. The microcomputer 751 controls the wireless module 753 that wirelessly transmits transmission data while using the memory 752 as a storage area during processing.

操作部72からの操作信号(キーデータ)、加速度センサ701からの加速度信号(加速度データ)、および撮像情報演算部74からの座標データは、マイコン751に出力される。マイコン751は、入力した各データ(キーデータ、加速度データ、座標データ)を受信ユニット36aへ送信する送信データとして一時的にメモリ752に格納する。   An operation signal (key data) from the operation unit 72, an acceleration signal (acceleration data) from the acceleration sensor 701, and coordinate data from the imaging information calculation unit 74 are output to the microcomputer 751. The microcomputer 751 temporarily stores the input data (key data, acceleration data, coordinate data) in the memory 752 as transmission data to be transmitted to the receiving unit 36a.

ここで、通信部75から受信ユニット36aへの無線送信は、所定の周期毎に行われるが、ゲームの処理は1/60を単位として行われることが一般的であるので、それよりも短い周期で送信を行うことが必要となる。具体的には、ゲームの処理単位は16.7ms(1/60秒)であり、ブルートゥースで構成される通信部75の送信間隔は5msである。マイコン751は、受信ユニット36aへの送信タイミングが到来すると、メモリ752に格納されている送信データを一連の操作情報として出力し、無線モジュール753へ出力する。そして、無線モジュール753は、例えばBluetooth(ブルートゥース;登録商標)の技術を用いて、所定周波数の搬送波を用いて操作情報をその電波信号としてアンテナ754から放射する。   Here, the wireless transmission from the communication unit 75 to the receiving unit 36a is performed every predetermined cycle, but since the game processing is generally performed in units of 1/60, a shorter cycle than that is performed. It is necessary to send in. Specifically, the processing unit of the game is 16.7 ms (1/60 seconds), and the transmission interval of the communication unit 75 configured with Bluetooth is 5 ms. When the transmission timing to the receiving unit 36a comes, the microcomputer 751 outputs the transmission data stored in the memory 752 as a series of operation information and outputs it to the wireless module 753. The wireless module 753 radiates operation information from the antenna 754 as a radio wave signal using a carrier wave of a predetermined frequency using, for example, Bluetooth (registered trademark) technology.

バイブレータ704は、例えば振動モータ又はソレノイド等が考えられる。バイブレータ704が作動することによってコアユニット70に振動が発生するので、それを把持している遊技者の手にその振動が伝達され、いわゆる振動対応ゲームが実現できる。   The vibrator 704 may be a vibration motor or a solenoid, for example. Since the vibration is generated in the core unit 70 by the operation of the vibrator 704, the vibration is transmitted to the hand of the player holding it, and a so-called vibration-compatible game can be realized.

≪ゲームプログラムの説明≫
次にこのゲーム装置で実行されるゲームプログラムについて説明する。このゲームプログラムは、いわゆるハンティングアクションゲームであり、図5は、ハンティングアクションゲームの一場面を表示するゲーム画面を示す図である。ハンティングアクションゲームは、遊技者が操作する主キャラクタが様々な武器を使用し、ゲーム空間内に存在するモンスター等の敵キャラクタを倒すことによってミッションをクリアしていくゲームである。主キャラクタは、遊技者のコントローラ7の操作により、ゲーム空間内で活動する。
≪Description of game program≫
Next, a game program executed on this game apparatus will be described. This game program is a so-called hunting action game, and FIG. 5 is a diagram showing a game screen displaying one scene of the hunting action game. The hunting action game is a game in which a main character operated by a player uses various weapons and clears a mission by defeating an enemy character such as a monster existing in the game space. The main character is active in the game space by operating the controller 7 of the player.

図5は、遊技者が操作する主キャラクタがゲーム空間内に形成された海、湖等の水中で活動している様子を表示するゲーム画像の例を示す図である。このゲームプログラムを読み込んだゲーム装置1では、遊技者が操作する主キャラクタの後方にカメラを配置し、カメラで映した主キャラクタ、敵キャラクタおよびゲーム空間の映像を描画している。カメラ位置は主キャラクタの後方の位置が基準位置となるが、ユーザがコントローラ7を操作して主キャラクタを中心とした円周上の任意の位置にカメラ位置を変更すること(カメラ操作)も可能である。   FIG. 5 is a diagram showing an example of a game image that displays a state in which the main character operated by the player is active in the water such as the sea or lake formed in the game space. In the game apparatus 1 that has read this game program, a camera is arranged behind the main character operated by the player, and the main character, the enemy character, and the game space image projected by the camera are drawn. The camera position is the position behind the main character, but the user can operate the controller 7 to change the camera position to any position on the circumference centered on the main character (camera operation). It is.

遊技者が操作する主キャラクタは、地上だけでなく水中でもアイテムを探したり、敵キャラクタと戦ったりする。主キャラクタがゲーム空間内に形成された海、湖等に入ると、ゲーム空間の映像を映す仮想的なカメラも水中に配置される。図5に示すような水中を撮影した映像は全体に青みがかっていて、上方に水面があり、水面は波立っている。その一部に日差しが差し込んでいる。図5(A)、(B)、(C)の順に主キャラクタが徐々に水面に向かって上昇している様子を表現している。図5(A)では主キャラクタは海底の岩の付近の暗い部分に存在するが、図5(B)では主キャラクタは海底の岩から離れ、太陽の光が差し込む水面に少し近づき、図5(C)では主キャラクタはさらに水面に向かって上昇し、水中の浅くて明るい部分に存在する。   The main character operated by the player searches for items in the water as well as on the ground and fights against enemy characters. When the main character enters the sea, lake, or the like formed in the game space, a virtual camera that projects the image of the game space is also placed in the water. An image taken underwater as shown in FIG. 5 is entirely bluish, has a water surface above it, and the water surface is rippled. There is sunlight in some of them. 5A, 5B, and 5C express how the main character gradually rises toward the water surface. In FIG. 5 (A), the main character exists in a dark part near the rocks on the seabed, but in FIG. 5 (B), the main character is separated from the rocks on the seabed and slightly approaches the water surface into which the sunlight enters. In C), the main character rises further toward the water surface and exists in a shallow and bright part of the water.

ゲーム空間における海や湖は、水面を形成する半透明の面状のオブジェクト(水面オブジェクト)および海底等のオブジェクトで区切られるゲーム空間を意味し、現実世界とは異なり内部に水等を表すオブジェクトが存在するわけではない。そのため、図5に示すようなリアリティのある水中のゲーム空間の映像を作成するために、ゲームプログラムが読み込まれたゲーム装置1は、空中のゲーム空間の映像を作成する場合とは異なる以下のような処理を行う。キャラクタを含む画面全体に透明の青色のフィルタをかける。この青色のフィルタによって、キャラクタも青みがかっているように見え、深い部分ほど青みが濃く見える。さらに、画面全体にフォグ(霧)もかける。これにより、画面に軽くぼかしが入って視界が制限され、リアルな水中の映像を実現できる。また、水面オブジェクトには波のテクスチャを貼り付ける。そして、リアリティのある水中の様子を描画するために、太陽等の光が水面に差し込む様子を擬似的に表した水面効果の図形(効果オブジェクトH)を、水面オブジェクトの一部の領域と重なる箇所に配置する。   The sea or lake in the game space means a game space that is divided by a translucent planar object (water surface object) that forms the water surface and an object such as the sea floor. Unlike the real world, an object that represents water or the like is inside. It doesn't exist. Therefore, in order to create a realistic underwater game space video as shown in FIG. 5, the game apparatus 1 loaded with the game program differs from the case of creating an aerial game space video as follows. Perform proper processing. Apply a transparent blue filter to the entire screen including the character. With this blue filter, the character also appears bluish, and the deeper the portion looks bluish. In addition, fog is applied to the entire screen. As a result, the screen is lightly blurred and the field of view is limited, and a realistic underwater image can be realized. A wave texture is pasted on the water surface object. Then, in order to draw a realistic underwater situation, a water surface effect figure (effect object H) that simulates the appearance of light such as the sun entering the water surface overlaps with a partial area of the water surface object. To place.

また、本実施形態のゲームプログラムを読み込んだゲーム装置1では、図5(A)〜(C)のようにカメラの移動に従って、差し込む日差しの位置も変化し、リアルな水中画像が実現されている。上記の効果は、カメラ位置やカメラの視線の変化に合わせて効果オブジェクトHの位置を動かすことにより得られる。   Moreover, in the game apparatus 1 which read the game program of this embodiment, the position of the sunlight to insert changes as the camera moves as shown in FIGS. 5A to 5C, and a realistic underwater image is realized. . The effect described above can be obtained by moving the position of the effect object H in accordance with the change in the camera position or the line of sight of the camera.

このようなゲームを実行するゲームプログラムを上述したゲーム装置に読み込ませることにより、図6に示すようなゲームシステムを機能的に実現することができる。このゲームシステムは、操作検出部50、ゲーム進行制御部51、描画処理部55からなっている。ゲーム進行制御部51は、主キャラクタ制御部52、敵キャラクタ制御部53、ゲーム空間制御部54を含んでいる。   A game system as shown in FIG. 6 can be functionally realized by causing the game device described above to read a game program for executing such a game. This game system includes an operation detection unit 50, a game progress control unit 51, and a drawing processing unit 55. The game progress control unit 51 includes a main character control unit 52, an enemy character control unit 53, and a game space control unit 54.

操作検出部50は、CPU30、GPU32等のデータ処理部およびコントローラ7を含み、遊技者の各種操作を検出して、ゲーム進行制御部51に伝達する。ゲーム進行制御部51は、CPU30、GPU32等のデータ処理部を含み、水、陸、空等の仮想のゲーム空間やキャラクタを生成するとともに、遊技者の操作や時間の経過等に応じて、上述のゲーム空間を変化させたりキャラクタを活動させたりする等の処理を行ってゲームを進行させる。   The operation detection unit 50 includes a data processing unit such as the CPU 30 and the GPU 32 and the controller 7, detects various operations of the player, and transmits them to the game progress control unit 51. The game progress control unit 51 includes a data processing unit such as the CPU 30 and the GPU 32, generates a virtual game space such as water, land, and sky, and a character, and also performs the above-described operation according to the player's operation and the passage of time. The game is progressed by performing processing such as changing the game space or activating the character.

ゲーム進行制御部51は、主キャラクタの活動を制御する主キャラクタ制御部52、主キャラクタと戦う敵キャラクタの活動を制御する敵キャラクタ制御部53、ゲーム空間の生成および天候などの環境を制御するゲーム空間制御部54を有している。   The game progress control unit 51 is a main character control unit 52 that controls the activity of the main character, an enemy character control unit 53 that controls the activity of an enemy character that fights the main character, and a game that controls the environment such as generation of game space and weather. A space control unit 54 is provided.

主キャラクタ制御部52は、操作検出部50から入力される操作情報に基づいて主キャラクタを生成するとともに、その活動を制御する。敵キャラクタ制御部53は、ゲーム空間内に生息するモンスター等の敵キャラクタを生成するとともに、主キャラクタの活動に対応した活動(戦闘)を行わせる。ゲーム空間制御部54は、地上や水中等のゲーム空間を生成するとともに、そのゲーム空間の天候などの環境を制御する。例えば、主キャラクタが海や湖等のゲーム空間で活動するステージの場合、ゲーム空間制御部54は、面状の半透明オブジェクト(水面オブジェクト)を配置し、太陽等の光が水面に差し込む様子を擬似的に表した半透明オブジェクト(効果オブジェクトH)も同時に配置して、水中のゲーム空間を生成、制御する。描画処理部56は、ゲーム進行制御部51が生成したゲーム空間、キャラクタを二次元のスクリーンに投影したゲーム画像を生成してモニタに出力する。   The main character control unit 52 generates a main character based on operation information input from the operation detection unit 50 and controls its activity. The enemy character control unit 53 generates an enemy character such as a monster that inhabits the game space and performs an activity (battle) corresponding to the activity of the main character. The game space control unit 54 generates a game space such as the ground or underwater, and controls the environment such as weather in the game space. For example, in the case where the main character is a stage that is active in a game space such as the sea or lake, the game space control unit 54 arranges a planar semi-transparent object (water surface object) so that light such as the sun is inserted into the water surface. A pseudo-transparent object (effect object H) is also arranged at the same time to generate and control an underwater game space. The drawing processing unit 56 generates a game image in which the game space and characters generated by the game progress control unit 51 are projected on a two-dimensional screen, and outputs the game image to the monitor.

図7(A)は、効果オブジェクトHを側面から見た状態を示す図である。効果オブジェクトHは、三次元の半透明オブジェクトであり、板ポリゴンHaと、板ポリゴンHaから延びる複数の帯状のポリゴンHbとから構成されている。   FIG. 7A is a diagram illustrating a state in which the effect object H is viewed from the side. The effect object H is a three-dimensional translucent object, and includes a plate polygon Ha and a plurality of strip-shaped polygons Hb extending from the plate polygon Ha.

図7(B)は、効果オブジェクトHを平面から見た状態を示す図である。平面ポリゴンである板ポリゴンHa上に楕円形のテクスチャTがマッピングされている。テクスチャTは、空中から水中に差し込む光の水面での屈折を表現する画像データである。また、板ポリゴンHaのテクスチャTがマッピングされていない領域は、透明色が設定されている。ポリゴンHbは、短冊形状の平面ポリゴンであり、テクスチャがマッピングされて水中に真っ直ぐ差し込む光の帯を表す。このポリゴンHbは、テクスチャTの内部に設定された範囲S内で任意の位置にランダムに発生する。発生したポリゴンHbは、一定時間(例えば32フレーム)経過後に消滅する。ポリゴンHbの発生消滅は、ゲーム空間制御部54によって制御される。また、ポリゴンHbは、描画処理において一般的なビルボード処理によるレンダリングが行われる。ビルボード処理とは、2Dの画像をテクスチャとしてポリゴンに貼り、3Dシーン上に合成する処理である。また、一般的なビルボード処理では、テクスチャを貼った板ポリゴンをカメラ位置からの視線方向に正対させる処理を行っている。本実施形態では、ポリゴンHbのY軸(ポリゴンHbの長手方向)についてのみ回転させて上記正対させる処理を行っている。これにより、厚みのない効果オブジェクトHを含む画像を生成する際にカメラ位置によって効果オブジェクトHが見えなくなるといった不都合が生じなくなる。   FIG. 7B is a diagram illustrating a state in which the effect object H is viewed from the plane. An elliptical texture T is mapped on a plate polygon Ha which is a planar polygon. The texture T is image data representing refraction on the water surface of light that is inserted from the air into the water. Further, a transparent color is set in an area where the texture T of the plate polygon Ha is not mapped. Polygon Hb is a strip-shaped planar polygon, and represents a band of light that is straightly inserted into water after texture mapping. The polygon Hb is randomly generated at an arbitrary position within a range S set inside the texture T. The generated polygon Hb disappears after a certain time (for example, 32 frames). Generation and disappearance of the polygon Hb are controlled by the game space control unit 54. The polygon Hb is rendered by a general billboard process in the drawing process. The billboard process is a process of pasting a 2D image on a polygon as a texture and compositing it on a 3D scene. Further, in a general billboard process, a process is performed in which a board polygon to which a texture is attached is directly opposed to the line-of-sight direction from the camera position. In this embodiment, only the Y axis of the polygon Hb (longitudinal direction of the polygon Hb) is rotated so as to face the above. As a result, there is no inconvenience that the effect object H cannot be seen depending on the camera position when an image including the effect object H having no thickness is generated.

≪効果オブジェクトの配置処理≫
次に、効果オブジェクトHの配置処理について説明する。図8は、効果オブジェクトHの配置位置を説明する図である。この図、図10、図11において上方向に向かう直線をY軸、右方向に向かう直線をX軸、画面奥方向に向かう直線をZ軸とする。面状の半透明オブジェクト(水面オブジェクトW)が配置された仮想三次元ゲーム空間で、カメラ位置(第1頂点A)と、水面オブジェクトWを挟まずにカメラ位置に対向する点(第2頂点B)と、第2頂点に水面オブジェクトWを挟んで対向する点(第3頂点C)と、の位置関係に基づいて、水面オブジェクトWに太陽等の光が差し込む様子を擬似的に表す効果オブジェクトHの配置位置を決定する。
≪Effect object placement process≫
Next, the arrangement process of the effect object H will be described. FIG. 8 is a diagram illustrating the arrangement position of the effect object H. In FIG. 10, FIG. 10, and FIG. 11, the straight line going upward is defined as the Y axis, the straight line directed toward the right is defined as the X axis, and the straight line directed toward the back of the screen is defined as the Z axis. In a virtual three-dimensional game space in which a planar translucent object (water surface object W) is arranged, a camera position (first vertex A) and a point (second vertex B) that faces the camera position without sandwiching the water surface object W ) And a point (third vertex C) facing each other with the water surface object W sandwiched between the second vertex, an effect object H that artificially represents a state in which light such as the sun is inserted into the water surface object W Determine the placement position.

図8(A)は、カメラの視線が水平方向(X、Z軸方向)の場合の効果オブジェクトHの配置位置を示す図である。図8(B)は、カメラ位置が図8(A)よりも下方にある場合の効果オブジェクトHの配置位置を示す図である。図8(C)は、カメラ位置が図8(A)と同じであるが、カメラの視線が斜め上方にある場合の効果オブジェクトHの配置位置を示す図である。   FIG. 8A is a diagram illustrating an arrangement position of the effect object H when the line of sight of the camera is in the horizontal direction (X and Z axis directions). FIG. 8B is a diagram illustrating an arrangement position of the effect object H when the camera position is lower than that in FIG. FIG. 8C is a diagram illustrating an arrangement position of the effect object H when the camera position is the same as that in FIG. 8A, but the line of sight of the camera is obliquely upward.

第1頂点Aの位置を、カメラ位置に決定する。第2頂点Bの位置を、第1頂点Aと結ばれる線分が水面オブジェクトWの面方向に平行となる位置で、カメラの注視点のX,Z座標およびカメラ位置のY座標と同じ値の位置に決定する。カメラの注視点とは、カメラが撮影する視線の目標地点をいう。第3頂点Cの位置を、第2頂点BからY軸方向に延ばした直線上で、第2頂点Bから距離Dの位置に決定する。なお、距離Dは、予め設定されている固定値であってもよく、カメラ位置の深度等に応じて変化させてもよい。これらの3つの頂点A、B、Cで、線分ABが水面オブジェクトWの面に平行な∠ABC=90°の直角三角形が形成される。   The position of the first vertex A is determined as the camera position. The position of the second vertex B is a position where the line segment connected to the first vertex A is parallel to the surface direction of the water surface object W, and has the same value as the X and Z coordinates of the camera's point of sight and the Y coordinate of the camera position. Determine the position. The camera gazing point means a target point of the line of sight taken by the camera. The position of the third vertex C is determined as a position at a distance D from the second vertex B on a straight line extending from the second vertex B in the Y-axis direction. The distance D may be a fixed value set in advance, or may be changed according to the depth of the camera position. These three vertices A, B, and C form a right triangle of ∠ABC = 90 ° in which the line segment AB is parallel to the surface of the water surface object W.

効果オブジェクトHの配置位置は、水面オブジェクトWとの交点を内分点とした線分BCの内分比(m:n、o:p、s:t)が計算された後、この内分比と同じ比率で線分ACを内分する位置に決定される。すなわち、効果オブジェクトHの配置位置は、線分ACと水面オブジェクトWとの交点となる。このように、水面オブジェクトWによる垂線BCの内分比率を線分ACに適用して水面オブジェクトWと線分ACとの交点を求めることとしたのは、頂点B,Cおよび水面オブジェクトWのY軸座標を用いることにより垂線BCの内分比率を簡単に算出できることから、水面オブジェクトWと線分ACとの交点を直接求めるよりも、算出された内分比率を用いて求める方が容易だからである。   The arrangement position of the effect object H is calculated after calculating the internal division ratio (m: n, o: p, s: t) of the line segment BC with the intersection with the water surface object W as the internal division point. Is determined to be a position that internally divides the line segment AC at the same ratio. That is, the arrangement position of the effect object H is an intersection of the line segment AC and the water surface object W. As described above, the intersection of the water surface object W and the line segment AC is obtained by applying the internal ratio of the vertical line BC by the water surface object W to the line segment AC. Since the internal ratio of the perpendicular line BC can be easily calculated by using the axis coordinates, it is easier to obtain using the calculated internal ratio rather than directly obtaining the intersection of the water surface object W and the line segment AC. is there.

これにより、カメラ位置が水面から浅い場合には、効果オブジェクトの位置は近くになり、カメラ位置が水面から深い場合には、効果オブジェクトの位置は遠くになる。さらに、図8(A),(C)のように、カメラ位置は変わらずに視線だけが異なる場合でも、効果オブジェクトの位置は変化する。このように、カメラ位置の深度や視線の変化に合わせて効果オブジェクトの配置位置を変化させることができる。したがって、リアルな水中の映像を表現することができ、プレイヤに与える視覚的効果を向上させることができる。   Thus, when the camera position is shallow from the water surface, the position of the effect object is close, and when the camera position is deep from the water surface, the position of the effect object is far. Further, as shown in FIGS. 8A and 8C, even when only the line of sight is different without changing the camera position, the position of the effect object changes. In this way, the arrangement position of the effect object can be changed in accordance with the change in the camera position depth and line of sight. Therefore, a realistic underwater video can be expressed, and the visual effect given to the player can be improved.

図9は、ゲーム空間制御部54が実行する効果オブジェクトHの配置処理のフローチャートである。カメラ操作や主キャラクタの存在位置に基づいてカメラ位置の決定がされ、このカメラ位置に応じて効果オブジェクトHの配置処理が実行される。まず、水面オブジェクトWの位置情報とカメラの位置情報との取得を行う(S10)。そして、カメラが水中に存在するか否か判断する(S11)。カメラが水中に存在するか否かは、カメラの位置情報から、カメラが水面オブジェクトWの下方に存在するか否かで判断する。カメラが水中に存在しない場合(S11でNO)、効果オブジェクトHを配置する必要がないので、以降の配置処理は行わない。   FIG. 9 is a flowchart of an effect object H placement process executed by the game space control unit 54. The camera position is determined based on the camera operation and the presence position of the main character, and the placement processing of the effect object H is executed according to the camera position. First, the position information of the water surface object W and the position information of the camera are acquired (S10). And it is judged whether a camera exists in water (S11). Whether or not the camera is present in the water is determined by determining whether or not the camera is present below the water surface object W from the position information of the camera. If the camera does not exist in the water (NO in S11), there is no need to arrange the effect object H, and the subsequent arrangement process is not performed.

カメラが水中に存在する場合(S11でYES)、カメラの注視点の座標、距離Dのデータ等の各種情報の取得を行う(S12)。そして、取得したカメラの注視点のX、Z座標およびカメラ位置のY座標と同じ値の位置である頂点Bの位置を決定する(S13)。さらに、S13で決定した頂点BからY軸方向に延ばした直線上で、頂点BからS12で取得した距離Dにある位置を計算し、頂点Cの位置を決定する(S14)。   When the camera is present in the water (YES in S11), various information such as the coordinates of the camera's point of interest and data on the distance D is acquired (S12). Then, the position of the vertex B that is the same value as the X and Z coordinates of the acquired camera gazing point and the Y coordinate of the camera position is determined (S13). Further, on the straight line extending from the vertex B determined in S13 in the Y-axis direction, the position at the distance D acquired from the vertex B in S12 is calculated, and the position of the vertex C is determined (S14).

これにより、頂点A(カメラ位置)、B、Cに基づいて、線分ABが水面オブジェクトWの面に平行な∠ABC=90°の直角三角形が形成される。そして、水面オブジェクトWとの交点を内分点とした線分BCの内分比を求め、この内分比と同じ比率で線分ACを内分する位置を計算し、線分ACと水面オブジェクトWとの交点を効果オブジェクトHの配置位置に決定する(S15)。以上の効果オブジェクトHの配置処理は毎フレーム行われる。これにより、水面に太陽等の光が差し込む様子を擬似的に表現した効果オブジェクトHを毎フレーム最適な位置に配置することができ、水中のゲーム空間の視覚的な効果を向上させることができる。   As a result, a right triangle of ∠ABC = 90 ° in which the line segment AB is parallel to the surface of the water surface object W is formed based on the vertices A (camera positions), B, and C. Then, the internal ratio of the line segment BC with the intersection with the water surface object W as the internal dividing point is obtained, the position at which the line segment AC is internally divided at the same ratio as this internal ratio is calculated, and the line segment AC and the water surface object are calculated. The intersection with W is determined as the arrangement position of the effect object H (S15). The above arrangement process of the effect object H is performed every frame. As a result, the effect object H that simulates a state in which light such as the sun is inserted into the water surface can be arranged at an optimal position for each frame, and the visual effect of the underwater game space can be improved.

なお、本実施形態では、頂点Bにカメラの注視点を用いていたが、頂点Bは線分ABが水面オブジェクトWの面と平行となるような任意に設定した点であってもよい。例えば、X、Z軸方向の視線上において、カメラ位置から一定距離だけ離れた位置を頂点Bとしてもよい。   In the present embodiment, the gazing point of the camera is used for the vertex B, but the vertex B may be an arbitrarily set point such that the line segment AB is parallel to the surface of the water surface object W. For example, a position that is a fixed distance away from the camera position on the line of sight in the X and Z axis directions may be the vertex B.

また、本実施形態では、頂点Cが頂点BからY軸方向に延びた直線上に位置するように決定されるが、特にY軸方向に延びる直線である必要はなく、頂点B、Cが水面オブジェクトWを挟んで対向するような方向に延びる直線であればよい。すなわち、本実施形態では∠ABCの角度が90°に固定されていたが、∠ABCの角度は90°でなくてもよい。例えば、図10に示すように、∠ABCが鋭角になる頂点A、B、Cに基づいて効果オブジェクトHの配置位置を決定してもよい。さらに、図10において、頂点A、B、CはZ座標を共有した同一のX、Y平面上にあるが、頂点Cは頂点A,Bと同一のX、Y平面上になくてもよく、頂点CのZ座標が頂点A、BのZ座標と異なってもよい。   In this embodiment, the vertex C is determined so as to be positioned on a straight line extending from the vertex B in the Y-axis direction. However, the vertex B and C are not necessarily a straight line extending in the Y-axis direction. Any straight line extending in a direction facing each other with the object W interposed therebetween may be used. In other words, in the present embodiment, the angle of ∠ABC is fixed at 90 °, but the angle of ∠ABC may not be 90 °. For example, as shown in FIG. 10, the arrangement position of the effect object H may be determined based on vertices A, B, and C at which ∠ABC becomes an acute angle. Furthermore, in FIG. 10, vertices A, B, and C are on the same X and Y plane sharing the Z coordinate, but vertex C does not have to be on the same X and Y plane as vertices A and B. The Z coordinate of the vertex C may be different from the Z coordinates of the vertices A and B.

また、線分ABが水面オブジェクトWの面に平行でなくてもよい。例えば、注視点を頂点Bとし、注視点からY軸方向に所定距離だけ延ばした位置を頂点Cとして、線分ACと水面オブジェクトWとの交点を求めてもよい。なお、線分ABが水面オブジェクトWの面に平行でない場合、水面オブジェクトWとの交点を内分点とした線分BCの内分比と、線分ACの内分比がずれるので、直接水面オブジェクトWと線分ACとの交点を求めればよい。   Further, the line segment AB may not be parallel to the surface of the water surface object W. For example, the intersection point between the line segment AC and the water surface object W may be obtained with the gazing point as the vertex B and the position extending from the gazing point by a predetermined distance in the Y-axis direction as the vertex C. When the line segment AB is not parallel to the surface of the water surface object W, the internal ratio of the line segment BC with the intersection with the water surface object W as the internal dividing point is different from the internal ratio of the line segment AC. What is necessary is just to obtain | require the intersection of the object W and line segment AC.

頂点Cの位置を決定するのに必要な距離Dは、任意に設定可能である。例えば、図8(A)でDの値をm=nとなる値に設定してもよい。ただし、水中の深さ(カメラが移動できる深さ)を考慮して、常に頂点Cが水面オブジェクトWより上方に位置するような値を設定することが望ましい。距離Dの値は一定ではなく変化する構成にしてもよい。例えば、Dの値を任意の固定値に設定し、この固定値では水面に届かない場合のみ水面オブジェクトWより上方になるように修正する設定でもよい。   The distance D necessary for determining the position of the vertex C can be arbitrarily set. For example, the value of D in FIG. 8A may be set to a value that satisfies m = n. However, it is desirable to set a value such that the vertex C is always positioned above the water surface object W in consideration of the depth in water (the depth to which the camera can move). The value of the distance D may be changed instead of being constant. For example, the value of D may be set to an arbitrary fixed value, and the fixed value may be set so as to be corrected above the water surface object W only when it does not reach the water surface.

また、距離Dの値を複数記憶しておき、状況に応じて適切な値を使用するようにしてもよい。例えば、カメラのある水中の深度に応じて複数の値の中から最適な値を選択して距離Dとして設定すればよい。   A plurality of distance D values may be stored, and an appropriate value may be used according to the situation. For example, an optimum value may be selected from a plurality of values according to the depth of water in which the camera is located and set as the distance D.

さらに、本実施形態では、水平方向(X,Z軸方向)に平行な水面オブジェクトWであったが、水平方向に限らず、傾斜方向であってもよい。また、海や湖等を構成する水面オブジェクトWに限らず、図11に示すような半透明の地面やガラス板等の面状の半透明オブジェクトや、不透明な板オブジェクトにも本発明を適用可能である。   Furthermore, in the present embodiment, the water surface object W is parallel to the horizontal direction (X and Z axis directions), but is not limited to the horizontal direction and may be an inclined direction. Further, the present invention can be applied not only to the water surface object W constituting the sea, the lake, etc., but also to a semi-transparent object such as a semi-transparent ground or glass plate as shown in FIG. 11 or an opaque plate object. It is.

例えば、野原(不透明な地面の板オブジェクト)にススキの群生を表す群生ススキオブジェクト(効果オブジェクト)を配置する場合、地面の板オブジェクトの領域の全てに群生ススキオブジェクトを正しく配置しようとすると処理に負荷がかかるが、本発明を適用して群生ススキオブジェクトの配置位置を決定し、半径5mの大きさの群生ススキオブジェクトの円の中心を配置位置に重ねて配置すれば、地面の板オブジェクトの領域においてカメラを通じて描画される範囲は少なくともススキが生い茂っているようにできる。しかも、処理負荷をかけない簡単な処理で上記の効果を得ることができる。他に、効果オブジェクトとしてトンボや魚の群れなどを用いる構成にしてもよい。したがって、効果オブジェクトについても、本実施形態の半透明のオブジェクトに限らず、上述のような不透明なオブジェクトであってもよい。   For example, if you place a grasshopper object (effect object) that represents a group of grassroots on a field (opaque ground plate object), it will be a processing load if you try to place the grassroot object correctly in the entire area of the ground plate object However, by applying the present invention to determine the arrangement position of the group Susuki object and arranging the center of the circle of the group Susuki object having a radius of 5 m so as to overlap the arrangement position, in the area of the plate object on the ground The area drawn through the camera can be at least puffy. In addition, the above effects can be obtained with a simple process that does not impose a processing load. Alternatively, a dragonfly or a school of fish may be used as the effect object. Therefore, the effect object is not limited to the translucent object of the present embodiment, and may be an opaque object as described above.

なお、配置処理で決定された効果オブジェクトHの配置位置を補正する処理をさらに行う構成にしてもよい。その他は本実施形態の図9と同様の処理である。補正処理は、例えば決定された効果オブジェクトHの配置位置のY軸座標の値に補正値を加え、効果オブジェクトHを水面オブジェクトWよりも補正値分(例5cm)だけ下方(水中側)に変更する処理である。また、水面オブジェクトWのY軸座標から補正値分だけ減算した位置を内分点として垂線B,Cの内分比率を算出し、この内分比率から配置位置を決定する処理であってもよい。   Note that a process of correcting the arrangement position of the effect object H determined in the arrangement process may be further performed. The other processes are the same as those in FIG. 9 of the present embodiment. In the correction process, for example, a correction value is added to the Y-axis coordinate value of the determined arrangement position of the effect object H, and the effect object H is changed downward (underwater side) by a correction value (for example, 5 cm) from the water surface object W. It is processing to do. Alternatively, the internal division ratio of the perpendiculars B and C may be calculated using the position obtained by subtracting the correction value from the Y-axis coordinates of the water surface object W as an internal division point, and the arrangement position may be determined from the internal division ratio. .

水面オブジェクトWと効果オブジェクトHとが重なっていると、Zソート法等で描画するような場合、カメラ位置によっては描画順が意図する順と異なってしまう(前後逆となる)可能性があるが、上記補正処理を実行して両オブジェクトW,Hの位置をずらすことで、描画順の誤りの発生を低減することができる。   If the water surface object W and the effect object H overlap with each other, when drawing is performed by the Z sort method or the like, the drawing order may be different from the intended order depending on the camera position (reverse to the front). By performing the above correction process and shifting the positions of both objects W and H, it is possible to reduce the occurrence of drawing order errors.

また、図12に示すように、効果オブジェクトHの配置処理において、水面オブジェクトWからの深度に応じて、(1)効果オブジェクトHを配置するか否か、(2)効果オブジェクトHを配置する場合には、効果オブジェクトHの形状の変更をするか否かの判断を行う処理(S24〜S28)を追加する構成にしてもよい。カメラ位置の水面からの深度によって水面に差し込む太陽等の光の見え方は異なるが、それを区別して表現することができる。その他の処理(S21〜S23、S29〜S31)は本実施形態の図9(S10〜S15)と同様である。水面オブジェクトWからの深度は、水面オブジェクトWと頂点B(=頂点A)との距離である。   Also, as shown in FIG. 12, in the effect object H placement processing, according to the depth from the water surface object W, (1) whether to place the effect object H or (2) to place the effect object H Alternatively, a process of determining whether to change the shape of the effect object H (S24 to S28) may be added. Although the appearance of light such as the sun inserted into the water surface differs depending on the depth of the camera position from the water surface, it can be expressed separately. Other processes (S21 to S23, S29 to S31) are the same as those in FIG. 9 (S10 to S15) of the present embodiment. The depth from the water surface object W is the distance between the water surface object W and the vertex B (= vertex A).

S21〜S23の処理をし、カメラの注視点の座標、カメラ位置の座標、距離Dのデータ等の各種情報の取得を行った後、取得したカメラ位置のY座標に基づいて、水面オブジェクトWと頂点Bとの距離を計算し、水面オブジェクトWからの深度を取得する(S24)。そして、S24で取得した水面オブジェクトWからの深度が第1所定値以上か否か判断する(S25)。水面オブジェクトWからの深度が第1所定値未満の場合(S25でNO)、効果オブジェクトHを配置せず、以降の配置処理は行わない。深度が第1所定値未満の場合、すなわちカメラが浅い水中に存在する場合は、水面に近すぎるので、水面に差し込む太陽等の光を表現すると不自然だからである。   After performing the processes of S21 to S23 and acquiring various kinds of information such as the coordinates of the camera gazing point, the coordinates of the camera position, and the data of the distance D, the water surface object W and the The distance from the vertex B is calculated, and the depth from the water surface object W is acquired (S24). And it is judged whether the depth from the water surface object W acquired by S24 is more than a 1st predetermined value (S25). When the depth from the water surface object W is less than the first predetermined value (NO in S25), the effect object H is not arranged and the subsequent arrangement processing is not performed. This is because when the depth is less than the first predetermined value, that is, when the camera is in shallow water, it is too close to the water surface, and therefore it is unnatural to express light such as the sun inserted into the water surface.

水面オブジェクトWからの深度が第1所定値以上の場合(S25でYES)、カメラが一定以上の深い水中に存在するため効果オブジェクトHを配置するが、効果オブジェクトHの形状を決定するため、水面オブジェクトWからの深度が第2所定値以上か否か判断する(S26)。水面オブジェクトWからの深度が第1所定値以上第2所定値未満の場合(S26でNO)、効果オブジェクトHを構成する帯状のポリゴンHbを標準のスケールで描画する(S27)。   When the depth from the water surface object W is equal to or greater than the first predetermined value (YES in S25), the effect object H is arranged because the camera is present in deep water above a certain level, but the surface of the water is determined to determine the shape of the effect object H. It is determined whether the depth from the object W is equal to or greater than a second predetermined value (S26). When the depth from the water surface object W is not less than the first predetermined value and less than the second predetermined value (NO in S26), the band-shaped polygon Hb constituting the effect object H is drawn on a standard scale (S27).

水面オブジェクトWからの深度が第2所定値以上の場合(S26でYES)、効果オブジェクトHを構成する帯状のポリゴンHbを標準よりも縮小したスケールで描画する(S28)。深度が第2所定値以上の場合、すなわちカメラが相当深い水中に存在する場合は、水面に差し込む太陽等の光の量が少ないので、帯状のポリゴンHbを小さくする方がよりリアルな表現になるからである。具体的には、帯状のポリゴンHbに関するスケール情報の設定変更を行うことで実現する。その後S29〜S31の処理を行い、効果オブジェクトHの配置位置を決定する。   When the depth from the water surface object W is equal to or greater than the second predetermined value (YES in S26), the band-shaped polygon Hb constituting the effect object H is drawn with a scale reduced from the standard (S28). When the depth is greater than or equal to the second predetermined value, that is, when the camera is in a considerably deep water, the amount of light such as the sun that is inserted into the water surface is small, and thus it is more realistic to reduce the band-shaped polygon Hb. Because. Specifically, this is realized by changing the setting of the scale information regarding the belt-shaped polygon Hb. Thereafter, the processing of S29 to S31 is performed, and the arrangement position of the effect object H is determined.

なお、効果オブジェクトが例示した群生ススキオブジェクトである場合、カメラ位置が地面の板オブジェクトから遠い上空にあるときは、カメラ位置が地面の板オブジェクトに近い低空にあるときよりも群生ススキオブジェクトのスケール(外観サイズ)を拡大すればよい。カメラ位置が上空にあるときは地面の板オブジェクトが描画される領域が広がるが、群生ススキオブジェクトの外観サイズの拡大によりススキがない地面だけの領域が描画されてしまうことを防止できる。   Note that when the effect object is a grouped Susuki object exemplified, when the camera position is in the sky far from the ground plate object, the scale of the grouped Susuki object (when the camera position is in a low sky near the ground plate object) (Appearance size) may be enlarged. When the camera position is in the sky, the area on which the ground plate object is drawn increases. However, it is possible to prevent the area of the ground alone without a puddle from being drawn due to the increase in the appearance size of the group Susuki object.

この実施形態では、ゲーム装置として家庭用のテレビゲーム機を例示しているが、この発明は、家庭用のテレビゲーム機に限らず、携帯型ゲーム機、アーケードゲーム機等の他の種類のゲーム機、又はゲーム機以外の三次元映像を表示する装置、例えばゲームプログラムがローディングされたパーソナルコンピュータ等に適用することが可能である。   In this embodiment, a home video game machine is exemplified as the game device, but the present invention is not limited to a home video game machine, and other types of games such as a portable game machine and an arcade game machine. It is possible to apply to a device that displays 3D video other than a game machine or a game machine, such as a personal computer loaded with a game program.

この発明が適用されるゲームシステムを説明するための外観図External view for explaining a game system to which the present invention is applied 図1に示したゲーム装置の機能ブロック図Functional block diagram of the game apparatus shown in FIG. 図1に示したコントローラの外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller shown in FIG. 前記コントローラの構成を示すブロック図Block diagram showing the configuration of the controller この発明の実施形態であるアクションゲームプログラムのゲーム画面を示す図The figure which shows the game screen of the action game program which is embodiment of this invention 同ゲームプログラムと前記ゲーム装置で構成されるゲームシステムの構成を示す図The figure which shows the structure of the game system comprised by the same game program and the said game device. 効果オブジェクトHの構成を示す図The figure which shows the structure of the effect object H 効果オブジェクトHの配置位置を説明する図The figure explaining the arrangement position of the effect object H 前記ゲームシステムの動作を示すフローチャートA flowchart showing the operation of the game system 効果オブジェクトHの配置位置を説明する図The figure explaining the arrangement position of the effect object H 効果オブジェクトHの配置位置を説明する図The figure explaining the arrangement position of the effect object H 前記ゲームシステムの動作を示すフローチャートA flowchart showing the operation of the game system

Claims (10)

コンピュータを、
仮想の三次元のゲーム空間内に面状のオブジェクトを生成する面状オブジェクト生成手段、
前記面状オブジェクトの一方の面側に接して配置され、視覚的効果をプレイヤに付与する効果オブジェクトを生成する効果オブジェクト生成手段、
前記面状オブジェクトの前記一方の面側に設定された仮想のカメラ位置から前記面状オブジェクトおよび効果オブジェクトを撮影した画像を作成する画像作成手段、
として機能させるプログラムであって、
前記画像作成手段は、前記カメラ位置を移動させる手段を含み、
前記効果オブジェクト生成手段は、前記カメラ位置と前記面状オブジェクトとの距離に応じて前記効果オブジェクトの位置を決定することを特徴とするプログラム。
Computer
A planar object generating means for generating a planar object in a virtual three-dimensional game space;
An effect object generating means for generating an effect object that is arranged in contact with one surface side of the planar object and gives a visual effect to the player;
Image creating means for creating an image of the planar object and the effect object from a virtual camera position set on the one surface side of the planar object;
A program that functions as
The image creating means includes means for moving the camera position,
The effect object generating means determines a position of the effect object according to a distance between the camera position and the planar object.
前記効果オブジェクト生成手段は、
前記面状オブジェクトの他方の面側の空間内に、前記カメラ位置と特定の位置関係となる点を効果オブジェクト制御点として設定し、
前記カメラ位置とこの効果オブジェクト制御点とを結ぶ直線と、前記面状オブジェクトとの交点に前記効果オブジェクトを配置し、
前記カメラ位置が移動したとき、前記効果オブジェクト制御点を前記特定の位置関係が維持されるように移動させる
手段を含む請求項1に記載のプログラム。
The effect object generating means includes
In the space on the other surface side of the planar object, a point having a specific positional relationship with the camera position is set as an effect object control point,
The effect object is arranged at the intersection of the straight line connecting the camera position and the effect object control point and the planar object,
The program according to claim 1, further comprising means for moving the effect object control point so that the specific positional relationship is maintained when the camera position is moved.
前記効果オブジェクト生成手段は、前記カメラ位置A、前記カメラの視線の目標点である注視点Pを含み前記面状オブジェクトに対して垂直な平面を想定し、この平面上で前記カメラ位置Aを通る直線h上における前記一方の面側にある所定位置の点B、点Bを通過して前記他方の面側に伸びる直線v上の所定位置の点Cを設定し、この点Cを前記効果オブジェクト制御点とする請求項2に記載のプログラム。   The effect object generation means assumes a plane that includes the camera position A and the gazing point P that is a target point of the camera's line of sight and is perpendicular to the planar object, and passes through the camera position A on this plane. A point B at a predetermined position on the one surface side on the straight line h and a point C at a predetermined position on the straight line v passing through the point B and extending to the other surface side are set, and this point C is set as the effect object. The program according to claim 2, which is a control point. 前記効果オブジェクト生成手段は、前記注視点Pを通る前記面状オブジェクトの垂線を前記直線vとし、この直線vと前記直線hとの交点を点Bとする請求項3に記載のプログラム。   The program according to claim 3, wherein the effect object generating unit sets a perpendicular of the planar object passing through the gazing point P as the straight line v and an intersection of the straight line v and the straight line h as the point B. 前記効果オブジェクト生成手段は、前記カメラ位置Aを通る前記面状オブジェクトに平行な直線を前記直線hとし、前記面状オブジェクトによる前記直線vの一部区間である線分BCの内分比率を、前記カメラ位置Aと点Cとを結ぶ線分に適用して内分点を求めることにより、前記カメラ位置と効果オブジェクト制御点とを結ぶ直線と前記面状オブジェクトとの交点を求める請求項3または請求項4に記載のプログラム。   The effect object generating means sets a straight line parallel to the planar object passing through the camera position A as the straight line h, and an internal ratio of a line segment BC that is a partial section of the straight line v by the planar object, 4. An intersection between the straight line connecting the camera position and the effect object control point and the planar object is obtained by applying an internal dividing point by applying to a line connecting the camera position A and the point C. The program according to claim 4. 前記効果オブジェクト生成手段は、前記効果オブジェクトを、前記カメラ位置および前記効果オブジェクト制御点を結ぶ直線と前記面状オブジェクトとの交点に配置することに代えて、前記カメラ位置および前記効果オブジェクト制御点を結ぶ直線と前記面状オブジェクトとの交点から前記一方の面側に微小距離だけ離して配置する請求項1乃至請求項5のいずれかに記載のプログラム。   The effect object generating means replaces the effect object with the camera position and the effect object control point instead of arranging the effect object at the intersection of the straight line connecting the camera position and the effect object control point and the planar object. The program according to any one of claims 1 to 5, wherein the program is arranged at a minute distance away from an intersection of a straight line to be connected and the planar object. 前記面状オブジェクト生成手段は、半透明の面状オブジェクトとして水面を表すオブジェクトを生成する手段であり、
前記効果オブジェクト生成手段は、効果オブジェクトとして、光が水面に差し込む様子を擬似的に表す半透明のオブジェクトを生成する手段である
請求項1乃至請求項6のいずれかに記載のプログラム。
The planar object generating means is a means for generating an object representing the water surface as a translucent planar object,
The program according to any one of claims 1 to 6, wherein the effect object generating means is a means for generating a semi-transparent object as an effect object that artificially represents a state in which light is inserted into the water surface.
前記効果オブジェクト生成手段は、前記カメラ位置と前記面状オブジェクトとの距離に応じて、前記効果オブジェクトの生成の有無および/または前記効果オブジェクトの外観サイズを制御する請求項1〜7のいずれかに記載のプログラム。   The effect object generation means controls presence / absence of generation of the effect object and / or appearance size of the effect object according to a distance between the camera position and the planar object. The listed program. 請求項1乃至請求項8のいずれかに記載のゲームプログラムを記憶したコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the game program according to any one of claims 1 to 8. 請求項1乃至請求項8のいずれかに記載のゲームプログラムを読み込んで実行するコンピュータ装置。   A computer device that reads and executes the game program according to claim 1.
JP2008094039A 2008-03-31 2008-03-31 Program, storage medium and computer apparatus Active JP5087453B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008094039A JP5087453B2 (en) 2008-03-31 2008-03-31 Program, storage medium and computer apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008094039A JP5087453B2 (en) 2008-03-31 2008-03-31 Program, storage medium and computer apparatus

Publications (2)

Publication Number Publication Date
JP2009245386A true JP2009245386A (en) 2009-10-22
JP5087453B2 JP5087453B2 (en) 2012-12-05

Family

ID=41307158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094039A Active JP5087453B2 (en) 2008-03-31 2008-03-31 Program, storage medium and computer apparatus

Country Status (1)

Country Link
JP (1) JP5087453B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212965A (en) * 2015-07-03 2015-11-26 株式会社カプコン Program, and image processor with computer for executing program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944698A (en) * 1995-07-25 1997-02-14 Hitachi Ltd Method and device for generating simulated marine wave image
JPH11197351A (en) * 1998-01-15 1999-07-27 Sega Enterp Ltd Game device
JPH11259672A (en) * 1998-03-13 1999-09-24 Mitsubishi Electric Corp Three-dimensional virtual space display device
JP2003242526A (en) * 2003-02-07 2003-08-29 Namco Ltd Program, information storage medium and game device
JP2003275460A (en) * 2003-02-10 2003-09-30 Namco Ltd Game device and information storage medium
JP2005275795A (en) * 2004-03-24 2005-10-06 Namco Ltd Program, information storage medium and image generation system
JP2005293122A (en) * 2004-03-31 2005-10-20 Konami Co Ltd Game software with function to display large-surface object, and game device
JP2005346165A (en) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc Image processor, and image processing method
JP2007181134A (en) * 2005-12-28 2007-07-12 Canon Inc Image processor and table generation method
JP2007241868A (en) * 2006-03-10 2007-09-20 Namco Bandai Games Inc Program, information storage medium, and image generation system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944698A (en) * 1995-07-25 1997-02-14 Hitachi Ltd Method and device for generating simulated marine wave image
JPH11197351A (en) * 1998-01-15 1999-07-27 Sega Enterp Ltd Game device
JPH11259672A (en) * 1998-03-13 1999-09-24 Mitsubishi Electric Corp Three-dimensional virtual space display device
JP2003242526A (en) * 2003-02-07 2003-08-29 Namco Ltd Program, information storage medium and game device
JP2003275460A (en) * 2003-02-10 2003-09-30 Namco Ltd Game device and information storage medium
JP2005275795A (en) * 2004-03-24 2005-10-06 Namco Ltd Program, information storage medium and image generation system
JP2005293122A (en) * 2004-03-31 2005-10-20 Konami Co Ltd Game software with function to display large-surface object, and game device
JP2005346165A (en) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc Image processor, and image processing method
JP2007181134A (en) * 2005-12-28 2007-07-12 Canon Inc Image processor and table generation method
JP2007241868A (en) * 2006-03-10 2007-09-20 Namco Bandai Games Inc Program, information storage medium, and image generation system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212965A (en) * 2015-07-03 2015-11-26 株式会社カプコン Program, and image processor with computer for executing program

Also Published As

Publication number Publication date
JP5087453B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
US7538775B2 (en) Storage medium storing game program and game apparatus
JP5627973B2 (en) Program, apparatus, system and method for game processing
JP5469516B2 (en) Image display program, image display system, image display method, and image display apparatus
US8523683B2 (en) Storage medium storing game program, game apparatus and game control method
US8858328B2 (en) Storage medium having game program stored therein, hand-held game apparatus, game system, and game method
US8698794B2 (en) Computer-readable storage medium having overhead map resource generation program stored therein, computer-readable storage medium having overhead map display program stored therein, overhead map resource generation apparatus, and overhead map display apparatus
JP2011210019A (en) Program, information storage medium, and image generator
JP5236214B2 (en) Image processing program
US8665285B2 (en) Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
JP2009061161A (en) Program, information storage medium and game system
US8212808B2 (en) Image processing program and image processing apparatus
JP5525250B2 (en) GAME PROGRAM, GAME DEVICE, GAME DISPLAY METHOD, AND GAME SYSTEM
JP5758202B2 (en) Image processing program, image processing apparatus, image processing method, and image processing system
JP5087453B2 (en) Program, storage medium and computer apparatus
JP5350612B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4964688B2 (en) Image processing program and image processing apparatus
JP2010191916A (en) Rendering processing device and rendering processing program
JP5613433B2 (en) Image processing program, recording medium, and computer apparatus
JP2009061159A (en) Program, information storage medium and game system
JP5464847B2 (en) Game program and game system
CN112562051B (en) Virtual object display method, device, equipment and storage medium
JP5738386B2 (en) Game program and game system
JP5798601B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120910

R150 Certificate of patent or registration of utility model

Ref document number: 5087453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250