JP5613433B2 - Image processing program, recording medium, and computer apparatus - Google Patents

Image processing program, recording medium, and computer apparatus Download PDF

Info

Publication number
JP5613433B2
JP5613433B2 JP2010081522A JP2010081522A JP5613433B2 JP 5613433 B2 JP5613433 B2 JP 5613433B2 JP 2010081522 A JP2010081522 A JP 2010081522A JP 2010081522 A JP2010081522 A JP 2010081522A JP 5613433 B2 JP5613433 B2 JP 5613433B2
Authority
JP
Japan
Prior art keywords
image
virtual
virtual camera
reference pixels
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010081522A
Other languages
Japanese (ja)
Other versions
JP2011215737A (en
Inventor
宇野 亮
亮 宇野
紘二 冨永
紘二 冨永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2010081522A priority Critical patent/JP5613433B2/en
Publication of JP2011215737A publication Critical patent/JP2011215737A/en
Application granted granted Critical
Publication of JP5613433B2 publication Critical patent/JP5613433B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Generation (AREA)

Description

本発明は、仮想光源に照らされた仮想空間を仮想カメラの配置に応じた画像としてよりリアルに表現するための画像処理プログラム、該画像処理プログラムを記録した記録媒体、及びコンピュータ装置に関する。   The present invention relates to an image processing program for more realistically expressing a virtual space illuminated by a virtual light source as an image corresponding to the arrangement of a virtual camera, a recording medium storing the image processing program, and a computer apparatus.

近年、仮想のゲーム空間内にて、モンスター等の敵キャラクタを討伐しながらゲームを進行させるアクションゲームが市販されている。このようなゲームでは、三次元の仮想空間を仮想カメラによって撮影した画像(フレーム)を、該仮想空間を投影変換することで生成し、これをディスプレイに表示させている。また、仮想空間をよりリアルに表現するために、仮想空間内に仮想の光源を設定し、この光源からの光に起因する視覚的な効果を、仮想空間を示す画像に合成するようにしたものもある。例えば、特許文献1には、光源からの強い光(太陽光など)がレンズに入射した場合に生じるレンズフレアという現象を、仮想空間を示す画像に再現し、リアリティを向上させる思想が開示されている。   In recent years, action games have been put on the market to advance a game while subverting enemy characters such as monsters in a virtual game space. In such a game, an image (frame) obtained by photographing a three-dimensional virtual space with a virtual camera is generated by projecting the virtual space, and this is displayed on a display. Also, in order to more realistically represent the virtual space, a virtual light source is set in the virtual space, and the visual effect resulting from the light from this light source is combined with the image showing the virtual space There is also. For example, Patent Literature 1 discloses a concept of improving reality by reproducing a phenomenon called lens flare that occurs when strong light (sunlight or the like) from a light source is incident on a lens in an image showing a virtual space. Yes.

また、仮想空間を示す画像に対し、太陽光によって生じる視覚的効果を表すサンスクリーンフィルタを合成することで、仮想空間をよりリアルに表現する技術が知られている。このサンスクリーンフィルタは、上端から下端へ向かうに従って、白色から無色透明へと変化するグラデーション画像である。そして、仮想空間を示す画像にこのグラデーション画像を合成することにより、光源である太陽に近い上側部分が白みがかった状態を表現することができる。   In addition, there is known a technique for more realistically expressing a virtual space by synthesizing a sunscreen filter representing a visual effect caused by sunlight with an image showing the virtual space. This sunscreen filter is a gradation image that changes from white to colorless and transparent as it goes from the upper end to the lower end. Then, by synthesizing this gradation image with the image showing the virtual space, it is possible to express a state in which the upper portion near the sun as the light source is whitened.

特開2005−215974号公報JP 2005-215974 A

しかしながら、上述した公知の技術を用いて生成したグラデーション画像は、仮想カメラの向きや高さの変化が加味されていないため、看者に対して不自然さを感じさせてしまう場合がある。例えば、現実の野外空間において太陽が天頂(観察者の直上)に位置する場合、太陽からの直射日光や、上空に浮遊する塵による太陽光の乱反射などの影響によって、観察者の視界はその上部がやや白色化して知覚される。また、観察者が視点を上方へ向けるに従って白色化して知覚される範囲は下方へと広がり、逆に視点を下方へ向けるに従って白色化して知覚される範囲は上方へ狭まっていく。このような、現実空間において光源からの光により生じる視覚的効果が、仮想空間を撮影した画像では十分に表現されていない。   However, since the gradation image generated using the above-described known technique does not take into account the change in the orientation and height of the virtual camera, it may make the viewer feel unnatural. For example, in the actual outdoor space, when the sun is located at the zenith (directly above the observer), the observer's field of view is above that due to the effects of direct sunlight from the sun and the diffuse reflection of sunlight from dust floating above the sun. Perceived with a slight whitening. In addition, the range perceived by whitening as the observer turns the viewpoint upward spreads downward, and conversely, the range perceived by whitening as the viewpoint turns downward narrows upward. Such visual effects caused by light from the light source in the real space are not sufficiently expressed in the image obtained by photographing the virtual space.

そこで本発明は、仮想光源に照らされた仮想空間を、仮想カメラの配置に応じた画像としてよりリアルに表現することのできる画像処理プログラム、該画像処理プログラムを記録した記録媒体、及びコンピュータ装置を提供することを目的とする。   Therefore, the present invention provides an image processing program capable of more realistically expressing a virtual space illuminated by a virtual light source as an image corresponding to the arrangement of a virtual camera, a recording medium storing the image processing program, and a computer apparatus. The purpose is to provide.

本発明に係る画像処理プログラムは、仮想空間を撮影する仮想カメラの配置を制御して、該仮想カメラにより撮影された前記仮想空間を表示手段に表示させる画像処理装置のコンピュータを、前記仮想カメラにより撮影した前記仮想空間を示す仮想空間素材画像を生成する素材画像生成手段、仮想光源に照らされた前記仮想空間を表現すべく、前記仮想空間素材画像の領域全体に対応するフィルタ画像を生成するフィルタ画像生成手段、及び前記仮想空間素材画像と前記フィルタ画像とを合成して仮想空間合成画像を生成する合成画像生成手段、として機能させ、前記フィルタ画像生成手段は、所定の境界線により上下の領域に仕切られた前記フィルタ画像であって、少なくとも1つの前記領域に関して、該領域の少なくとも四隅に位置する画素の合成色情報に基づいて該領域が少なくとも上下方向についてグラデーション画像となるような前記フィルタ画像を生成する一方、前記仮想カメラの上下方向に関する配置の変化に応じて、前記境界線の上下位置を変化させるよう構成されている。   An image processing program according to the present invention controls an arrangement of a virtual camera that captures a virtual space and causes a computer of an image processing apparatus to display the virtual space captured by the virtual camera on a display unit using the virtual camera. Material image generating means for generating a virtual space material image showing the captured virtual space, a filter for generating a filter image corresponding to the entire area of the virtual space material image to express the virtual space illuminated by a virtual light source Functioning as image generation means, and composite image generation means for generating a virtual space composite image by combining the virtual space material image and the filter image. The filter image generation means The filter image partitioned into at least four corners of the region with respect to at least one of the regions The filter image is generated such that the region is a gradation image at least in the vertical direction based on the raw composite color information, and the vertical position of the boundary line is changed according to the change in the arrangement of the virtual camera in the vertical direction. It is configured to change.

このような構成とすることにより、仮想カメラの上下方向に関する配置に応じて、上側領域及び下側領域の面積比を変更することができる。そのため、仮想光源に照らされた仮想空間を、仮想カメラの配置に応じた画像としてよりリアルに表現することができる。   By setting it as such a structure, the area ratio of an upper side area | region and a lower side area | region can be changed according to arrangement | positioning regarding the up-down direction of a virtual camera. Therefore, the virtual space illuminated by the virtual light source can be expressed more realistically as an image according to the placement of the virtual camera.

また、前記仮想カメラの上下方向に関する配置には、該仮想カメラの上下方向の向き及び/又は高さ位置が含まれていてもよい。   Further, the vertical camera arrangement in the vertical direction may include the vertical direction and / or height position of the virtual camera.

また、前記フィルタ画像生成手段は、前記仮想カメラの配置が相対的に上向きの場合又は高い場合には、前記境界線の位置を下方へ変更し、前記仮想カメラの配置が相対的に下向きの場合又は低い場合には、前記境界線の位置を上方へ変更するよう構成されていてもよい。   In addition, the filter image generation unit may change the position of the boundary line downward when the virtual camera is relatively upward or high, and the virtual camera is relatively downward. Or, when it is low, the position of the boundary line may be changed upward.

また、前記フィルタ画像生成手段は、前記仮想空間素材画像の左上に位置する基準画素L1、右上に位置する基準画素R1、左下に位置する基準画素L2、右下に位置する基準画素R2、前記基準画素L1,L2間に位置して前記境界線の左端に位置する基準画素L3、及び前記基準画素R1,R2間に位置して前記境界線の右端に位置する基準画素R3について、予め設定された基準値に基づいて前記合成色情報を取得する基準合成色情報取得手段を有していてもよい。   Further, the filter image generation means includes a reference pixel L1 located at the upper left of the virtual space material image, a reference pixel R1 located at the upper right, a reference pixel L2 located at the lower left, a reference pixel R2 located at the lower right, and the reference The reference pixel L3 located between the pixels L1 and L2 and located at the left end of the boundary line and the reference pixel R3 located between the reference pixels R1 and R2 and located at the right end of the boundary line are set in advance. You may have the reference | standard synthetic | combination color information acquisition means which acquires the said synthetic | combination color information based on a reference value.

また、前記基準合成色情報取得手段は、前記仮想カメラが前記光源に対して水平面内の所定の基準方向を向いている場合には、前記基準画素L1〜L3,R1〜R3の前記合成色情報として、該基準方向に関連づけられて予め設定された基準値を取得し、前記仮想カメラが前記基準方向以外の方向を向いている場合には、近傍に位置する前記基準方向に関連づけられた前記基準値に基づいて、前記基準画素L1〜L3,R1〜R3の前記合成色情報を取得するよう構成されていてもよい。   Further, the reference composite color information acquisition unit, when the virtual camera is facing a predetermined reference direction in a horizontal plane with respect to the light source, the composite color information of the reference pixels L1 to L3 and R1 to R3. As a reference value preset in association with the reference direction, and when the virtual camera is facing a direction other than the reference direction, the reference associated with the reference direction located nearby The composite color information of the reference pixels L1 to L3 and R1 to R3 may be acquired based on the value.

また、前記基準画素L1〜L3,R1〜R3の前記合成色情報は、前記仮想カメラの上下方向に関する配置に応じて変更されるよう構成されていてもよい。   Further, the composite color information of the reference pixels L1 to L3 and R1 to R3 may be configured to be changed according to the arrangement in the vertical direction of the virtual camera.

本発明に係る記録媒体は、上述した何れかの画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。   The recording medium according to the present invention is a computer-readable recording medium that records any of the above-described image processing programs.

本発明に係るコンピュータ装置は、上述した何れかの画像処理プログラムを読み込んで実行するコンピュータ装置である。   A computer apparatus according to the present invention is a computer apparatus that reads and executes one of the image processing programs described above.

本発明によれば、仮想光源に照らされた仮想空間を、仮想カメラの配置に応じた画像としてよりリアルに表現することのできる画像処理プログラム、該画像処理プログラムを記録した記録媒体、及びコンピュータ装置を提供することができる。   According to the present invention, an image processing program capable of more realistically expressing a virtual space illuminated by a virtual light source as an image according to the arrangement of a virtual camera, a recording medium storing the image processing program, and a computer apparatus Can be provided.

本発明の実施の形態に係るゲーム装置(コンピュータ装置)の構成を示すブロック図である。It is a block diagram which shows the structure of the game device (computer apparatus) which concerns on embodiment of this invention. 図1に示したゲーム装置とは別体を成すコントローラの構成を示すブロック図である。It is a block diagram which shows the structure of the controller which comprises the game device shown in FIG. 1 separately. 本ゲームにおいて設定されている仮想ゲーム空間とこれをモニタに表示する際の画像とを示す模式図である。It is a schematic diagram which shows the virtual game space set in this game, and the image at the time of displaying this on a monitor. ゲーム装置が備える制御部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the control part with which a game device is provided. 仮想カメラの配置変更を説明するための模式図である。It is a schematic diagram for demonstrating arrangement | positioning change of a virtual camera. 仮想空間合成画像の生成を説明するための模式図である。It is a schematic diagram for demonstrating the production | generation of a virtual space synthesized image. フィルタ画像を説明するための図面であり、(a)はフィルタ画像に設定された基準画素を、(b)は仮想カメラの水平方向の向きを、(c)は仮想カメラの水平方向の向きに関連づけられて予め設定された各基準画素の色情報を、それぞれ示している。It is drawing for demonstrating a filter image, (a) is the reference pixel set to the filter image, (b) is the horizontal direction of a virtual camera, (c) is the horizontal direction of a virtual camera. The color information of each reference pixel that is associated and set in advance is shown. 仮想カメラの上下方向の向きと中間の基準画素の上下位置との関係を説明するためのグラフである。It is a graph for demonstrating the relationship between the vertical direction of a virtual camera, and the vertical position of an intermediate | middle reference pixel. フィルタ画像の例を示す模式図であり、(a)は仮想カメラが水平方向に向けられているとき、(b)は水平方向より上方へ向けられているとき、(c)は水平方向より下方へ向けられているとき、の夫々のフィルタ画像を示している。It is a schematic diagram which shows the example of a filter image, (a) is when the virtual camera is oriented in the horizontal direction, (b) is oriented upward from the horizontal direction, and (c) is below the horizontal direction. Each filter image is shown when directed to. フレーム画像を生成する処理を示すフローチャートであり、(a)は全体の流れを示し、(b)は仮想空間素材画像とフィルタ画像とを合成する処理の流れを示している。It is a flowchart which shows the process which produces | generates a frame image, (a) shows the whole flow, (b) has shown the flow of the process which synthesize | combines a virtual space material image and a filter image. 仮想ゲーム空間が昼間の地上である場合において、仮想カメラの向きを上下方向に変化させたときの仮想空間合成画像を示す模式図である。FIG. 10 is a schematic diagram showing a virtual space composite image when the direction of the virtual camera is changed in the vertical direction when the virtual game space is on the ground during the daytime. 仮想カメラの高さ位置と中間の基準画素の上下位置との関係を説明するためのグラフである。It is a graph for demonstrating the relationship between the height position of a virtual camera, and the vertical position of an intermediate | middle reference pixel. 水中の仮想ゲーム空間において、仮想カメラの高さ位置を上下方向に変化させたときの仮想空間合成画像を示す模式図である。It is a schematic diagram which shows a virtual space synthetic | combination image when the height position of a virtual camera is changed to an up-down direction in the underwater virtual game space. 仮想カメラの上下方向の向きと中間の基準画素の上下位置との関係の変形例を示すグラフである。It is a graph which shows the modification of the relationship between the vertical direction of a virtual camera, and the vertical position of an intermediate | middle reference pixel.

以下、本発明の実施の形態に係る画像処理プログラム、記録媒体、及びコンピュータ装置について、図面を参照しつつ説明する。   Hereinafter, an image processing program, a recording medium, and a computer apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[ハードウェアの構成]
図1は、本発明の実施の形態に係るゲーム装置(コンピュータ装置)の構成を示すブロック図である。ゲーム装置1は、片手で持ち運びできる程度の寸法のボックス形状を成すハウジングに収納され、図1に示すように、このゲーム装置1には制御部8が備えらており、制御部8にはCPU(Central Processing Unit)3が備えられている。制御部8において、CPU3は、データ転送を統括的に制御するメモリコントローラ2を介して、GPU(Graphics Processing Unit)4、メインメモリ5、及びDSP(Digital Signal Processor)6に接続されている。また、ゲーム装置1において、メモリコントローラ2には、バス9を介して、コントローラ・インタフェース(以下、「インタフェース」は「I/F」と記す)10、ビデオI/F11、外部メモリI/F12、オーディオI/F13、及びディスクI/F14が接続されている。そして、コントローラI/F10には受信ユニット15が接続され、オーディオI/F13及びディスクI/F14にはディスクドライブ16が接続されている。
[Hardware configuration]
FIG. 1 is a block diagram showing a configuration of a game device (computer device) according to an embodiment of the present invention. The game apparatus 1 is housed in a housing having a box shape with a size that can be carried with one hand. As shown in FIG. 1, the game apparatus 1 includes a control unit 8, and the control unit 8 includes a CPU. (Central Processing Unit) 3 is provided. In the control unit 8, the CPU 3 is connected to a GPU (Graphics Processing Unit) 4, a main memory 5, and a DSP (Digital Signal Processor) 6 through a memory controller 2 that controls data transfer in an integrated manner. In the game apparatus 1, the memory controller 2 is connected to the memory controller 2 via the bus 9, a controller interface (hereinafter “interface” is referred to as “I / F”) 10, a video I / F 11, an external memory I / F 12, An audio I / F 13 and a disk I / F 14 are connected. A receiving unit 15 is connected to the controller I / F 10, and a disk drive 16 is connected to the audio I / F 13 and the disk I / F 14.

更に、ゲーム装置1が有するビデオI/F11及びオーディオI/F13には、外部機器であるモニタ20及びスピーカ22が夫々に接続可能になっており、記録媒体としてのメモリカード21及び光ディスク23が、外部メモリI/F12及びディスクドライブ16に対して夫々装填可能になっている。   Furthermore, the video I / F 11 and the audio I / F 13 included in the game apparatus 1 can be connected to a monitor 20 and a speaker 22 which are external devices, respectively, and a memory card 21 and an optical disc 23 as recording media are provided. The external memory I / F 12 and the disk drive 16 can be loaded respectively.

このうちCPU3は、図示しないブートROMに記録された起動プログラムを実行してメインメモリ5の初期化等を行った後、ディスクドライブ16に装填された光ディスク23に記録されているゲームプログラム(画像処理プログラム)24を実行し、該ゲームプログラムの内容に応じたゲーム処理を行うものである。また、メインメモリ5は、CPU3の動作時に使用されるデータを記録する記録領域を有し、例えば、光ディスク23から読み出されたゲームプログラム24や各種のデータを記録する。   Among these, the CPU 3 executes a startup program recorded in a boot ROM (not shown) to initialize the main memory 5 and the like, and then executes a game program (image processing) recorded on the optical disk 23 loaded in the disk drive 16. Program) 24, and performs game processing according to the content of the game program. The main memory 5 has a recording area for recording data used during the operation of the CPU 3. For example, the main memory 5 records a game program 24 read from the optical disc 23 and various data.

GPU4は、三次元グラフィックスの表示に必要な計算処理を行う半導体チップで構成されており、CPU3からの指示に基づいて画像処理を行う。一例を挙げると、GPU4は、メインメモリ5の一部の記録領域や図示しない画像処理専用のメモリを用い、経時的に変化する三次元の仮想ゲーム空間(仮想空間)の各フレーム画像を生成することができ、この画像は、メモリコントローラ2及びビデオI/F11を介してモニタ20に表示される。   The GPU 4 is composed of a semiconductor chip that performs calculation processing necessary for displaying three-dimensional graphics, and performs image processing based on an instruction from the CPU 3. For example, the GPU 4 generates each frame image of a three-dimensional virtual game space (virtual space) that changes over time using a partial recording area of the main memory 5 or a memory dedicated to image processing (not shown). This image can be displayed on the monitor 20 via the memory controller 2 and the video I / F 11.

DSP6は、CPU3がゲームプログラム24を実行しているときに生成されるサウンドデータの処理を行うものであり、該サウンドデータを記録するためのARAM(Audio RAM)7が接続されている。DSP6は、光ディスク23から先読みしておいたサウンドデータをARAM7に記録しておき、適宜のタイミングでARAM7から読み出したサウンドデータを出力するものであり、DSP6から出力されたサウンドデータは、メモリコントローラ2及びオーディオI/F13を介してスピーカ22から外部へ出力される。   The DSP 6 processes sound data generated when the CPU 3 executes the game program 24, and is connected to an ARAM (Audio RAM) 7 for recording the sound data. The DSP 6 records the sound data pre-read from the optical disk 23 in the ARAM 7 and outputs the sound data read from the ARAM 7 at an appropriate timing. The sound data output from the DSP 6 is stored in the memory controller 2. And output from the speaker 22 to the outside via the audio I / F 13.

一方、受信ユニット15は、ゲーム装置1とは別体を成すコントローラ(Remote controller)30(図2参照)から送られてきたデータを受信するものであり、受信したデータは、コントローラI/F10及びメモリコントローラ2を介してCPU3へ送られる。外部メモリI/F12は、メモリカード21が装填された状態で該メモリカード21内の記録領域にアクセス可能であり、該記録領域内のデータを読み出し、又はバックアップデータを書き込むことができる。   On the other hand, the receiving unit 15 receives data sent from a controller (Remote controller) 30 (see FIG. 2) that is separate from the game apparatus 1, and the received data includes the controller I / F 10 and the controller I / F 10. The data is sent to the CPU 3 via the memory controller 2. The external memory I / F 12 can access a recording area in the memory card 21 with the memory card 21 loaded, and can read data in the recording area or write backup data.

オーディオI/F13に接続されたスピーカ22は、上述したようにDSP6がARAM7から読み出したサウンドデータを外部へ出力する他、ディスクドライブ16が光ディスク23から読み出したサウンドデータを直接的に外部へ出力する。また、ディスクドライブ16は、上述したように、装填された光ディスク23に記録されたゲームプログラム24を読み出し、このゲームプログラム24をオーディオI/F13又はディスクI/F14へ出力する。   The speaker 22 connected to the audio I / F 13 outputs the sound data read from the ARAM 7 by the DSP 6 to the outside as described above, and directly outputs the sound data read from the optical disc 23 by the disk drive 16 to the outside. . Further, as described above, the disk drive 16 reads the game program 24 recorded on the loaded optical disk 23 and outputs the game program 24 to the audio I / F 13 or the disk I / F 14.

図2は、ゲーム装置1とは別体を成すコントローラ30の構成を示すブロック図である。コントローラ30は、例えばプラスチック成型により形成された略直方体形状を成すハウジングを有しており、片手で把持可能な寸法に設計されている。そして、図2に示すように、コントローラ30は、撮像情報演算部31、通信部32、操作部33、加速度センサ34、及びバイブレータ35を備えている。   FIG. 2 is a block diagram illustrating a configuration of the controller 30 that is separate from the game apparatus 1. The controller 30 has a substantially rectangular parallelepiped housing formed by plastic molding, for example, and is designed to have a size that can be held with one hand. As shown in FIG. 2, the controller 30 includes an imaging information calculation unit 31, a communication unit 32, an operation unit 33, an acceleration sensor 34, and a vibrator 35.

撮像情報演算部31は、赤外線フィルタ31a、レンズ31b、撮像素子31c、及び画像処理回路31dを有しており、赤外線フィルタ31aは、外部からの入射光のうち赤外線のみをレンズ31bへ通過させる。レンズ31bは、赤外線フィルタ31aを通過した赤外線を集光して撮像素子31cへ出射する。撮像素子31cは、例えばCMOSセンサのような個体撮像素子であって、レンズ31bが集光した赤外線を撮像して画像データを生成する。ここで、ゲーム装置1に接続されるモニタ20(図1参照)には、高輝度の赤外線を発光する2つの発光部(図示せず)が設けられており、画像処理回路31dは、撮像素子31cで生成された画像データから高輝度部分を抽出することにより、前記発光部からの光を検出する。そして、画像処理回路31dは、検出した光に基づいてコントローラ30の向きを示すデータを算出し、該データを通信部32へ出力する。   The imaging information calculation unit 31 includes an infrared filter 31a, a lens 31b, an imaging element 31c, and an image processing circuit 31d. The infrared filter 31a allows only infrared light out of incident light from the outside to pass to the lens 31b. The lens 31b condenses the infrared light that has passed through the infrared filter 31a and emits it to the image sensor 31c. The image pickup device 31c is an individual image pickup device such as a CMOS sensor, for example, and picks up infrared rays collected by the lens 31b to generate image data. Here, the monitor 20 (see FIG. 1) connected to the game apparatus 1 is provided with two light emitting units (not shown) that emit high-intensity infrared light. The light from the light emitting unit is detected by extracting a high luminance part from the image data generated in 31c. The image processing circuit 31 d calculates data indicating the direction of the controller 30 based on the detected light, and outputs the data to the communication unit 32.

通信部32は、マイクロコンピュータ(Micro Computer:マイコン)32a、メモリ32b、無線モジュール32c、及びアンテナ32dを有している。この通信部32は、マイコン32aが無線モジュール32cの動作を制御することによって、所定のデータをアンテナ32dから外部に対して無線送信するものであり、送信処理の際にメモリ32bはデータの記録領域として使用される。また、アンテナ32dから無線送信されたデータは、ゲーム装置1が備える受信ユニット15(図1参照)において受信可能になっている。   The communication unit 32 includes a microcomputer 32a, a memory 32b, a wireless module 32c, and an antenna 32d. The communication unit 32 wirelessly transmits predetermined data from the antenna 32d to the outside by the microcomputer 32a controlling the operation of the wireless module 32c. The memory 32b is a data recording area during transmission processing. Used as. The data wirelessly transmitted from the antenna 32d can be received by the receiving unit 15 (see FIG. 1) provided in the game apparatus 1.

操作部33は、十字キー及び各種のボタンスイッチを有しており、これらは、コントローラ30を把持したプレイヤの手によって操作可能になっている。そして、プレイヤにより操作部33が操作されると、何れのキー又はスイッチが操作されたかを示す操作信号が、通信部32によってゲーム装置1へ送信されるようになっている。また、加速度センサ34は、コントローラ7に対して設定された直交3軸方向(上下方向、左右方向、及び前後方向)についての加速度を検出するものであり、検出された加速度を示す信号は、通信部32によってゲーム装置1へ送信される。   The operation unit 33 includes a cross key and various button switches, which can be operated by a player's hand holding the controller 30. When the operation unit 33 is operated by the player, an operation signal indicating which key or switch is operated is transmitted to the game apparatus 1 by the communication unit 32. The acceleration sensor 34 detects acceleration in the three orthogonal directions (vertical direction, horizontal direction, and front-rear direction) set for the controller 7, and a signal indicating the detected acceleration is a communication signal. The data is transmitted to the game apparatus 1 by the unit 32.

バイブレータ35は、例えば偏芯質量を有する振動モータ又はソレノイド等を備えており、その作動によってコントローラ30自身に振動を発生させることができる。該バイブレータ35を適宜作動させることにより、コントローラ30を把持するプレイヤの手に振動を体感させることができ、いわゆる振動対応ゲームが実現できる。   The vibrator 35 includes a vibration motor or a solenoid having an eccentric mass, for example, and can generate vibrations in the controller 30 itself by its operation. By appropriately operating the vibrator 35, the player's hand holding the controller 30 can feel the vibration and a so-called vibration-compatible game can be realized.

なお、上述したコントローラ30の向きを示すデータ、操作信号、及び加速度を示す信号等は、通信部32から無線送信されるに先だって一時的にメモリ32bに格納される。マイコン32aは、無線モジュール32cを制御して、このメモリ32bに格納されているデータを所定周波数の搬送波にのせ、所定の短い周期で、アンテナ32dから送信するようになっている。   Note that the data indicating the orientation of the controller 30, the operation signal, the signal indicating the acceleration, and the like described above are temporarily stored in the memory 32b before being wirelessly transmitted from the communication unit 32. The microcomputer 32a controls the wireless module 32c, puts the data stored in the memory 32b on a carrier wave having a predetermined frequency, and transmits it from the antenna 32d at a predetermined short cycle.

[ゲーム内容の説明]
上記のゲーム装置1がゲームプログラム24を実行することによりプレイすることのできるゲームの一例を説明する。図3は、本ゲームにおいて設定されている仮想ゲーム空間と、これをモニタ20に表示する際の画像とを示す模式図である。図3に示すように、本ゲームでは地上又は水中を表現する三次元の仮想ゲーム空間41が設定されており(図3では地上の場合のみ示している)、この仮想ゲーム空間41には、人型のプレイヤキャラクタとモンスターを模した敵キャラクタとが登場する(図示せず)。このうちプレイヤキャラクタは、プレイヤがコントローラ30を操作することにより、その動作を直接的に制御することのできるキャラクタである。一方、敵キャラクタC2及び味方キャラクタC3は、いわゆるノンプレイヤキャラクタであり、プレイヤはその動作を直接的には制御することができず、ゲーム装置1のCPU3によって動作が制御されるキャラクタである。そして、本実施の形態に係るゲームは、プレイヤの操作によってプレイヤキャラクタを仮想ゲーム空間41内で行動させ、次々と出現する敵キャラクタと戦闘を行い、これを討伐することで所定のミッションを遂行することを目的とするアクションゲームになっている。
[Description of game contents]
An example of a game that can be played by the game apparatus 1 executing the game program 24 will be described. FIG. 3 is a schematic diagram showing a virtual game space set in this game and an image when this is displayed on the monitor 20. As shown in FIG. 3, in this game, a three-dimensional virtual game space 41 expressing the ground or the water is set (shown only in the case of the ground in FIG. 3). Type player characters and enemy characters imitating monsters appear (not shown). Among these, the player character is a character that can directly control the operation of the player by operating the controller 30. On the other hand, the enemy character C <b> 2 and the teammate character C <b> 3 are so-called non-player characters, and the player cannot directly control their movements, but is a character whose movements are controlled by the CPU 3 of the game apparatus 1. In the game according to the present embodiment, the player character is caused to act in the virtual game space 41 by the operation of the player, battles with enemy characters that appear one after another, and a predetermined mission is performed by subjugating them. It is an action game aimed at that.

また、このようなゲームをプレイするにあたり、ゲーム装置1はモニタ20に仮想ゲーム空間を示す画像Pを表示する。図3に示すように、この画像Pは、仮想ゲーム空間41内に設けた仮想カメラ42によって該仮想ゲーム空間41を撮影したときの画像となっている。そして、プレイヤによるコントローラ30の操作によって、後述するように仮想カメラ42の配置を変更可能になっている。例えば、仮想ゲーム空間41内において、図3の矢印A1に示すように、水平面内の任意の方向へ向きを変更することができ、矢印A2に示すように上下方向の向きを変更することができ、矢印A3に示すように上下方向の高さ位置を変更することができる。また、上記のように仮想カメラ42の配置が変更された場合には、変更された状態の仮想カメラ42によって撮影された画像Pが、モニタ20に表示される。   Further, when playing such a game, the game apparatus 1 displays an image P indicating the virtual game space on the monitor 20. As shown in FIG. 3, the image P is an image when the virtual game space 41 is photographed by the virtual camera 42 provided in the virtual game space 41. The placement of the virtual camera 42 can be changed by the operation of the controller 30 by the player, as will be described later. For example, in the virtual game space 41, the direction can be changed in an arbitrary direction in the horizontal plane as indicated by an arrow A1 in FIG. 3, and the vertical direction can be changed as indicated by an arrow A2. The height position in the vertical direction can be changed as indicated by arrow A3. When the arrangement of the virtual camera 42 is changed as described above, the image P captured by the virtual camera 42 in the changed state is displayed on the monitor 20.

更に、本実施の形態に係る仮想ゲーム空間41内には、太陽などの仮想光源43が設定されている。そして、仮想ゲーム空間41を示す画像Pは、仮想ゲーム空間41が仮想光源43に照らされたときに生じる視覚的な効果を表現するように構成されている。より具体的に説明すると、現実の野外空間において太陽が天頂(観察者の直上)に位置する場合、太陽からの直射日光や、上空に浮遊する塵による太陽光の乱反射などの影響によって、観察者の視界はその上部がやや白色化して知覚される。また、観察者が視点を上方へ向けるに従って白色化して知覚される範囲は下方へと広がり、逆に視点を下方へ向けるに従って白色化して知覚される範囲は上方へ狭まっていく。   Furthermore, a virtual light source 43 such as the sun is set in the virtual game space 41 according to the present embodiment. The image P showing the virtual game space 41 is configured to express a visual effect that occurs when the virtual game space 41 is illuminated by the virtual light source 43. More specifically, when the sun is located at the zenith (immediately above the observer) in an actual outdoor space, the observer is affected by direct sunlight from the sun or the diffuse reflection of sunlight from dust floating above the sun. The field of view is perceived with a slight whitening at the top. In addition, the range perceived by whitening as the observer turns the viewpoint upward spreads downward, and conversely, the range perceived by whitening as the viewpoint turns downward narrows upward.

また、例えば観察者が水中に位置している場合にも、太陽光による視覚的な効果が生じる。即ち、上方から降り注ぐ太陽光や、水中での乱反射などの影響によって、観察者の視界はその上部がやや白色化して知覚され、正面方向の周囲は青色化して知覚され、下部は黒色化して知覚される。そして、観察者が視点を上方へ向けるに従って、白色化して知覚される範囲が下方へ広がると共に、青色化して知覚される範囲及び黒色化して知覚される範囲は下方へと狭まっていく。逆に、観察者が視点を下方へ向けるに従って、白色化して知覚される範囲は上方へ狭まり、青色化して知覚される範囲及び黒色化して知覚される範囲は上方へと広がっていく。   Further, for example, when the observer is located in water, a visual effect due to sunlight is generated. That is, the observer's field of view is perceived with a slight whitening in the upper part of the viewer's field of view due to the effects of sunlight falling from above and diffuse reflection in water, and the perimeter in the front direction is perceived as blue, and the lower part is perceived as black. Is done. As the observer turns the viewpoint upward, the range perceived by whitening expands downward, and the range perceived by bluening and the range perceived by blackening narrows downward. Conversely, as the observer turns the viewpoint downward, the range perceived by whitening narrows upward, and the range perceived by blueening and the range perceived by blackening spreads upward.

そこで本実施の形態では、このような光源からの光による視覚的な効果を表現するべく、光源を特定しない状態(例えば、上記の地上の例でいう「光源による白色化」を考慮しない状態)の仮想ゲーム空間41を示す仮想空間素材画像P1と、光源43からの光による視覚的な効果(上記の地上の例でいう「白色化」)を示すフィルタ画像P2とを合成することにより、仮想ゲーム空間41を示す画像P(以下、「仮想空間合成画像P」と称する)を構成している。そして、仮想カメラ42の配置(位置,向き)に基づいて、フィルタ画像P2の内容を変更させるようにしている。なお、このような仮想空間合成画像Pの生成については後に詳述する。   Therefore, in the present embodiment, in order to express the visual effect of the light from such a light source, a state in which the light source is not specified (for example, a state in which “whitening by the light source” referred to in the above ground example is not considered) By synthesizing the virtual space material image P1 showing the virtual game space 41 and the filter image P2 showing the visual effect ("whitening" in the above ground example) by the light from the light source 43, An image P showing the game space 41 (hereinafter referred to as “virtual space composite image P”) is configured. Then, the content of the filter image P2 is changed based on the arrangement (position, orientation) of the virtual camera 42. The generation of such a virtual space composite image P will be described in detail later.

[制御部の機能的構成]
上述したような仮想空間合成画像Pは、ゲーム装置1が備える制御部8によって生成される。そこで、次に、仮想空間合成画像Pの生成に関連する機能を含む制御部8の機能について説明する。
[Functional configuration of control unit]
The virtual space composite image P as described above is generated by the control unit 8 provided in the game apparatus 1. Then, next, the function of the control part 8 including the function relevant to the production | generation of the virtual space synthesized image P is demonstrated.

図4は、ゲーム装置1が備える制御部8の機能的な構成を示すブロック図である。図4に示すように、制御部8はキャラクタ制御手段51及びゲーム進行制御手段52を備え、更に、仮想カメラ制御手段53、素材画像生成手段54、フィルタ画像生成手段55、及び合成画像生成手段56を備えている。このうちキャラクタ制御手段51は、プレイヤによるコントローラ30の操作に応じて、仮想ゲーム空間41内で行動するプレイヤキャラクタの動作を制御し、また、ゲームプログラム24から読み出したデータに基づき、仮想ゲーム空間41内で行動する敵キャラクタの動作を制御する。ゲーム進行制御手段52は、プレイヤによるコントローラ30の操作等に応じてゲームを進行させる。   FIG. 4 is a block diagram illustrating a functional configuration of the control unit 8 included in the game apparatus 1. As shown in FIG. 4, the control unit 8 includes character control means 51 and game progress control means 52, and further includes virtual camera control means 53, material image generation means 54, filter image generation means 55, and composite image generation means 56. It has. Among these, the character control means 51 controls the action of the player character acting in the virtual game space 41 according to the operation of the controller 30 by the player, and based on the data read from the game program 24, the virtual game space 41 Controls the movement of enemy characters that act inside. The game progress control means 52 advances the game according to the operation of the controller 30 by the player.

仮想カメラ制御手段53は、プレイヤによるコントローラ30の操作に応じて、又は、ゲームの進行状況に応じて、仮想カメラ42の配置を変更するものである。図5は、仮想カメラ42の配置変更を説明するための模式図である。この図5に示すように、本ゲームでは仮想カメラ42の水平方向の向き(図3の矢印A1も参照)を変更可能であり、本実施の形態では仮想カメラ42を中心とする平面視で360度任意の方向へ向けることができる。即ち、仮想ゲーム空間41内に適宜設定された水平方向の基準である基準水平方向D1と、仮想カメラ42の水平方向の向きとの間の角度(仮想カメラ42を中心とする時計回り方向の角度)をa1とした場合、角度a1は、0〜360度の範囲の任意の値をとることができる。なお、本実施の形態では、基準水平方向D1をZ軸方向とし、水平面内でZ軸方向に直交する方向をX軸方向、Z軸方向及びX方向の両方に直交する高さ方向をY軸方向とする(図3も参照)。   The virtual camera control means 53 changes the arrangement of the virtual camera 42 according to the operation of the controller 30 by the player or according to the progress of the game. FIG. 5 is a schematic diagram for explaining the arrangement change of the virtual camera 42. As shown in FIG. 5, in this game, the horizontal direction of the virtual camera 42 (see also the arrow A1 in FIG. 3) can be changed. In the present embodiment, 360 is a plan view centered on the virtual camera 42. It can be directed in any direction. That is, an angle between a reference horizontal direction D1 which is a horizontal reference appropriately set in the virtual game space 41 and a horizontal direction of the virtual camera 42 (an angle in a clockwise direction around the virtual camera 42). ) Is a1, the angle a1 can take any value in the range of 0 to 360 degrees. In this embodiment, the reference horizontal direction D1 is the Z-axis direction, the direction orthogonal to the Z-axis direction in the horizontal plane is the X-axis direction, and the height direction orthogonal to both the Z-axis direction and the X direction is the Y-axis. Direction (see also FIG. 3).

また、仮想カメラ42は上下方向の向き(図3の矢印A2も参照)を変更可能であり、本実施の形態では、側面視で、仮想カメラ42を中心とする所定の角度範囲内の任意の方向へ向けることができる。即ち、仮想カメラ42の向いている方向の水平方向前方に対する角度をa2とした場合、上方へは+90度までの所定角度まで向けることができ、下方へは−90度までの所定角度まで向けることができる。また、仮想カメラ42は上下方向の高さ位置a3を変更可能であり、本実施の形態では、所定の高さ(初期高さ)を基準としたときの高さ位置a3が、所定の上限値及び下限値の間で変更可能になっている。このように、仮想カメラ制御手段53はプレイヤによるコントローラ30の操作等に応じて、仮想カメラ42の水平方向の角度a1、上下方向の角度a2、及び上下方向の高さ位置a3を変更可能になっている。   Further, the virtual camera 42 can be changed in the vertical direction (see also the arrow A2 in FIG. 3). In the present embodiment, the virtual camera 42 can be arbitrarily set within a predetermined angle range centered on the virtual camera 42 in a side view. Can be directed. In other words, when the angle of the direction in which the virtual camera 42 is facing with respect to the front in the horizontal direction is a2, the upward angle can be directed to a predetermined angle of up to +90 degrees and the downward direction can be directed to a predetermined angle of up to -90 degrees. Can do. In addition, the virtual camera 42 can change the height position a3 in the vertical direction. In the present embodiment, the height position a3 with a predetermined height (initial height) as a reference is a predetermined upper limit value. And the lower limit value can be changed. Thus, the virtual camera control means 53 can change the horizontal angle a1, the vertical angle a2, and the vertical height position a3 of the virtual camera 42 in accordance with the operation of the controller 30 by the player. ing.

*フィルタ画像の基準合成色情報*
制御部8が有する、素材画像生成手段54は、前述した仮想空間素材画像P1を生成するものであり、フィルタ画像生成手段55はフィルタ画像P2を生成するものであり、合成画像生成手段56は、上記仮想空間素材画像P1とフィルタ画像P2とを合成して仮想空間合成画像Pを生成するものである。
* Reference composite color information of filter image *
The material image generation means 54 included in the control unit 8 generates the virtual space material image P1 described above, the filter image generation means 55 generates the filter image P2, and the composite image generation means 56 The virtual space material image P1 and the filter image P2 are combined to generate a virtual space composite image P.

図6は、仮想空間合成画像Pの生成を説明するための模式図である。この図6に示すように、素材画像生成手段54により生成される仮想空間素材画像P1は、光源を特定しない状態(光源43による白色化等を考慮しない状態)の仮想ゲーム空間41を示す画像であり、例えば地上の場合であれば、地面、山や岩、海面、空、雲などが描画された背景画像となっている。一方、フィルタ画像生成手段55が生成するフィルタ画像P2は、光源43からの光による視覚的な効果(例えば白色化)を示す画像であり、例えば図6のように地上の場合であれば、上端から下端へ向かうに従って白色から無色透明になるグラデーション画像となっている。なお、これらの仮想空間素材画像P1とフィルタ画像P2とは、アスペクト比及び画素数が互いに同一の長方形状の画像になっている。また、図示の都合、及び理解のしやすさの観点から、図6では白色を黒色で代替して示している。   FIG. 6 is a schematic diagram for explaining generation of the virtual space composite image P. As shown in FIG. 6, the virtual space material image P1 generated by the material image generation means 54 is an image showing the virtual game space 41 in a state where the light source is not specified (whitening by the light source 43 is not considered). For example, in the case of the ground, it is a background image in which the ground, mountains, rocks, sea surface, sky, clouds, and the like are drawn. On the other hand, the filter image P2 generated by the filter image generation means 55 is an image showing a visual effect (for example, whitening) by the light from the light source 43. For example, in the case of the ground as shown in FIG. The gradation image changes from white to colorless and transparent as it goes from the bottom to the bottom. The virtual space material image P1 and the filter image P2 are rectangular images having the same aspect ratio and the same number of pixels. Further, from the viewpoint of illustration and ease of understanding, white is replaced with black in FIG.

ここで、フィルタ画像生成手段55が生成するフィルタ画像P2について更に詳述する。図7は、フィルタ画像P2を説明するための図面であり、(a)はフィルタ画像に設定された基準画素を、(b)は仮想カメラ42の水平方向の向きを、(c)は仮想カメラ42の水平方向の向きに関連づけられて予め設定された各基準画素の色情報を、それぞれ示している。端的に言えば、フィルタ画像生成手段55は、所定の境界線で仕切られる上側領域H1と下側領域H2との夫々にて形成したグラデーション画像によりフィルタ画像P2を生成する一方、仮想カメラ42の上下方向に関する配置の変化に応じて、前記境界線の上下位置を変化させるものである。
端的に言えば、フィルタ画像生成手段55は、仮想空間素材画像P1を所定の境界線により上下の領域(領域H1,H2)に仕切り、これら各領域の四隅に位置する画素に設定された合成色情報に基づき、各領域に対応するグラデーション画像を形成してフィルタ画像を生成する。また、仮想カメラ42の上下方向に関する配置の変化に応じて、境界線の上下位置を変化させるよう構成されている。
Here, the filter image P2 generated by the filter image generation means 55 will be described in more detail. 7A and 7B are diagrams for explaining the filter image P2, in which FIG. 7A shows the reference pixels set in the filter image, FIG. 7B shows the horizontal direction of the virtual camera 42, and FIG. 7C shows the virtual camera. The color information of each reference pixel preset in association with the horizontal direction 42 is shown. In short, the filter image generation means 55 generates the filter image P2 from the gradation image formed in each of the upper region H1 and the lower region H2 partitioned by a predetermined boundary line, while The vertical position of the boundary line is changed according to the change in the arrangement with respect to the direction.
In short, the filter image generation means 55 divides the virtual space material image P1 into upper and lower areas (areas H1 and H2) by a predetermined boundary line, and the composite color set for the pixels located at the four corners of each area. Based on the information, a gradation image corresponding to each region is formed to generate a filter image. Further, the vertical position of the boundary line is changed in accordance with the change in the arrangement of the virtual camera 42 in the vertical direction.

より具体的に説明すると、まず、図7(a)に示すように、フィルタ画像P2には6つの基準画素が設定されている。即ち、左上の頂点に位置する基準画素L1、左下の頂点に位置する基準画素L2、左端において上記基準画素L1,L2の中間付近に位置する基準画素L3が設定され、また、右上の頂点に位置する基準画素R1、右下の頂点に位置する基準画素R2、右端において上記基準画素R1,R2の中間付近に位置する基準画素R3が設定されている。この左右の基準画素L3,R3が、上述した領域H1,H2を仕切る境界線を成している。   More specifically, first, as shown in FIG. 7A, six reference pixels are set in the filter image P2. That is, a reference pixel L1 located at the upper left vertex, a reference pixel L2 located at the lower left vertex, a reference pixel L3 located near the middle of the reference pixels L1 and L2 at the left end, and a position located at the upper right vertex are set. The reference pixel R1, the reference pixel R2 located at the lower right vertex, and the reference pixel R3 located near the middle of the reference pixels R1, R2 are set at the right end. The left and right reference pixels L3 and R3 form a boundary line that partitions the above-described regions H1 and H2.

換言すれば、フィルタ画像P2は、基準画素L1,L2,R1,R2を四隅の点とする長方形状であり、中央付近の左右に基準画素L3,R3が設定されている。そしてフィルタ画像P2は、基準画素L3,R3を結ぶ線分(仮想の境界線であり、フィルタ画像P2には表示されない)により、上側の領域H1(基準画素L1,R1,L3,R3を四隅とする領域)と、下側の領域H2(基準画素L2,R2,L3,R3を四隅とする領域)とに仕切られている。また、本実施の形態においては、基準画素L1,R1を結ぶ線分、基準画素L2,R2を結ぶ線分、及び基準画素L3,R3を結ぶ線分(境界線)は、何れも互いに平行になっている。   In other words, the filter image P2 has a rectangular shape with the reference pixels L1, L2, R1, and R2 as four corner points, and the reference pixels L3 and R3 are set on the left and right near the center. Then, the filter image P2 has a line segment connecting the reference pixels L3 and R3 (virtual boundary line, not displayed in the filter image P2), and the upper region H1 (reference pixels L1, R1, L3, and R3 are defined as four corners. Area) and a lower area H2 (an area having four corners of the reference pixels L2, R2, L3, R3). In the present embodiment, the line segment connecting the reference pixels L1 and R1, the line segment connecting the reference pixels L2 and R2, and the line segment (boundary line) connecting the reference pixels L3 and R3 are all parallel to each other. It has become.

なお、上述したように仮想空間素材画像P1とフィルタ画像P2とは、アスペクト比及び画素数が互いに同一である。従って、フィルタ画像P2の四隅に位置する基準画素L1,L2,R1,R2は、仮想空間素材画像P1における四隅の画素に夫々対応しており、基準画素P3,R3は、仮想空間素材画像P1の左右端における上下方向の中間付近の画素に対応したものとなっている。   As described above, the virtual space material image P1 and the filter image P2 have the same aspect ratio and the same number of pixels. Therefore, the reference pixels L1, L2, R1, and R2 positioned at the four corners of the filter image P2 correspond to the pixels at the four corners of the virtual space material image P1, respectively, and the reference pixels P3 and R3 are the virtual space material image P1. It corresponds to the pixels near the middle in the vertical direction at the left and right ends.

これらの基準画素L1〜L3,R1〜R3には、仮想カメラ42の水平方向の所定の向き(角度a1)に関連づけられて、予め色情報(基準合成色情報)Cが設定されている。基準合成色情報Cが関連づけられる仮想カメラ42の所定の向きとしては、図7(b)に示すように6つの基準方向D1〜D6が設定されている。このうち基準方向D1は既に説明した基準水平方向D1であり、残りの基準方向D2〜D6は、水平方向の角度a1が45度,135度,180度,225度,315度となる方向として設定されている。なお、本実施の形態では説明の便宜のため、基準水平方向D1は仮想カメラ42が光源43を正面に見たときの水平方向としている。   In these reference pixels L1 to L3 and R1 to R3, color information (reference composite color information) C is set in advance in association with a predetermined horizontal direction (angle a1) of the virtual camera 42. As the predetermined orientation of the virtual camera 42 to which the reference composite color information C is associated, six reference directions D1 to D6 are set as shown in FIG. 7B. Of these, the reference direction D1 is the reference horizontal direction D1 already described, and the remaining reference directions D2 to D6 are set as directions in which the horizontal angle a1 is 45 degrees, 135 degrees, 180 degrees, 225 degrees, and 315 degrees. Has been. In the present embodiment, for convenience of explanation, the reference horizontal direction D1 is the horizontal direction when the virtual camera 42 looks at the light source 43 in front.

そして、図7(c)に示すように、仮想カメラ42の基準方向D1に関連づけられて、基準画素L1〜L3,R1〜R3の夫々には、固有の基準合成色情報CL11,CL21,CL31,CR11,CR21,CR31が設定されている。同様にして、他の基準方向D2〜D6に対しても、基準画素L1〜L3,R1〜R3の夫々には固有の基準合成色情報Cが関連づけられて設定されている。この基準合成色情報Cは、後述するようにしてフィルタ画像P2の生成に用いるものであり、各基準画素の彩度、明度、色相、及び透明度を示す情報であって、例えばRGB値とα値とから成るRGBAにより表現されるものである。 Then, as shown in FIG. 7C, the reference pixels L1 to L3 and R1 to R3 are associated with the reference direction D1 of the virtual camera 42 and each of the reference pixels L1 to L3 has its own reference composite color information C L11 , C L21 , C L31 , C R11 , C R21 , C R31 are set. Similarly, with respect to the other reference directions D2 to D6, unique reference composite color information C is set in association with each of the reference pixels L1 to L3 and R1 to R3. The reference composite color information C is used to generate the filter image P2 as described later, and is information indicating the saturation, brightness, hue, and transparency of each reference pixel. For example, the RGB value and the α value It is expressed by RGBA consisting of

例えば昼間の地上を示す仮想ゲーム空間41の場合、正面向きの基準方向D1に関連づけられて、左上の基準画素L1には白色を示す基準合成色情報CL11が設定され、左下の基準画素L2には無色透明を示す基準合成色情報CL21が設定され、これらの中間の基準画素L3については、基準画素L1,L2の中間色(半透明の白色)を示す基準合成色情報CL31が設定されている。また、右側の基準画素R1〜R3についても、上記左側の基準画素L1〜L3と同じ値を有する基準合成色情報CR11,CR21,CR31が、基準方向D1に関連づけられて設定されている。 For example, in the case of the virtual game space 41 indicating the daytime ground, the reference composite color information C L11 indicating white is set in the upper left reference pixel L1 in association with the front reference direction D1, and the lower left reference pixel L2 is set. Is set with reference composite color information CL21 indicating colorless and transparent, and for these intermediate reference pixels L3, reference composite color information CL31 indicating intermediate colors (translucent white) of the reference pixels L1 and L2 is set. Yes. For the right reference pixels R1 to R3, reference composite color information C R11 , C R21 , and C R31 having the same values as the left reference pixels L1 to L3 are set in association with the reference direction D1. .

基準方向D1の右に位置する基準方向D2については、上記基準方向D1に関連づけられた基準合成色情報Cよりも全体的に明度が低く設定され、更に、光源43に近い方の基準画素L1〜L3よりも遠い方の基準画素R1〜R3の方が、明度が低く設定されている。その後方に位置する基準方向D3の基準合成色情報Cについては、更に全体的に明度が低く設定され、且つ、光源43に近い方の基準画素L1〜L3よりも遠い方の基準画素R1〜R3の方が、明度が低く設定されている。基準方向D1の左に位置する基準方向D6、及びその後方に位置する基準方向D5についても、左右の関係が逆なだけで、その他は上記基準方向D2,D3の場合と同様である。そして、基準方向D1と正反対の後方向きである基準方向D4については、左側の基準画素L1〜L3と右側の基準画素R1〜R3とで同一の基準合成色情報Cが設定されており、且つ、その明度は他の基準方向D1〜D3,D5,D6の場合に比べて最も低く設定されている。   For the reference direction D2 located to the right of the reference direction D1, the overall brightness is set lower than the reference composite color information C associated with the reference direction D1, and the reference pixels L1 to L1 closer to the light source 43 are further set. The brightness of the reference pixels R1 to R3 farther than L3 is set lower. Regarding the reference composite color information C in the reference direction D3 located on the rear side, the brightness is set to be lower as a whole, and the reference pixels R1 to R3 farther than the reference pixels L1 to L3 closer to the light source 43 are set. The lightness is set lower. The reference direction D6 located to the left of the reference direction D1 and the reference direction D5 located behind the reference direction D1 are the same as those in the reference directions D2 and D3 except that the left-right relationship is reversed. For the reference direction D4, which is the reverse direction opposite to the reference direction D1, the same reference composite color information C is set in the left reference pixels L1 to L3 and the right reference pixels R1 to R3, and The brightness is set to be the lowest as compared with other reference directions D1 to D3, D5, and D6.

このような基準合成色情報Cは、仮想ゲーム空間41の環境(地上、水中、空中、早朝、昼間、夕方、夜中、及び、光源43の数、位置など)に応じて、複数種類が光ディスク23に記録されており、制御部8によって適宜読み出される。   There are a plurality of types of reference composite color information C depending on the environment of the virtual game space 41 (the ground, underwater, air, early morning, daytime, evening, night, and the number and position of the light sources 43). And is appropriately read out by the control unit 8.

一方、上記基準方向D1〜D6以外の方向へ仮想カメラ42が向いている場合は、基準方向D1〜D6のうち、仮想カメラ42の方向を挟んで近接する2つの基準方向に関連づけられた基準合成色情報Cに基づいて、各基準画素L1〜L3,R1〜R3についての基準合成色情報Cを取得する。例えば、仮想カメラ42の水平方向の向きを示す角度a1が30度であった場合、仮想カメラ42は、基準方向D1,D2の間に向けられていることとなる。この場合、フィルタ画像P2(a1=30度)の基準画素L1の基準合成色情報Cは、基準方向D1,D2に関連づけられた基準画素L1の基準合成色情報CL11,CL12(図7(c)参照)に基づいて算出する。具体的には、基準方向D1(a1=0度)から基準方向D2(a1=45度)まで、基準合成色情報の数値をCL11からCL12へと直線的に変化させていった場合に、仮想カメラ42が向けられた方向(a1=30度)に対応する基準合成色情報Cを取得する。 On the other hand, when the virtual camera 42 faces in a direction other than the reference directions D1 to D6, the reference composition associated with two reference directions that are adjacent to each other with the direction of the virtual camera 42 sandwiched between the reference directions D1 to D6. Based on the color information C, reference composite color information C for each of the reference pixels L1 to L3 and R1 to R3 is acquired. For example, when the angle a1 indicating the horizontal direction of the virtual camera 42 is 30 degrees, the virtual camera 42 is oriented between the reference directions D1 and D2. In this case, the reference composite color information C of the reference pixel L1 of the filter image P2 (a1 = 30 degrees) is the reference composite color information C L11 and C L12 of the reference pixel L1 associated with the reference directions D1 and D2 (FIG. 7 ( c) See). Specifically, when the numerical value of the reference composite color information is linearly changed from C L11 to C L12 from the reference direction D1 (a1 = 0 degrees) to the reference direction D2 (a1 = 45 degrees). The reference composite color information C corresponding to the direction in which the virtual camera 42 is directed (a1 = 30 degrees) is acquired.

より一般的に言えば、仮想カメラ42が基準方向D1,D2間を向いている場合に、基準方向D1と仮想カメラ42の向きとの間の角度をx、仮想カメラの向きと基準方向D2との間の角度をyとすると、このときの基準画素L1の基準合成色情報Cxyは、   More generally speaking, when the virtual camera 42 faces between the reference directions D1 and D2, the angle between the reference direction D1 and the orientation of the virtual camera 42 is x, and the orientation of the virtual camera and the reference direction D2 Where y is the angle between the reference color information Cxy of the reference pixel L1 at this time,

と表される式(1)によって算出することができる。また、その他の基準画素L2,L3,R1〜R3についても同様にして算出できる。更に、仮想カメラ42の向きが他の基準方向の間を向いている場合も、同様の考え方から、その向きに対応する基準合成色情報Cを算出することができる。   It can be calculated by the expression (1) expressed as Further, other reference pixels L2, L3, R1 to R3 can be similarly calculated. Furthermore, when the orientation of the virtual camera 42 faces between other reference directions, the reference composite color information C corresponding to the orientation can be calculated from the same concept.

*中間の基準画素位置の変位*
ところで、基準画素L1〜L3,R1〜R3のうち、中間に位置する基準画素L3,R3は、仮想カメラ42の上下方向の向き(角度a2)に応じて、上下方向の位置が変更されるようになっている。図8は、仮想カメラ42の上下方向の向きと中間の基準画素L3,R3の上下位置との関係を説明するためのグラフである。なお、このグラフ中の縦軸は仮想カメラ42の上下方向の向き(角度a2)を示しており、原点(a2=0)は仮想カメラ42が仮想ゲーム空間41にて水平方向を向いている状態、原点より上方(a2>0)は仮想カメラ42が上方を向いている状態、原点より下方(a2<0)は仮想カメラ42が下方を向いている状態を夫々意味している。また、グラフ中の横軸は基準画素L3,R3の位置を示しており、原点は、フィルタ画像P2の上下方向中央付近に設定された初期位置を示し、原点から軸に沿って右へ行くほど、フィルタ画像P2では上側の基準画素L1,R1に接近し、原点から軸に沿って左へ行くほど、フィルタ画像P2では下側の基準画素L2,R2に接近することを意味している。
* Intermediate reference pixel position displacement *
By the way, among the reference pixels L1 to L3 and R1 to R3, the reference pixels L3 and R3 located in the middle are changed in the vertical position according to the vertical direction (angle a2) of the virtual camera 42. It has become. FIG. 8 is a graph for explaining the relationship between the vertical direction of the virtual camera 42 and the vertical positions of the intermediate reference pixels L3 and R3. The vertical axis in this graph indicates the vertical direction (angle a2) of the virtual camera 42, and the origin (a2 = 0) is the state in which the virtual camera 42 faces the horizontal direction in the virtual game space 41. Above the origin (a2> 0) means that the virtual camera 42 faces upward, and below the origin (a2 <0) means that the virtual camera 42 faces downward. Further, the horizontal axis in the graph indicates the positions of the reference pixels L3 and R3, and the origin indicates the initial position set near the center in the vertical direction of the filter image P2, and as it goes to the right along the axis from the origin. This means that the filter image P2 approaches the upper reference pixels L1 and R1 and approaches the lower reference pixels L2 and R2 in the filter image P2 as it goes to the left along the axis from the origin.

この図8に示すように、仮想カメラ42が水平方向に向けられているとき(角度a2=0のとき)は、基準画素L3,R3は上下方向の中央付近の初期位置に設定される。そして、仮想カメラ42が上方(a2>0)へ向けられるに従って、基準画素L3,R3は下降して下側の基準画素L2,R2に接近し、上側の領域H1は広く、下側の領域H2は狭くなっていく。逆に、仮想カメラ42が下方(a2<0)へ向けられるに従って、基準画素L3,R3は上昇して上側の基準画素L1,R1に接近し、上側の領域H1は狭く、下側の領域H2は広くなっていく。   As shown in FIG. 8, when the virtual camera 42 is oriented in the horizontal direction (when the angle a2 = 0), the reference pixels L3 and R3 are set to an initial position near the center in the vertical direction. Then, as the virtual camera 42 is directed upward (a2> 0), the reference pixels L3 and R3 descend and approach the lower reference pixels L2 and R2, the upper region H1 is wide, and the lower region H2 Is getting narrower. Conversely, as the virtual camera 42 is directed downward (a2 <0), the reference pixels L3 and R3 rise and approach the upper reference pixels L1 and R1, the upper region H1 is narrow, and the lower region H2 Is getting wider.

なお、図8に示すように本実施の形態では、仮想カメラ42の上下方向の向きの変位量(角度a2の変位量)と、基準画素L3,R3の上下方向位置の変位量とは、直線的な反比例の関係を有するように設定されている。また、基準画素L3,R3の変位可能な範囲の上限は上側の基準画素L1,R1とし、下限は下側の基準画素L2,R2としている。また、基準画素L3,R3の上限位置には仮想カメラ42の上下方向の向きの下限(a2=min)が対応し、基準画素L3,R3の下限位置には仮想カメラ42の上下方向の向きの上限(a2=max)が対応している。即ち、仮想カメラ42を上方へ向けていくと基準画素L3,R3は下方へ移動し、仮想カメラ42が上限の向きに達した時点で基準画素L3,R3は下限である基準画素L2,R2の位置に到達する。逆に、仮想カメラ42を下方へ向けていくと基準画素L3,R3は上方へ移動し、仮想カメラ42が下限の向きに達した時点で基準画素L3,R3は上限である基準画素L1,R1の位置に到達する。   As shown in FIG. 8, in the present embodiment, the displacement amount of the virtual camera 42 in the vertical direction (the displacement amount of the angle a2) and the displacement amount of the vertical positions of the reference pixels L3 and R3 are linear. It is set to have a general inverse proportion relationship. The upper limit of the displaceable range of the reference pixels L3 and R3 is the upper reference pixels L1 and R1, and the lower limit is the lower reference pixels L2 and R2. Further, the upper limit position of the reference pixels L3 and R3 corresponds to the lower limit (a2 = min) of the vertical direction of the virtual camera 42, and the lower limit position of the reference pixels L3 and R3 corresponds to the vertical direction of the virtual camera 42. The upper limit (a2 = max) corresponds. In other words, when the virtual camera 42 is directed upward, the reference pixels L3 and R3 move downward, and when the virtual camera 42 reaches the upper limit direction, the reference pixels L3 and R3 are the lower limit of the reference pixels L2 and R2. Reach position. Conversely, when the virtual camera 42 is directed downward, the reference pixels L3 and R3 move upward, and when the virtual camera 42 reaches the lower limit direction, the reference pixels L3 and R3 are the upper limit reference pixels L1 and R1. To reach the position.

*フィルタ画像の取得*
ここで、図4に示すように本ゲーム装置1のフィルタ画像生成手段55は、基準合成色情報取得手段55aと、中間画素位置変更手段55bと、フィルタ画像取得手段55cとを有している。このうち基準合成色情報取得手段55aは、基準画素L1〜L3,R1〜R3についての基準合成色情報Cを、上述したように仮想カメラ42の水平方向の向き(角度a1)に基づいて取得するものである。また、中間画素位置変更手段55bは、中間の基準画素L3,R3の位置を、上述したように仮想カメラ42の上下方向の向き(角度a2)に基づいて取得するものである。そしてフィルタ画像取得手段55cは、取得した基準合成色情報Cと基準画素L3,R3の位置とに基づき、フィルタ画像P2を取得するものである。
* Filter image acquisition *
Here, as shown in FIG. 4, the filter image generation means 55 of the game apparatus 1 has a reference composite color information acquisition means 55a, an intermediate pixel position change means 55b, and a filter image acquisition means 55c. Among these, the reference composite color information acquisition unit 55a acquires the reference composite color information C for the reference pixels L1 to L3 and R1 to R3 based on the horizontal direction (angle a1) of the virtual camera 42 as described above. Is. Further, the intermediate pixel position changing means 55b acquires the positions of the intermediate reference pixels L3 and R3 based on the vertical direction (angle a2) of the virtual camera 42 as described above. The filter image acquisition unit 55c acquires the filter image P2 based on the acquired reference composite color information C and the positions of the reference pixels L3 and R3.

図9は、フィルタ画像P2の例を示す模式図であり、(a)は仮想カメラ42が水平方向に向けられているとき、(b)は水平方向より上方へ向けられているとき、(c)は水平方向より下方へ向けられているとき、の夫々のフィルタ画像P2を示している。なお、図9では、昼間の地上を表す仮想ゲーム空間41を撮影したときの仮想空間合成画像Pを生成する際のフィルタ画像P2を例示しており、光源43に照らされている状態を表現するために、上端から下端に向かうに従って、白色から無色透明へと緩やかに変化するグラデーションを成す画像としている。但し、図示の都合、及び理解のしやすさの観点から、図9では白色を黒色で代替して示している。   FIG. 9 is a schematic diagram illustrating an example of the filter image P2. FIG. 9A illustrates a case where the virtual camera 42 is directed in the horizontal direction, and FIG. 9B illustrates a case where the virtual camera 42 is directed upward from the horizontal direction. ) Shows the respective filter images P2 when directed downward from the horizontal direction. In addition, in FIG. 9, the filter image P2 at the time of producing | generating the virtual space composite image P when image | photographing the virtual game space 41 showing the daytime ground is illustrated, and the state illuminated by the light source 43 is represented. Therefore, the image has a gradation that gradually changes from white to colorless and transparent as it goes from the upper end to the lower end. However, from the viewpoint of illustration convenience and ease of understanding, white is replaced with black in FIG. 9.

図9(a)に示すように、仮想カメラ42が水平方向(a2=0)に向けられている場合、基準画素L3,R3は上下方向の中央付近の初期位置に設定され、上下の領域H1,H2は略同一の面積を有している。そしてフィルタ画像取得手段55cにより、上側の領域H1と下側の領域H2とについて、夫々別個にグラデーション画像が形成される。   As shown in FIG. 9A, when the virtual camera 42 is oriented in the horizontal direction (a2 = 0), the reference pixels L3 and R3 are set at an initial position near the center in the vertical direction, and the upper and lower areas H1. , H2 have substantially the same area. Then, the filter image acquisition means 55c forms gradation images separately for the upper region H1 and the lower region H2.

具体的に説明すると、上側の領域H1については、この領域H1内の各画素(基準画素L1,R1,L3,R3を除く)の合成色情報を、基準画素L1,R1,L3,R3の夫々の間でグラデーションを成すように設定(算出)する。例えば、領域H1における上端の基準画素L1,R1に白色を示す基準合成色情報Cが設定され、下端の基準画素L3,R3に半透明白色を示す基準合成色情報Cが設定されているとする。この場合、上端から下端へ向かうに従って、白色から半透明白色へ緩やかに変化するグラデーションとなるように、各画素の合成色情報が設定される。これにより、領域H1について、基準画素L1,R1,L3,R3に基づきグラデーション画像が形成される。   More specifically, for the upper region H1, the combined color information of each pixel (excluding the reference pixels L1, R1, L3, and R3) in the region H1 is used for each of the reference pixels L1, R1, L3, and R3. Set (calculate) to create a gradation between. For example, it is assumed that the reference composite color information C indicating white is set in the upper reference pixels L1 and R1 in the region H1, and the reference composite color information C indicating translucent white is set in the lower reference pixels L3 and R3. . In this case, the combined color information of each pixel is set so that the gradation gradually changes from white to translucent white as it goes from the upper end to the lower end. As a result, a gradation image is formed in the region H1 based on the reference pixels L1, R1, L3, and R3.

下側の領域H2についても同様に、この領域H2内の各画素(基準画素L2,R2,L3,R3を除く)の合成色情報を、基準画素L2,R2,L3,R3の夫々の間でグラデーションを成すように設定(算出)する。例えば、領域H2における上端の基準画素L3,R3に半透明白色を示す基準合成色情報Cが設定され、下端の基準画素L2,R2に無色透明を示す基準合成色情報Cが設定されていたとする。この場合、上端から下端へ向かうに従って、半透明白色から無色透明へ緩やかに変化するグラデーションとなるように、各画素の合成色情報が設定される。これにより、領域H2について、基準画素L2,R2,L3,R3に基づきグラデーション画像が形成される。そして、このようにして形成した領域H1,H2での各グラデーション画像により、1つのフィルタ画像P2が取得される。   Similarly, for the lower region H2, the combined color information of each pixel (except the reference pixels L2, R2, L3, and R3) in the region H2 is transferred between the reference pixels L2, R2, L3, and R3. Set (calculate) gradation. For example, it is assumed that the reference composite color information C indicating semi-transparent white is set in the upper reference pixels L3 and R3 in the region H2, and the reference composite color information C indicating colorless and transparent is set in the lower reference pixels L2 and R2. . In this case, the combined color information of each pixel is set so that the gradation gradually changes from translucent white to colorless and transparent as it goes from the upper end to the lower end. As a result, a gradation image is formed in the region H2 based on the reference pixels L2, R2, L3, and R3. And one filter image P2 is acquired by each gradation image in the area | regions H1 and H2 formed in this way.

図9(b)に示すように、仮想カメラ42が水平方向より上方(a2>0)へ向けられている場合も、上記と同様にして領域H1,H2の夫々について個別にグラデーション画像が形成され、これらを合わせることで1つのフィルタ画像P2が取得される。但し、この場合は、中間の基準画素L3,R3の位置が中央付近の初期位置よりも下方に設定されるため、上側の領域H1が下側の領域H2よりも広くなっている。そのため、上記で例示したような昼間の仮想ゲーム空間41の場合には、白色化した領域が図9(a)の場合よりも下方へ広がったフィルタ画像P2となる。   As shown in FIG. 9B, even when the virtual camera 42 is directed upward (a2> 0) from the horizontal direction, gradation images are individually formed in the regions H1 and H2 in the same manner as described above. By combining these, one filter image P2 is obtained. However, in this case, since the positions of the intermediate reference pixels L3 and R3 are set below the initial position near the center, the upper area H1 is wider than the lower area H2. Therefore, in the case of the daytime virtual game space 41 as exemplified above, the whitened region becomes the filter image P2 that spreads downward as compared with the case of FIG. 9A.

図9(c)に示すように、仮想カメラ42が水平方向より下方(a2<0)へ向けられている場合も、上記と同様にして領域H1,H2の夫々について個別にグラデーション画像が形成され、これらを合わせることで1つのフィルタ画像P2が取得される。但し、この場合は、中間の基準画素L3,R3の位置が中央付近の初期位置よりも上方に設定されるため、上側の領域H1が下側の領域H2よりも狭くなっている。そのため、上記で例示したような昼間の仮想ゲーム空間41の場合には、白色化した領域が図9(a)の場合よりも上方へ狭まったフィルタ画像P2となる。   As shown in FIG. 9C, even when the virtual camera 42 is directed downward (a2 <0) from the horizontal direction, gradation images are individually formed in the regions H1 and H2 in the same manner as described above. By combining these, one filter image P2 is obtained. However, in this case, since the positions of the intermediate reference pixels L3 and R3 are set higher than the initial position near the center, the upper area H1 is narrower than the lower area H2. Therefore, in the case of the daytime virtual game space 41 as exemplified above, the whitened region becomes a filter image P2 narrowed upward as compared with the case of FIG. 9A.

このように、フィルタ画像P2は、仮想カメラ42の水平方向の向き(角度a1)、及び上下方向の向き(角度a2)に応じて、異なった画像となるようになっている。   As described above, the filter image P2 is configured to be different depending on the horizontal direction (angle a1) and the vertical direction (angle a2) of the virtual camera 42.

[フレーム画像生成処理]
次に、仮想空間素材画像P1とフィルタ画像P2とを合成して仮想空間合成画像Pを取得し、これにその他の処理を施してフレーム画像を生成する処理について説明する。図10は、フレーム画像を生成する処理を示すフローチャートであり、(a)は全体の流れを示し、(b)は仮想空間素材画像P1とフィルタ画像P2とを合成する処理の流れを示している。ここに示された処理は、1フレーム画像を生成する毎に制御部8により実行され、本実施の形態に係るゲーム装置1では1/60[秒]単位で実行される。
[Frame image generation processing]
Next, a process of generating a virtual space composite image P by synthesizing the virtual space material image P1 and the filter image P2 and performing other processes on the virtual space composite image P will be described. FIG. 10 is a flowchart showing a process of generating a frame image, where (a) shows the overall flow, and (b) shows the flow of the process of synthesizing the virtual space material image P1 and the filter image P2. . The processing shown here is executed by the control unit 8 every time one frame image is generated, and is executed in units of 1/60 [second] in the game apparatus 1 according to the present embodiment.

図10(a)に示すように、まず、仮想ゲーム空間41を構成する山や海などの背景画像や各キャラクタなど、不透明色で表現されるオブジェクトを描画するためのデータを取得するべく、ソリッド処理(ステップS1)を実行する。次に、仮想ゲーム空間41に存在する木の葉などの平面的なオブジェクトの状態を示す描画データを取得するための、いわゆる「ヌキ処理」(ステップS2)を実行する。また、仮想ゲーム空間41を構成する透明なオブジェクトについての描画データを取得するトランスペアレンシー処理(ステップS3)、及び、戦闘シーンでの爆風や火花等の粒子状のもの(パーティクル等)の描画データを取得するエフェクト処理(ステップS4)を実行する。   As shown in FIG. 10A, first, in order to obtain data for drawing an object expressed in an opaque color, such as a background image such as a mountain or the sea and each character constituting the virtual game space 41, a solid is obtained. The process (step S1) is executed. Next, a so-called “nuki process” (step S2) for obtaining drawing data indicating the state of a planar object such as a leaf of a tree existing in the virtual game space 41 is executed. In addition, transparency processing (step S3) for acquiring drawing data for transparent objects constituting the virtual game space 41, and drawing data for particles (particles, etc.) such as blasts and sparks in battle scenes are obtained. The effect process to be acquired (step S4) is executed.

続いて、フィルタ処理(ステップS5)が実行される。このフィルタ処理では、上記ステップS1〜S4により得られた描画データ、即ち、本実施の形態に係る仮想空間素材画像P1に対してフィルタ画像P2を合成する処理が実行される。即ち、図10(b)に示すように、仮想カメラ42の水平方向の向き(角度a1)から基準合成色情報Cを取得し(ステップS51)、仮想カメラ42の上下方向の向き(角度a2)から基準画素L3,R3の位置を設定し(ステップS52)、これら基準合成色情報C及び基準画素L3,R3の位置に基づいてフィルタ画像P2を生成する(ステップS53)。そして、このフィルタ画像P2を仮想空間素材画像P1に合成し(ステップS54)、仮想空間合成画像Pを生成する。   Subsequently, filter processing (step S5) is executed. In this filter process, a process of combining the filter image P2 with the drawing data obtained in steps S1 to S4, that is, the virtual space material image P1 according to the present embodiment is executed. That is, as shown in FIG. 10B, the reference composite color information C is acquired from the horizontal direction (angle a1) of the virtual camera 42 (step S51), and the vertical direction of the virtual camera 42 (angle a2). The positions of the reference pixels L3 and R3 are set (step S52), and the filter image P2 is generated based on the reference composite color information C and the positions of the reference pixels L3 and R3 (step S53). Then, the filter image P2 is synthesized with the virtual space material image P1 (step S54), and the virtual space synthesized image P is generated.

また、ステップS5のフィルタ処理では、上記のような合成処理の他、必要に応じて仮想ゲーム空間41をよりリアルに表現するために、「もや」などを示すフィルタ画像を生成し、これを仮想空間合成画像Pに合成する処理も実行する。そして、プレイヤキャラクタの体力値や体力ゲージなど、他のオブジェクトに対して最も仮想カメラ42に近い位置に表示する二次元の描画データを取得するスクリーン処理(ステップS6)を実行する。このようにして取得される描画データは、逐次ゲーム装置1のフレームバッファに書き込まれ、GPU4によって所定のタイミングでモニタ20に描画(表示)される。   In addition, in the filter process in step S5, in addition to the above synthesis process, in order to more realistically express the virtual game space 41 as necessary, a filter image indicating “moy” or the like is generated, A process of combining the virtual space composite image P is also executed. Then, a screen process (step S6) is performed for acquiring two-dimensional drawing data to be displayed at a position closest to the virtual camera 42 with respect to other objects such as a physical strength value and a physical strength gauge of the player character. The drawing data acquired in this way is sequentially written in the frame buffer of the game apparatus 1 and drawn (displayed) on the monitor 20 by the GPU 4 at a predetermined timing.

(実施例1)
図11は、仮想ゲーム空間41が昼間の地上である場合において、仮想カメラ42の向きを上下方向に変化させたときの仮想空間合成画像Pを示す模式図である。また、図11において、(a)は仮想カメラ42が水平方向に向けられているとき、(b)は水平方向より上方へ向けられているとき、(c)は水平方向より下方へ向けられているとき、の夫々の仮想空間合成画像Pを示しており、フィルタ画像P2も合わせて示している。なお、(a)〜(c)に示したフィルタ画像P2は、図9(a)〜(c)に示したものと同じである。
Example 1
FIG. 11 is a schematic diagram showing a virtual space composite image P when the direction of the virtual camera 42 is changed in the vertical direction when the virtual game space 41 is on the ground in the daytime. Further, in FIG. 11, (a) is when the virtual camera 42 is oriented in the horizontal direction, (b) is oriented upward from the horizontal direction, and (c) is oriented downward from the horizontal direction. Each of the virtual space composite images P is shown, and the filter image P2 is also shown. In addition, the filter image P2 shown to (a)-(c) is the same as what was shown to Fig.9 (a)-(c).

図11(a)に示すように、仮想カメラ42が水平方向(a2=0)に向けられている場合、仮想空間合成画像Pは、地平線(又は水平線)が上下方向の略中央付近に位置する画像となっている。そしてこの画像Pには、上端から下端へ向かうに従って白色から無色透明へ緩やかに変化するグラデーションを成すフィルタ画像P2が合成されている。その結果、仮想空間合成画像Pは、上空の仮想光源43(太陽)に近い上部の背景画像が白色化し、下方へ向かうに従って背景の白色化の傾向が少なく(白色が薄く)なっていく画像となっている。これにより、現実空間において、太陽からの直射日光や、上空に浮遊する塵による太陽光の乱反射などの影響により、観察者の視界の上部がやや白色化して知覚される状態を表現している。   As shown in FIG. 11A, when the virtual camera 42 is oriented in the horizontal direction (a2 = 0), the virtual space composite image P is located near the center of the horizon (or horizontal line) in the vertical direction. It is an image. The image P is combined with a filter image P2 having a gradation that gradually changes from white to colorless and transparent as it goes from the upper end to the lower end. As a result, the virtual space composite image P is an image in which the upper background image close to the virtual light source 43 (sun) in the sky is whitened, and the tendency of whitening of the background is less (white becomes lighter) toward the lower side. It has become. As a result, in the real space, the upper part of the viewer's field of view is perceived as being slightly whitened due to the influence of direct sunlight from the sun or the irregular reflection of sunlight by dust floating in the sky.

図11(b)に示すように仮想カメラ42が水平方向より上方(a2>0)へ向けられている場合、仮想空間合成画像Pは、地平線(又は水平線)が下方に位置して、上部の広い領域が空中を表示する画像となっている。そしてこの画像Pには、上部の白色化した領域H1が図11(a)の場合よりも下方へ広がったフィルタ画像P2が合成されている。その結果、仮想空間合成画像Pは、上空の仮想光源43(太陽)に近いより広い上部領域の背景画像が、白色化した画像となっている。これにより、現実空間において観察者が上方を見上げたときに、視界上部のより広い範囲が白色化して知覚される状態を表現している。   When the virtual camera 42 is directed upward (a2> 0) from the horizontal direction as shown in FIG. 11 (b), the virtual space composite image P has the horizon (or horizontal line) positioned downward, A wide area is an image displaying the air. The image P is combined with a filter image P2 in which the whitened region H1 at the top is expanded downward as compared with the case of FIG. As a result, the virtual space composite image P is an image in which the background image of the wider upper region near the virtual light source 43 (sun) in the sky is whitened. This represents a state in which a wider range in the upper part of the field of view is perceived as white when the observer looks up in the real space.

図11(c)に示すように仮想カメラ42が水平方向より下方(a2<0)へ向けられている場合、仮想空間合成画像Pは、地平線(又は水平線)が上方に位置して、上部の空中を表示する領域が狭い画像となっている。そしてこの画像Pには、上部の白色化した領域H1が図11(a)の場合よりも上方へ狭まったフィルタ画像P2が合成されている。その結果、仮想空間合成画像Pは、上部の狭い領域の背景画像が白色化し、下部の広い領域の背景画像は白色化の傾向が少ない(白色が薄い)画像となっている。これにより、現実空間において観察者が下方を見下ろしたときに、視界上部の狭い範囲だけが白色化して知覚される状態を表現している。   As shown in FIG. 11 (c), when the virtual camera 42 is directed downward (a2 <0) from the horizontal direction, the virtual space composite image P has the horizon (or horizontal line) positioned upward, The area for displaying the air is a narrow image. Then, the image P is combined with a filter image P2 in which the upper whitened region H1 is narrower upward than in the case of FIG. As a result, the virtual space composite image P is an image in which the background image in the upper narrow area is whitened, and the background image in the lower wide area is an image that is less prone to whitening (white is light). Thereby, when the observer looks down at the real space, only a narrow range at the top of the field of view is expressed as being whitened.

(実施例2)
上述したゲーム装置1においては、仮想カメラ42の上下方向の向き(角度a2)に応じて基準画素L3,R3の上下位置を変更する構成を説明したが、仮想カメラ42は上下方向の高さ位置a3も変更可能である(図5参照)。そして、この高さ位置a3に応じて基準画素L3,R3の上下位置を変更するようにしてもよい。そこで以下では、仮想ゲーム空間41が水中である場合を例として、仮想カメラ42の高さ位置a3を変更したときの仮想空間合成画像Pについて説明する。なお、ここでは、既に説明した態様と相違する部分についてのみ説明し、その他については上述した態様と同様であるため説明を省略する。
(Example 2)
In the game apparatus 1 described above, the configuration in which the vertical positions of the reference pixels L3 and R3 are changed according to the vertical direction (angle a2) of the virtual camera 42 has been described. However, the virtual camera 42 has a vertical height position. a3 can also be changed (see FIG. 5). Then, the vertical positions of the reference pixels L3 and R3 may be changed according to the height position a3. Therefore, hereinafter, the virtual space composite image P when the height position a3 of the virtual camera 42 is changed will be described as an example where the virtual game space 41 is underwater. Here, only the parts different from the aspect already described will be described, and the other parts are the same as the above-described aspects, and the description thereof will be omitted.

図12は、仮想カメラ42の高さ位置と中間の基準画素L3,R3の上下位置との関係を説明するためのグラフである。なお、このグラフ中の縦軸は仮想カメラ42の高さ位置a3を示しており、原点(a3=0)は、仮想カメラ42が水中の仮想ゲーム空間41にて所定の高さ(初期高さ)に位置している状態、原点より上方(a3>0)は仮想カメラ42が初期高さより上方に位置している状態、原点より下方(a3<0)は仮想カメラ42が初期高さより下方に位置している状態を夫々意味している。また、グラフ中の横軸は基準画素L3,R3の位置を示しており、図8に示したグラフの横軸と同じ設定としている。   FIG. 12 is a graph for explaining the relationship between the height position of the virtual camera 42 and the vertical positions of the intermediate reference pixels L3 and R3. The vertical axis in this graph indicates the height position a3 of the virtual camera 42, and the origin (a3 = 0) is a predetermined height (initial height) in the virtual game space 41 where the virtual camera 42 is underwater. ), Above the origin (a3> 0), the virtual camera 42 is located above the initial height, and below the origin (a3 <0), the virtual camera 42 is below the initial height. It means the state of being located respectively. In addition, the horizontal axis in the graph indicates the positions of the reference pixels L3 and R3, and is set to the same setting as the horizontal axis of the graph shown in FIG.

この図12に示すように、仮想カメラ42が初期高さに位置しているとき(a3=0)は、基準画素L3,R3は上下方向の中央付近の初期位置に設定される。そして、仮想カメラ42が上方(a3>0)へ移動するに従って、基準画素L3,R3は下降して下側の基準画素L2,R2に接近し、上側の領域H1は広く、下側の領域H2は狭くなっていく。逆に、仮想カメラ42が下方(a3<0)へ移動するに従って、基準画素L3,R3は上昇して上側の基準画素L1,R1に接近し、上側の領域H1は狭く、下側の領域H2は広くなっていく。   As shown in FIG. 12, when the virtual camera 42 is located at the initial height (a3 = 0), the reference pixels L3 and R3 are set to an initial position near the center in the vertical direction. Then, as the virtual camera 42 moves upward (a3> 0), the reference pixels L3 and R3 descend and approach the lower reference pixels L2 and R2, the upper region H1 is wide, and the lower region H2 Is getting narrower. Conversely, as the virtual camera 42 moves downward (a3 <0), the reference pixels L3 and R3 rise and approach the upper reference pixels L1 and R1, the upper region H1 is narrow, and the lower region H2 Is getting wider.

なお、図12に示すように本実施例2では、仮想カメラ42の高さ位置a3の変位量と、基準画素L3,R3の上下方向位置の変位量とは、直線的な反比例の関係を有するように設定されている。また、基準画素L3,R3の変位可能な範囲の上限は上側の基準画素L1,R1とし、下限は下側の基準画素L2,R2としている。また、基準画素L3,R3の上限位置には仮想カメラ42の高さ位置の下限(a3=min)が対応し、基準画素L3,R3の下限位置には仮想カメラ42の高さ位置の上限(a3=max)が対応している。即ち、仮想カメラ42を上方へ移動させていくと基準画素L3,R3は下方へ移動し、仮想カメラ42が上限の高さ位置に達した時点で基準画素L3,R3は下限である基準画素L2,R2の位置に到達する。逆に、仮想カメラ42を下方へ移動させていくと基準画素L3,R3は上方へ移動し、仮想カメラ42が下限の高さ位置に達した時点で基準画素L3,R3は上限である基準画素L1,R1の位置に到達する。   As shown in FIG. 12, in the second embodiment, the displacement amount at the height position a3 of the virtual camera 42 and the displacement amounts at the vertical positions of the reference pixels L3 and R3 have a linear inverse proportional relationship. Is set to The upper limit of the displaceable range of the reference pixels L3 and R3 is the upper reference pixels L1 and R1, and the lower limit is the lower reference pixels L2 and R2. Further, the lower limit (a3 = min) of the height position of the virtual camera 42 corresponds to the upper limit position of the reference pixels L3, R3, and the upper limit of the height position of the virtual camera 42 (a3 = min) corresponds to the lower limit position of the reference pixels L3, R3. a3 = max). That is, when the virtual camera 42 is moved upward, the reference pixels L3 and R3 move downward, and when the virtual camera 42 reaches the upper limit height position, the reference pixels L3 and R3 are the lower limit reference pixel L2. , R2 is reached. Conversely, when the virtual camera 42 is moved downward, the reference pixels L3 and R3 move upward, and when the virtual camera 42 reaches the lower limit height position, the reference pixels L3 and R3 are upper limit reference pixels. It reaches the position of L1, R1.

また、本実施例2では、仮想ゲーム空間41が水中であることから、基準合成色情報Cはこれを考慮した内容となっている。即ち、水上に位置する光源43を正面とする基準方向D1について説明すると、左上の基準画素L1には透明度の低い白色を示す基準合成色情報CL11が設定され、左下の基準画素L2には透明度の低い黒色を示す基準合成色情報CL21が設定され、これらの中間の基準画素L3には透明度の高い青色を示す基準合成色情報CL31が設定されている。また、右側の基準画素R1〜R3についても、上記左側の基準画素L1〜L3と同じ値を有する基準合成色情報CR11,CR21,CR31が設定されている。 In the second embodiment, since the virtual game space 41 is underwater, the reference composite color information C is a content that takes this into account. That is, the reference direction D1 with the light source 43 located on the water as the front will be described. The reference composite color information C L11 indicating white with low transparency is set in the upper left reference pixel L1, and the transparency is set in the lower left reference pixel L2. The reference composite color information C L21 indicating low black is set, and the reference composite color information C L31 indicating blue with high transparency is set in the intermediate reference pixel L3. For the right reference pixels R1 to R3, reference composite color information C R11 , C R21 , and C R31 having the same values as the left reference pixels L1 to L3 are set.

従って、基準方向D1でのフィルタ画像P2は、上端が白色化し、下方の中央部分へ向かうに従って透明度の高い青色へと変化し、中央部分から更に下方へ向かうに従って青色化しつつ、下端へ近付くにつれて黒色化したグラデーション画像となっている。なお、その他の基準方向D2〜D6については、図7(c)において説明した地上のゲーム空間41の場合と同様の基準により、各基準合成色情報Cが設定されている。   Accordingly, the filter image P2 in the reference direction D1 is white at the upper end, changes to blue with higher transparency as it goes to the lower central part, becomes blue as it goes further downward from the central part, and becomes black as it approaches the lower end. It has become a gradation image. For the other reference directions D2 to D6, each reference composite color information C is set according to the same reference as in the case of the ground game space 41 described in FIG.

図13は、水中の仮想ゲーム空間41において、仮想カメラ42の高さ位置a3を上下方向に変化させたときの仮想空間合成画像Pを示す模式図である。また、図13において(a)は、仮想カメラ42が所定の初期高さに位置しているとき、(b)は初期高さより上方に位置しているとき、(c)は初期高さより下方に位置しているとき、の夫々の仮想空間合成画像Pを示しており、フィルタ画像P2も合わせて示している。   FIG. 13 is a schematic diagram showing a virtual space composite image P when the height position a3 of the virtual camera 42 is changed in the vertical direction in the underwater virtual game space 41. As shown in FIG. In FIG. 13, (a) is when the virtual camera 42 is located at a predetermined initial height, (b) is located above the initial height, and (c) is below the initial height. Each of the virtual space composite images P when they are positioned is shown, and a filter image P2 is also shown.

図13(a)に示すように、仮想カメラ42が初期高さ(a3=0)に位置している場合、仮想空間合成画像Pは、上方の水面61と下方の水底62との何れからも比較的離れて水中60に位置する画像となっている。そしてこの画像Pには、上端から下端へ向かうに従って、白色、透明度の高い青色、青色、黒色と緩やかに変化するグラデーションを成すフィルタ画像P2が合成されている。その結果、仮想空間合成画像Pは、水面61に近い上部の背景画像が白色化し、下方へ向かうに従って背景の白色化の傾向が少なく(白色が薄く)なって僅かに青みを帯びていき、中央付近のやや下部の背景画像は青みがかり、水底62近傍の下部の背景画像は黒っぽくなった画像となっている。これにより、現実に水中の観察者が見たときの情景をリアルに表現している。   As shown in FIG. 13A, when the virtual camera 42 is located at the initial height (a3 = 0), the virtual space composite image P is obtained from either the upper water surface 61 or the lower water bottom 62. The image is located in the water 60 relatively far away. The image P is combined with a filter image P2 having a gradation that gradually changes from white to high transparency blue, blue, and black as it goes from the upper end to the lower end. As a result, in the virtual space composite image P, the upper background image close to the water surface 61 is whitened, and the tendency of whitening of the background decreases toward the lower side (white becomes lighter) and slightly blueish, The background image slightly lower in the vicinity is bluish, and the lower background image in the vicinity of the bottom 62 is a blackish image. This realistically represents the scene as seen by an underwater observer.

図13(b)に示すように、仮想カメラ42が初期高さより上方(a3>0)に位置している場合、仮想空間合成画像Pは、水面61に近付いた状態を表す画像となっている。そしてこの画像Pには、基準画素L3,R3がより下方に位置するフィルタ画像P2が合成されている。その結果、仮想空間合成画像Pは、水面61に近い上部のより広い領域の背景画像が白色化し、青みがかった領域及び黒色化した領域が下方に狭まった画像となっている。このように、仮想カメラ42の高さ位置a3に応じて異なるフィルタ画像P2を用いることにより、現実に水中の観察者が水面61の近くに位置しているときに見える情景を、よりリアルに表現している。   As shown in FIG. 13B, when the virtual camera 42 is positioned above the initial height (a3> 0), the virtual space composite image P is an image representing a state of approaching the water surface 61. . The image P is combined with a filter image P2 in which the reference pixels L3 and R3 are positioned below. As a result, the virtual space composite image P is an image in which the background image of the wider area near the water surface 61 is whitened, and the bluish area and the blackened area are narrowed downward. In this way, by using different filter images P2 depending on the height position a3 of the virtual camera 42, a scene that can be seen when an underwater observer is actually located near the water surface 61 is expressed more realistically. doing.

図13(c)に示すように、仮想カメラ42が初期高さより下方(a3<0)に位置している場合、仮想空間合成画像Pは、水底62に近付いた状態を表す画像となっている。そしてこの画像Pには、基準画素L3,R3がより上方に位置するフィルタ画像P2が合成されている。その結果、仮想空間合成画像Pは、水底62に近い下部のより広い領域の背景画像が黒色化し、中央付近の広い領域の背景画像が青みがかり、白色化した領域が上方に狭まった画像となっている。これにより、現実に水中の観察者が水底62の近くに位置しているときに見える情景を、よりリアルに表現している。   As shown in FIG. 13C, when the virtual camera 42 is positioned below the initial height (a3 <0), the virtual space composite image P is an image representing a state of approaching the water bottom 62. . The image P is combined with a filter image P2 in which the reference pixels L3 and R3 are positioned higher. As a result, the virtual space composite image P is an image in which the background image of the wider area near the bottom 62 is blackened, the background image of the wide area near the center is bluish, and the whitened area narrows upward. ing. Thus, the scene that is actually seen when an underwater observer is located near the water bottom 62 is more realistically expressed.

(変形例)
ところで、上述した説明では、仮想カメラ42の上下方向の向きを変更したときの態様と、上下方向の高さ位置を変更したときの態様とを、夫々別個に例示したが、両方の態様を同時に実現するようにしてもよい。即ち、仮想カメラ42の上下方向の向きと高さ位置とに基づいて基準画素L3,R3の位置を設定するようにしてもよい。これにより、現実に観察者が水中又は空中などで、上下方向へ移動し、視線を上下方向に変化させたときの仮想ゲーム空間41を表すよりリアルな画像を生成することができる。
(Modification)
By the way, in the above description, the aspect when the vertical direction of the virtual camera 42 is changed and the aspect when the height position in the vertical direction is changed are separately illustrated, but both aspects are simultaneously illustrated. It may be realized. That is, the positions of the reference pixels L3 and R3 may be set based on the vertical direction and the height position of the virtual camera 42. This makes it possible to generate a more realistic image representing the virtual game space 41 when the observer actually moves in the vertical direction underwater or in the air and changes the line of sight in the vertical direction.

また、上下方向の向き、及び/又は、上下方向の高さ位置の変化に応じて、基準合成色情報Cの内容を変更するようにしてもよい。例えば、地上の仮想ゲーム空間41の場合、仮想カメラ42が水平方向から下方へ向きを変えるに従って、上端の基準画素L1,R1の透明度を高くするように設定してもよい。基準画素L1,R1に透明度の比較的低い白色を表す基準合成色情報Cが設定されていると、仮想カメラ42を下向きにしたときに、仮想空間合成画像Pの上部に透明度の低い白色を成す狭い帯状領域が形成され、リアリティに欠けた画像となる可能性がある。しかしながら、上記のように透明度を高く変更するように設定することにより、前記帯状領域の白色化を低減できるため、リアリティを向上させることができる。   Further, the content of the reference composite color information C may be changed according to the change in the vertical direction and / or the height position in the vertical direction. For example, in the case of the ground virtual game space 41, the transparency of the upper reference pixels L1 and R1 may be set higher as the virtual camera 42 changes its direction from the horizontal direction to the lower side. When the reference composite color information C representing white with relatively low transparency is set for the reference pixels L1 and R1, white with low transparency is formed on the upper part of the virtual space composite image P when the virtual camera 42 is turned downward. A narrow band-like region may be formed, resulting in an image lacking reality. However, by setting the transparency to be changed as described above, whitening of the band-like region can be reduced, and thus the reality can be improved.

また、仮想カメラ42が水平方向から上方へ向きを変えるに従って、上端の基準画素L1,R1の透明度を高くするように設定してもよい。基準画素L1,R1に透明度の比較的低い白色を表す基準合成色情報Cが設定されていると、仮想カメラ42を上向きにしたときに、仮想空間合成画像Pの上部の広い領域が、透明度の低い白色で覆われてしまい、リアリティに欠けた画像となる可能性がある。しかしながら、上記のように透明度を高く変更するように設定することにより、上部の広い領域での白色化を低減できるため、リアリティを向上させることができる。   Alternatively, the transparency of the upper reference pixels L1 and R1 may be set higher as the virtual camera 42 changes from the horizontal direction to the upper side. When the reference composite color information C representing white having a relatively low transparency is set in the reference pixels L1 and R1, when the virtual camera 42 is turned upward, the wide area above the virtual space composite image P has transparency. The image may be covered with a low white color, resulting in an image lacking reality. However, by setting the transparency to be changed as described above, whitening in a wide upper region can be reduced, and thus the reality can be improved.

また、上記2つの例を合わせて、仮想カメラ42が水平方向に対して上方へ向かうに従って、上端の基準画素L1,R1の合成色情報Cを透明度が高くなっていくように設定し、且つ、仮想カメラ42が水平方向に対して下方へ向かうに従って、基準画素L1,R1の合成色情報Cを透明度が高くなっていくように設定してもよい。   In addition, by combining the above two examples, as the virtual camera 42 moves upward in the horizontal direction, the combined color information C of the upper reference pixels L1 and R1 is set to increase in transparency, and As the virtual camera 42 moves downward with respect to the horizontal direction, the combined color information C of the reference pixels L1 and R1 may be set so as to increase in transparency.

なお、水中の仮想ゲーム空間41の場合も同様に、仮想カメラ42を上方又は下方へ向けるに従って、フィルタ画像P2の四隅の基準画素L1,L2,R1,R2の透明度を高くするように設定してもよい。更に、地上及び水中の何れの場合も、仮想カメラ42の高さ位置が上方又は下方へ移動するに従って、四隅の基準画素L1,L2,R1,R2の透明度を高くするように設定してもよい。   Similarly, in the case of the underwater virtual game space 41, the transparency of the reference pixels L1, L2, R1, R2 at the four corners of the filter image P2 is set to increase as the virtual camera 42 is directed upward or downward. Also good. Furthermore, in both cases of the ground and underwater, the transparency of the four corner reference pixels L1, L2, R1, and R2 may be set higher as the height position of the virtual camera 42 moves upward or downward. .

また、本実施の形態では図8及び図12に示すように、仮想カメラ42の上下方向の向き又は高さ位置と基準画素L2,R2の位置との関係として、連続する直線的な関係を有する態様について説明したが、これに限られない。原点やその他の点を境界として、傾きの異なる直線で表される関係としてもよいし、曲線的な関係となるように設定してもよい。   Further, in the present embodiment, as shown in FIGS. 8 and 12, the relationship between the vertical direction or height position of the virtual camera 42 and the positions of the reference pixels L2 and R2 has a continuous linear relationship. Although the aspect was demonstrated, it is not restricted to this. The relationship may be expressed by straight lines with different inclinations with the origin or other points as a boundary, or may be set so as to have a curved relationship.

例えば、地上の仮想ゲーム空間41では、仮想カメラ42の高さ位置が地表近くに設定されている。そのため、図14に示すように、仮想カメラ42の上下方向の向きの可動範囲について、水平方向から上限(a2=max)までの角度範囲(a2>0の範囲)を、水平方向から下限(a2=min)までの角度範囲(a2<0の範囲)よりも大きく設定する場合がある。このような場合には、図14のグラフ中に実線で示すように、仮想カメラ42を水平方向より下方へ向ける場合に比べて上方へ向ける場合の方が、基準画素L3,R3の変位量の変化率が小さくなるように設定してもよい。これにより、基準画素L3,R3の上限位置(フィルタ画像P2の上端)に仮想カメラ42の上下方向の向きの下限(a2=min)を対応させ、基準画素L3,R3の下限位置(フィルタ画像P2の下端)に仮想カメラ42の上下方向の向きの上限(a2=max)を対応させることができる。   For example, in the virtual game space 41 on the ground, the height position of the virtual camera 42 is set near the ground surface. Therefore, as shown in FIG. 14, with respect to the movable range of the virtual camera 42 in the vertical direction, the angle range (range of a2> 0) from the horizontal direction to the upper limit (a2 = max) is set to the lower limit (a2) from the horizontal direction. = Min) may be set larger than the angle range (range of a2 <0). In such a case, as indicated by a solid line in the graph of FIG. 14, the displacement amount of the reference pixels L3 and R3 is greater when the virtual camera 42 is directed upward than when the virtual camera 42 is directed downward from the horizontal direction. You may set so that a change rate may become small. Thereby, the lower limit (a2 = min) of the vertical direction of the virtual camera 42 is made to correspond to the upper limit position (upper end of the filter image P2) of the reference pixels L3, R3, and the lower limit position (filter image P2) of the reference pixels L3, R3. The upper limit (a2 = max) of the vertical direction of the virtual camera 42 can be associated with the lower end of the virtual camera 42.

なお、必ずしも、基準画素L3,R3の上限・下限位置に、仮想カメラ42の上下方向の向きの下限・上限を対応させることを要しない。例えば、図14のグラフ中に二点差線で示すように、仮想カメラ42の向きが原点と上限との間の角度のときに、基準画素L3,R3が下限位置(フィルタ画像P2の下端)に到達するように設定してもよい。   Note that it is not always necessary that the upper and lower positions of the reference pixels L3 and R3 correspond to the lower and upper limits of the vertical direction of the virtual camera 42. For example, as indicated by the two-dot difference line in the graph of FIG. 14, when the orientation of the virtual camera 42 is an angle between the origin and the upper limit, the reference pixels L3 and R3 are at the lower limit position (the lower end of the filter image P2). You may set it to reach.

また、本実施の形態では基準画素L3,R3の初期位置を、フィルタ画像P2の上下方向の中央付近としているが、例えば地上の仮想ゲーム空間41にあっては、基準画素L3,R3を結ぶ線分が、仮想空間素材画像P1に描画される地平線(又は水平線)と一致するように設定してもよい。そして、仮想カメラ42の配置変更により地平線(又は水平線)が移動した場合に、基準画素L3,R3を、これらを結ぶ線分が地平線(又は水平線)に追従して移動するように設定してもよい。このようにすることにより、フィルタ画像P2を構成する上下のグラデーション画像の境界(基準画素L3,R3を結ぶ線分)と、地平線(又は水平線)とを、互いに一致させることができる。   In the present embodiment, the initial positions of the reference pixels L3 and R3 are set near the center in the vertical direction of the filter image P2. For example, in the ground virtual game space 41, a line connecting the reference pixels L3 and R3. The minute may be set to coincide with the horizon (or horizontal line) drawn in the virtual space material image P1. Then, when the horizon (or horizontal line) is moved by changing the arrangement of the virtual camera 42, the reference pixels L3 and R3 may be set so that the line segment connecting them moves following the horizon (or horizontal line). Good. By doing in this way, the boundary (line segment which connects the reference pixels L3 and R3) of the upper and lower gradation images constituting the filter image P2 and the horizon (or horizontal line) can be made to coincide with each other.

また、本実施の形態では上下の基準画素L1,L2,R1,R2の間に一組の基準画素L3,R3を設定した態様について説明したが、これに限られない。例えば、基準画素L3,R3を、基準画素L3−1,R3−1と、基準画素L3−2,R3−2との二組に分けて設定してもよい。この場合は、基準画素L1,R1,L3−1,R3−1を四隅とする上部領域と、基準画素L3−1,R3−1,L3−2,R3−2を四隅とする中間領域と、基準画素L2,R2,L3−2,R3−2を四隅とする下部領域との夫々でグラデーション画像を形成し、これらを合わせたフィルタ画像P2を生成することができる。そのため、該フィルタ画像P2を仮想空間素材画像P1と合成することで、仮想光源43に光がもたらす視覚的効果をよりリアルに表現した仮想空間合成画像Pを生成することができる。また、同様にして、基準画素L3,R3を三組以上に分けるように設定してもよい。   Further, in the present embodiment, a mode has been described in which a set of reference pixels L3, R3 is set between the upper and lower reference pixels L1, L2, R1, R2, but the present invention is not limited to this. For example, the reference pixels L3 and R3 may be set in two sets of reference pixels L3-1 and R3-1 and reference pixels L3-2 and R3-2. In this case, an upper region having the four corners of the reference pixels L1, R1, L3-1, and R3-1, an intermediate region having the four corners of the reference pixels L3-1, R3-1, L3-2, and R3-2, A gradation image can be formed with each of the lower regions having the four corners of the reference pixels L2, R2, L3-2, and R3-2, and a filter image P2 can be generated by combining them. Therefore, by synthesizing the filter image P2 with the virtual space material image P1, it is possible to generate a virtual space synthesized image P that more realistically represents the visual effect brought by the light to the virtual light source 43. Similarly, the reference pixels L3 and R3 may be set to be divided into three or more sets.

更に、上述した例では、仮想カメラ42の上下方向の配置変更により生じる光の視覚的効果を表現する場合について説明したが、左右方向の配置変更により生じる光の視覚的効果を表現するように設定することもできる。具体的には、上述した基準画素L3,R3に換えて、またはこれに加えて、上端の基準画素L1,R1間と、下端の基準画素L2,R2間とに、夫々新たな基準画素M1,M2を設定する。この上下の基準画素M1,M2に基準合成色情報を付与し、且つ仮想カメラ42の左右方向の向きに応じて基準画素M1,M2を左右へ移動させる。そして、基準画素L1,L2及び移動後の基準画素M1,M2を四隅とする左側領域についてグラデーション画像を生成し、基準画素R1,R2及び移動後の基準画素M1,M2を四隅とする右側領域についてグラデーション画像を生成し、これらに基づいてフィルタ画像P2を生成する。これにより、例えば仮想ゲーム空間41が、早朝や夕方のように太陽が地平線近くに位置する場合に、仮想カメラ42の左右方向の向きの変化によって生じる光の視覚的効果をリアルに表現することができる。   Further, in the above-described example, the case where the visual effect of light generated by the vertical arrangement change of the virtual camera 42 has been described, but the setting is made so as to express the visual effect of light generated by the horizontal arrangement change. You can also Specifically, instead of or in addition to the above-described reference pixels L3 and R3, new reference pixels M1 and M1 are respectively provided between the upper reference pixels L1 and R1 and between the lower reference pixels L2 and R2. Set M2. Reference composite color information is given to the upper and lower reference pixels M1 and M2, and the reference pixels M1 and M2 are moved to the left and right according to the horizontal direction of the virtual camera 42. Then, a gradation image is generated for the left region having the four corners of the reference pixels L1, L2 and the moved reference pixels M1, M2, and the right region having the four corners of the reference pixels R1, R2 and the moved reference pixels M1, M2 is generated. A gradation image is generated, and a filter image P2 is generated based on these. Thereby, for example, when the virtual game space 41 is located near the horizon, such as early morning or evening, the visual effect of light caused by the change in the horizontal direction of the virtual camera 42 can be realistically expressed. it can.

上述した説明では、プレイヤの操作によってプレイヤキャラクタと敵キャラクタとが対戦するアクションゲーム用のプログラムについて説明したが、これに限られない。仮想ゲーム空間41にて、仮想カメラ42の配置を変更可能であるような他のゲームプログラムにも適用することができる。また、ゲーム以外にも、配置を変更可能な仮想カメラによって、仮想空間を撮影した画像をモニタ20に表示するようなシステムの画像処理プログラムにも適用することができる。   In the above description, the action game program in which the player character and the enemy character battle each other by the operation of the player has been described, but the present invention is not limited to this. The present invention can also be applied to other game programs in which the arrangement of the virtual camera 42 can be changed in the virtual game space 41. In addition to the game, the present invention can be applied to an image processing program of a system in which an image obtained by photographing a virtual space is displayed on the monitor 20 by a virtual camera whose arrangement can be changed.

また、仮想光源43が上方に位置する場合について説明したが、これに限られず、例えば赤い光を放つ溶岩が地表を流れているような仮想ゲーム空間41では、仮想光源43を下方に設定してもよい。そして、この場合のフィルタ画像P2は、仮想光源43(溶岩)からの光の影響を表現するために、下部から上部へ向かうに従って赤色から透明へと変化するグラデーション画像とすればよい。更に、例えば太陽及び溶岩のように仮想光源43を仮想ゲーム空間41の上方と下方とに2つ設定してもよい。そして、この場合のフィルタ画像P2は、夫々の仮想光源43からの光の影響を表現するように、上部及び下部の夫々から中央部へ向かってグラデーションを成すように形成すればよい。なお、グラデーション画像にて変化させる色は上述した白色、青色、及び黒色に限られず、仮想光源43からの光に照らされた仮想ゲーム空間41を表現するのに好適な、様々の色を採用することができることは言うまでもない。   Moreover, although the case where the virtual light source 43 was located upward was demonstrated, it is not restricted to this, For example, in the virtual game space 41 where the lava emitting red light flows on the ground surface, the virtual light source 43 is set downward. Also good. In this case, the filter image P2 may be a gradation image that changes from red to transparent as it goes from the lower part to the upper part in order to express the influence of light from the virtual light source 43 (lava). Furthermore, two virtual light sources 43 may be set above and below the virtual game space 41, such as the sun and lava. Then, the filter image P2 in this case may be formed so as to form a gradation from the upper part and the lower part toward the central part so as to express the influence of the light from each virtual light source 43. Note that the color to be changed in the gradation image is not limited to the above-described white, blue, and black, and various colors suitable for representing the virtual game space 41 illuminated by the light from the virtual light source 43 are employed. It goes without saying that it can be done.

また、基準画素L3,R3の上下方向位置は、仮想カメラ42の上下方向の配置の変化に応じて変化させることについて説明したが、これに限られない。例えば、時間の経過に伴って太陽の位置が変化する場合のように、仮想光源43の上下方向位置が変化する場合には、このような仮想光源43の上下方向位置の変化に応じて基準画素L3,R3の上下方向位置を変更するようにしてもよい。   Further, although the description has been given of changing the vertical positions of the reference pixels L3 and R3 according to the change in the vertical arrangement of the virtual camera 42, the present invention is not limited to this. For example, when the vertical position of the virtual light source 43 changes, such as when the position of the sun changes with time, the reference pixel is changed according to the change in the vertical position of the virtual light source 43. You may make it change the vertical direction position of L3, R3.

また、上述したように、フィルタ画像P2を構成する領域H1は、少なくともその四隅に位置する計4つの画素の合成色情報を用いてグラデーション画像を生成すればよく、これら4つの画素を含む計5つ以上の画素の合成色情報を用いてグラデーション画像を生成してもよい。フィルタ画像P2を構成するもう1つの領域H2についても同様である。   In addition, as described above, the region H1 constituting the filter image P2 may generate a gradation image using the combined color information of at least four pixels located at the four corners, and a total of five including these four pixels. A gradation image may be generated using composite color information of two or more pixels. The same applies to the other region H2 constituting the filter image P2.

更に、フィルタ画像P2の領域H1,H2のうち、何れか一方の領域のみをグラデーション画像とし、他方の領域についてはグラデーション画像としないようにしてもよい。例えば、図7(c)に示す表において、基準方向D1での基準画素L2,L3,R2,R3の色情報CL21,CL31,CR21,CR31を全て同一値とすることで、仮想カメラ42が基準方向D1へ向けられた場合に、これらの基準画素により囲まれる領域H2を単一色の画像(即ち、彩度、明度、色相、及び透明度の何れもが変化のない画像)としてもよい。 Furthermore, only one of the regions H1 and H2 of the filter image P2 may be a gradation image, and the other region may not be a gradation image. For example, in the table shown in FIG. 7C, the color information C L21 , C L31 , C R21 , and C R31 of the reference pixels L2, L3, R2, and R3 in the reference direction D1 are all set to the same value. When the camera 42 is directed in the reference direction D1, the region H2 surrounded by these reference pixels can be a single color image (that is, an image in which none of saturation, lightness, hue, and transparency is changed). Good.

本発明は、仮想光源に照らされた仮想空間を、仮想カメラの配置に応じた画像としてよりリアルに表現することのできる画像処理プログラム、該画像処理プログラムを記録した記録媒体、及びコンピュータ装置を提供することができる。   The present invention provides an image processing program capable of more realistically expressing a virtual space illuminated by a virtual light source as an image according to the arrangement of a virtual camera, a recording medium storing the image processing program, and a computer apparatus can do.

1 ゲーム装置(コンピュータ装置)
8 制御部
23 光ディスク(記録媒体)
24 ゲームプログラム(画像処理プログラム)
41 仮想ゲーム空間
42 仮想カメラ
43 仮想光源
53 仮想カメラ制御手段
54 素材画像生成手段
55 フィルタ画像生成手段
55a 基準合成色情報取得手段
55b 中間画素位置変更手段
55c フィルタ画像取得手段
56 合成画像生成手段
C 基準合成色情報
D1〜D6 基準方向
L1〜L3,R1〜R3 基準画素
P 仮想空間合成画像
P1 仮想空間素材画像
P2 フィルタ画像
1 Game device (computer device)
8 Control unit 23 Optical disc (recording medium)
24 Game program (image processing program)
41 Virtual game space 42 Virtual camera 43 Virtual light source 53 Virtual camera control means 54 Material image generation means 55 Filter image generation means 55a Reference composite color information acquisition means 55b Intermediate pixel position change means 55c Filter image acquisition means 56 Composite image generation means C Reference Composite color information D1 to D6 Reference directions L1 to L3, R1 to R3 Reference pixels P Virtual space composite image P1 Virtual space material image P2 Filter image

Claims (4)

仮想空間を撮影する仮想カメラの配置を制御して、該仮想カメラにより撮影された前記仮想空間を表示手段に表示させる画像処理装置のコンピュータを、
前記仮想カメラにより撮影した前記仮想空間を示す仮想空間素材画像を生成する素材画像生成手段、
仮想光源に照らされた前記仮想空間を表現すべく、前記仮想空間素材画像の領域全体に対応するフィルタ画像を生成するフィルタ画像生成手段、及び
前記仮想空間素材画像と前記フィルタ画像とを合成して仮想空間合成画像を生成する合成画像生成手段、として機能させ、
前記フィルタ画像生成手段は、
所定の境界線により上下の領域に仕切られた前記フィルタ画像であって、少なくとも上側の前記領域に関して、該領域の少なくとも四隅に位置する画素の合成色情報に基づいて該領域が少なくとも上下方向についてグラデーション画像となるような前記フィルタ画像を生成する一方、前記仮想カメラの上下方向に関する配置の変化に応じて、前記境界線の上下位置を変化させるよう構成され
更に、前記上側の領域の四隅の画素のうち上側の左右2つの画素について、前記仮想カメラの向きが水平方向から上方または下方へ向かうに従い、透明度を高くするよう構成されていることを特徴とする画像処理プログラム。
A computer of an image processing apparatus that controls the arrangement of a virtual camera that captures a virtual space and displays the virtual space captured by the virtual camera on a display unit.
Material image generation means for generating a virtual space material image showing the virtual space photographed by the virtual camera;
In order to express the virtual space illuminated by a virtual light source, filter image generation means for generating a filter image corresponding to the entire area of the virtual space material image, and combining the virtual space material image and the filter image Function as a composite image generation means for generating a virtual space composite image,
The filter image generation means includes
The filter image partitioned into upper and lower regions by a predetermined boundary line, and at least the upper region, the region is gradation at least in the vertical direction based on synthetic color information of pixels located at at least four corners of the region While generating the filter image to be an image, it is configured to change the vertical position of the boundary line according to the change in the arrangement of the virtual camera in the vertical direction ,
Further, the upper left and right pixels of the four corner pixels of the upper region are configured to increase transparency as the virtual camera is directed upward or downward from the horizontal direction. Image processing program.
前記仮想カメラの上下方向に関する配置には、該仮想カメラの上下方向の向き及び/又は高さ位置が含まれることを特徴とする請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the arrangement of the virtual camera in the vertical direction includes a vertical direction and / or a height position of the virtual camera. 前記フィルタ画像生成手段は、前記仮想カメラの配置が相対的に上向きの場合又は高い場合には、前記境界線の位置を下方へ変更し、前記仮想カメラの配置が相対的に下向きの場合又は低い場合には、前記境界線の位置を上方へ変更することを特徴とする請求項2に記載の画像処理プログラム。   The filter image generation unit changes the position of the boundary line downward when the virtual camera is relatively upward or high, and the virtual camera is relatively downward or low. 3. The image processing program according to claim 2, wherein the position of the boundary line is changed upward. 請求項1〜3の何れかに記載の画像処理プログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶された前記画像処理プログラムを実行するコンピュータと、を備えるゲーム装置。A game apparatus comprising: a program storage unit that stores the image processing program according to claim 1; and a computer that executes the image processing program stored in the program storage unit.
JP2010081522A 2010-03-31 2010-03-31 Image processing program, recording medium, and computer apparatus Active JP5613433B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010081522A JP5613433B2 (en) 2010-03-31 2010-03-31 Image processing program, recording medium, and computer apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010081522A JP5613433B2 (en) 2010-03-31 2010-03-31 Image processing program, recording medium, and computer apparatus

Publications (2)

Publication Number Publication Date
JP2011215737A JP2011215737A (en) 2011-10-27
JP5613433B2 true JP5613433B2 (en) 2014-10-22

Family

ID=44945420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010081522A Active JP5613433B2 (en) 2010-03-31 2010-03-31 Image processing program, recording medium, and computer apparatus

Country Status (1)

Country Link
JP (1) JP5613433B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6076935B2 (en) * 2014-03-27 2017-02-08 株式会社ジオ技術研究所 3D map display system
JP2016096953A (en) * 2014-11-20 2016-05-30 株式会社藤商事 Game machine
CN110570505B (en) * 2019-09-11 2020-11-17 腾讯科技(深圳)有限公司 Image rendering method, device and equipment and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3052933B2 (en) * 1997-02-18 2000-06-19 株式会社セガ・エンタープライゼス Image processing apparatus and image processing method
JP4015644B2 (en) * 2004-05-31 2007-11-28 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus and image processing method
JP4804120B2 (en) * 2005-11-17 2011-11-02 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2007264954A (en) * 2006-03-28 2007-10-11 Taito Corp Image processor and image processing program
JP4827250B2 (en) * 2006-09-20 2011-11-30 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2008242619A (en) * 2007-03-26 2008-10-09 Samii Kk Image generation device and image generation program

Also Published As

Publication number Publication date
JP2011215737A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
KR102564801B1 (en) Graphics processing systems
JP6750025B2 (en) How to operate an augmented reality (AR) system
JP5671349B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5469516B2 (en) Image display program, image display system, image display method, and image display apparatus
US9495800B2 (en) Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
JP5627973B2 (en) Program, apparatus, system and method for game processing
JP4793933B2 (en) Image processing program and image processing apparatus
JP5025950B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP4982862B2 (en) Program, information storage medium, and image generation system
JP5675260B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JPH07325934A (en) Method and equipment for provision of graphics enhanced to virtual world
JP6126821B2 (en) Image generation method, image display method, image generation program, image generation system, and image display apparatus
JP3625184B2 (en) 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
US9737814B2 (en) Computer readable medium storing image processing program of synthesizing images
JP6799017B2 (en) Terminal devices, systems, programs and methods
WO2019130374A1 (en) Terminal device, system, program and method
JP2007108876A (en) Game program and game device
JP5613433B2 (en) Image processing program, recording medium, and computer apparatus
JP7418956B2 (en) Image generation system and program
JPH08182023A (en) Device converting 2-dimension image into 3-dimension image
JP2008027064A (en) Program, information recording medium, and image forming system
JP5660818B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5649846B2 (en) Program and image generation system
JP4964688B2 (en) Image processing program and image processing apparatus
JP3586460B2 (en) 3D game device and image composition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140908

R150 Certificate of patent or registration of utility model

Ref document number: 5613433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250