JP4015644B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method

Info

Publication number
JP4015644B2
JP4015644B2 JP2004161787A JP2004161787A JP4015644B2 JP 4015644 B2 JP4015644 B2 JP 4015644B2 JP 2004161787 A JP2004161787 A JP 2004161787A JP 2004161787 A JP2004161787 A JP 2004161787A JP 4015644 B2 JP4015644 B2 JP 4015644B2
Authority
JP
Japan
Prior art keywords
space
image
viewpoint position
image processing
boundary surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004161787A
Other languages
Japanese (ja)
Other versions
JP2005346165A (en
Inventor
延經 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2004161787A priority Critical patent/JP4015644B2/en
Publication of JP2005346165A publication Critical patent/JP2005346165A/en
Application granted granted Critical
Publication of JP4015644B2 publication Critical patent/JP4015644B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理技術に関し、特に、屈折率の異なる第1空間及び第2空間に仮想的に配置された3次元オブジェクトの画像を生成する技術に関する。   The present invention relates to an image processing technique, and more particularly, to a technique for generating an image of a three-dimensional object virtually arranged in a first space and a second space having different refractive indexes.

従来、仮想的に構築された3次元空間内をキャラクタが移動するゲーム装置が知られている。3次元空間内に池や海などが配置され、水中をキャラクタが移動するものもある。   Conventionally, a game device in which a character moves in a virtually constructed three-dimensional space is known. In some cases, a pond, the sea, and the like are arranged in a three-dimensional space, and a character moves underwater.

しかしながら、水中の様子を高い現実感をもって表現する画像処理技術を駆使したゲーム装置はない。   However, there is no game device that makes full use of image processing technology that expresses the state of underwater with a high sense of reality.

本発明はこうした状況に鑑みてなされたものであり、その目的は、より現実感の高い画像を生成する技術を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for generating a more realistic image.

本発明のある態様は、画像処理装置に関する。この画像処理装置は、屈折率の異なる第1空間及び第2空間に仮想的に配置された3次元オブジェクトのデータを、前記第1空間に配置された第1オブジェクト及び前記第2空間に配置された第2オブジェクトの別を識別可能に格納する格納部と、所定の視点位置から所定の視線方向に見た前記3次元オブジェクトの画像を生成する生成部と、を備え、前記生成部は、前記視点位置と、前記第1空間及び前記第2空間の境界面との位置関係に応じて、前記第1オブジェクト及び前記第2オブジェクトの描画順序を決定し、前記第1オブジェクト及び前記第2オブジェクトを前記描画順序に沿ってレンダリングすることにより前記3次元オブジェクトの画像を生成することを特徴とする。第1空間は、例えば空気中であってもよく、第2空間は、例えば水中であってもよい。   One embodiment of the present invention relates to an image processing apparatus. In this image processing apparatus, data of a three-dimensional object virtually arranged in the first space and the second space having different refractive indexes is arranged in the first object and the second space arranged in the first space. A storage unit that stores the second object in an identifiable manner, and a generation unit that generates an image of the three-dimensional object viewed from a predetermined viewpoint position in a predetermined line-of-sight direction. The drawing order of the first object and the second object is determined according to the positional relationship between the viewpoint position and the boundary surface of the first space and the second space, and the first object and the second object are The image of the three-dimensional object is generated by rendering along the drawing order. The first space may be in the air, for example, and the second space may be in the water, for example.

前記格納部は、更に、前記境界面付近に配置された第3オブジェクトの別を識別可能に格納し、前記生成部は、前記視点位置と前記境界面との位置関係に応じて、前記第1オブジェクト、前記第2オブジェクト、及び前記第3オブジェクトの描画順序を決定し、前記第1オブジェクト、前記第2オブジェクト、及び前記第3オブジェクトを前記描画順序に沿ってレンダリングすることにより前記3次元オブジェクトの画像を生成してもよい。   The storage unit further stores the third object arranged in the vicinity of the boundary surface in an identifiable manner, and the generation unit stores the first object according to a positional relationship between the viewpoint position and the boundary surface. The drawing order of the object, the second object, and the third object is determined, and the first object, the second object, and the third object are rendered according to the drawing order, thereby rendering the three-dimensional object An image may be generated.

画像処理装置は、生成された画像を所定のサイズのブロックに分割し、前記ブロックの頂点を移動させて画像を歪ませることにより、前記画像がゆらめく様子を表現する効果を付加する歪み効果付加部を更に備えてもよい。画像処理装置は、流体中で揺れを生じるオブジェクトの画像に対して、せん断マトリクス変換を作用させることにより、前記オブジェクトが揺れる様子を表現する効果を付加する揺れ効果付加部を更に備えてもよい。画像処理装置は、前記第1空間又は前記第2空間に光が差し込む様子を表現する効果を付加するために、前記光が差し込む位置に板ポリゴンを配置し、せん断によって差し込み側と底面側の辺を平行に保ちつつ前記板ポリゴンをねじり、前記板ポリゴンと直角にテクスチャを張るフレア効果付加部を更に備えてもよい。画像処理装置は、前記第1空間が水中である場合に、水深に応じたフォグ効果を付加するフォグ効果付加部を更に備えてもよい。画像処理装置は、前記オブジェクトのスケールを、表示モードに基づいて自動調整するスケール調整部を更に備えてもよい。   An image processing apparatus divides a generated image into blocks of a predetermined size, and distorts the image by moving the vertices of the block, thereby adding an effect that expresses a state in which the image fluctuates. May be further provided. The image processing apparatus may further include a shaking effect adding unit that adds an effect of expressing a state of shaking of the object by applying shear matrix conversion to an image of the object that shakes in the fluid. In order to add an effect of expressing a state in which light is inserted into the first space or the second space, the image processing apparatus arranges plate polygons at the positions where the light is inserted, and the sides on the insertion side and the bottom side by shearing. A flare effect adding unit that twists the plate polygon while keeping the plate parallel to each other and applies a texture perpendicular to the plate polygon may be further provided. The image processing apparatus may further include a fog effect adding unit that adds a fog effect according to a water depth when the first space is underwater. The image processing apparatus may further include a scale adjustment unit that automatically adjusts the scale of the object based on a display mode.

本発明によれば、現実感の高い画像を生成する技術を提供することができる。   According to the present invention, it is possible to provide a technique for generating a highly realistic image.

図1は、実施の形態に係る画像処理装置50を含むゲーム装置10の構成を示す。ゲーム装置10は、コントローラ20、制御部30、表示装置40、画像処理装置50を備える。図1に示した構成の一部は、ハードウェア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   FIG. 1 shows a configuration of a game apparatus 10 including an image processing apparatus 50 according to the embodiment. The game device 10 includes a controller 20, a control unit 30, a display device 40, and an image processing device 50. A part of the configuration shown in FIG. 1 can be realized in terms of hardware by a CPU, memory, or other LSI of an arbitrary computer, and in terms of software, it can be realized by a program loaded in the memory. So, functional blocks that are realized by their cooperation are drawn. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

本実施の形態のゲーム装置10は、ユーザが魚のキャラクタを操作して池の周辺を移動し、他の魚を捕食したり、アイテムを拾ったりするゲームを実現する。ユーザは、魚のキャラクタを操作して水中を移動することで、擬似的に魚になったような操作感を得ることができる。本実施の形態では、屈折率の異なる空気中と水中の二つの空間に構築された3次元仮想現実世界(以下、単に「ゲーム世界」ともいう)の画像を、高い現実感をもって表現するための画像処理技術を中心に説明する。   The game apparatus 10 according to the present embodiment realizes a game in which a user operates a fish character to move around a pond and eat other fish or pick up items. The user can obtain an operational feeling as if it was a fish by operating the fish character and moving it underwater. In the present embodiment, an image of a three-dimensional virtual reality world (hereinafter simply referred to as “game world”) constructed in two air and underwater spaces having different refractive indexes is expressed with a high sense of reality. The description will focus on image processing technology.

制御部30は、ユーザが操作するコントローラ20から入力される制御信号に基づいてゲームプログラムを実行し、ゲームを進行させる。制御部30は、ユーザが操作するキャラクタの現在位置、ゲーム世界を描写した画面を生成するときのカメラの視点位置、視線方向、ゲームプログラムが用いる各種フラグ情報やパラメータなどの制御情報などを変更し、管理する。画像処理装置50は、制御部30により制御されるゲームの画面を生成する。表示装置40は、画像処理装置50により生成されたゲーム画面を表示する。   The control unit 30 executes the game program based on a control signal input from the controller 20 operated by the user, and advances the game. The control unit 30 changes the control information such as the current position of the character operated by the user, the camera viewpoint position when generating a screen depicting the game world, the line-of-sight direction, various flag information and parameters used by the game program, and the like. ,to manage. The image processing device 50 generates a game screen controlled by the control unit 30. The display device 40 displays the game screen generated by the image processing device 50.

本実施の形態では、ユーザが操作するキャラクタは、水中及び水上に仮想的に構築された3次元のゲーム世界の中を移動するので、画像処理装置50は、ゲーム世界に配置された3次元オブジェクトを、制御部30が決定したカメラの視点位置及び視線方向を用いてレンダリングし、生成した画像に各種情報などの表示を付加してゲーム画面を生成する。   In the present embodiment, the character operated by the user moves in water and in a three-dimensional game world virtually constructed on the water, so that the image processing device 50 is a three-dimensional object placed in the game world. Is rendered using the viewpoint position and line-of-sight direction of the camera determined by the control unit 30, and a display of various information is added to the generated image to generate a game screen.

画像処理装置50は、制御部30によるゲームの進行に伴って、ユーザに提示するゲーム画面を生成する生成部70と、生成部70における画像処理に必要なデータを格納する記憶部60とを含む。記憶部60は、ゲーム世界に配置されたオブジェクトの形状データなどを格納するオブジェクトデータベース62、テクスチャメモリ64、フレームバッファ66を含む。オブジェクトデータベース42は、格納部の一例であり、第1空間の一例である水中に配置された水中オブジェクト、第2空間の一例である空気中に配置された水上オブジェクト、及び第1空間と第2空間の境界面である水面付近に配置された水面オブジェクトの別を識別可能に格納する。オブジェクトデータベース42は、例えば、オブジェクトのデータと、そのオブジェクトが水上オブジェクト、水中オブジェクト及び水面オブジェクトのいずれであるかを示す識別子とを対応づけて格納してもよい。テクスチャメモリ64は、画像処理におけるワークメモリとして使用され、例えば、画面の半分の大きさの容量を有する。フレームバッファ66は、画面1枚分の画像データを保持する。   The image processing apparatus 50 includes a generation unit 70 that generates a game screen to be presented to the user as the game progresses by the control unit 30, and a storage unit 60 that stores data necessary for image processing in the generation unit 70. . The storage unit 60 includes an object database 62 for storing shape data of objects arranged in the game world, a texture memory 64, and a frame buffer 66. The object database 42 is an example of a storage unit, and is an underwater object arranged in the water that is an example of the first space, a water object arranged in the air that is an example of the second space, and the first space and the second The distinction of the water surface objects arranged near the water surface, which is the boundary surface of the space, is stored in an identifiable manner. The object database 42 may store, for example, object data and an identifier indicating whether the object is a water object, an underwater object, or a water surface object. The texture memory 64 is used as a work memory in image processing and has, for example, a capacity that is half the size of the screen. The frame buffer 66 holds image data for one screen.

生成部70は、水中及び水上に配置されたオブジェクト群をレンダリングするレンダリング部90と、レンダリングした画像に様々な視覚効果を付加する構成を含んでおり、具体的には、生成部70は、水中効果付加部72、水面効果付加部74、揺れ効果付加部76、フレア効果付加部78、フォグ効果付加部80、レンダリング部90を含む。生成部70は、それらの他に、3次元オブジェクトを表示する際にスケールを自動調整するスケール調整部82を含む。   The generation unit 70 includes a rendering unit 90 that renders a group of objects arranged underwater and on the water, and a configuration that adds various visual effects to the rendered image. Specifically, the generation unit 70 includes the underwater An effect adding unit 72, a water surface effect adding unit 74, a shaking effect adding unit 76, a flare effect adding unit 78, a fog effect adding unit 80, and a rendering unit 90 are included. In addition to these, the generation unit 70 includes a scale adjustment unit 82 that automatically adjusts the scale when displaying a three-dimensional object.

水中効果付加部72は、カメラの視点位置が水中にあるとき、生成された画像を歪ませることにより、水中から見た映像が水の流れによりゆらめく様子を表現する効果を付加する。水中効果付加部72は、生成された画像を所定のサイズ、例えば8画素×16画素のブロックに分割し、それらのブロックの頂点を移動させることによって、画像を歪ませる。これにより、水中から見た映像を高い現実感にて描画することができる。水中効果付加部72は、視点位置から近いオブジェクトが描画された部分ほど大きく歪ませるようにしてもよい。   The underwater effect adding unit 72 adds the effect of distorting the generated image when the viewpoint position of the camera is in the water, thereby expressing how the video viewed from the water fluctuates due to the flow of water. The underwater effect adding unit 72 distorts the image by dividing the generated image into blocks of a predetermined size, for example, 8 pixels × 16 pixels, and moving the vertices of these blocks. Thereby, the image seen from the water can be drawn with a high sense of reality. The underwater effect adding unit 72 may be configured to distort the portion closer to where the object closer to the viewpoint position is drawn.

水面効果付加部74は、水面に投影された画像、又は水面を通して透けて見える画像を歪ませることにより、水面がゆらめく様子を表現する効果を付加する。水面効果付加部74は、生成された画像を所定のサイズ、例えば8画素×16画素のブロックに分割し、それらの頂点を移動させることによって、画像を歪ませる。このとき、頂点の移動量は、その頂点に投影された水面上の座標の1/zの値(zは奥行き方向の座標値)に比例して大きくなるようにする。これにより、近くの水面が投影された部分ほど大きく歪ませることになるので、より現実感の高い画像を得ることができる。   The water surface effect adding unit 74 adds an effect of expressing a state where the water surface fluctuates by distorting an image projected on the water surface or an image seen through the water surface. The water surface effect adding unit 74 divides the generated image into blocks of a predetermined size, for example, 8 pixels × 16 pixels, and distorts the image by moving their vertices. At this time, the movement amount of the vertex is increased in proportion to the value of 1 / z of the coordinates on the water surface projected onto the vertex (z is the coordinate value in the depth direction). As a result, a portion where a nearby water surface is projected is more greatly distorted, so that a more realistic image can be obtained.

また、分割されたブロックの各頂点に与えられる、透明度を表すアルファ値は、視点位置と頂点との間の距離又は視線方向と頂点における境界面の法線とのなす角に応じて決定される。例えば、水面を透過して見える画像を描画するときは、視点位置に近く、また、水面と視線方向とのなす角が直角に近い(すなわち、水面の法線と視線方向とのなす角が小さい)部分ほど、アルファ値が小さくなるようにする。以下、この操作を「WPLフィルタ」と呼ぶ。逆に、水面に反射して見える画像を描画するときは、視点位置に近く、また、水面と視線方向とのなす角が直角に近い(すなわち、水面の法線と視線方向とのなす角が小さい)部分ほど、アルファ値が大きくなるようにする。以下、この操作を「WPLRフィルタ」と呼ぶ。このような操作により、水面への映り込みや水面を透過して見える画像の透明度を、視点位置や視線方向に応じて変化させることができ、より現実感の高い画像を得ることができる。   In addition, the alpha value representing transparency, which is given to each vertex of the divided block, is determined according to the distance between the viewpoint position and the vertex or the angle between the viewing direction and the normal of the boundary surface at the vertex. . For example, when drawing an image that looks through the water surface, the angle between the water surface and the line-of-sight direction is close to the viewpoint position, and the angle between the water surface and the line-of-sight direction is close to a right angle (that is, the angle between the water surface normal and the line-of-sight direction is small). ) The alpha value will be smaller for the part. Hereinafter, this operation is referred to as a “WPL filter”. Conversely, when drawing an image that appears to be reflected on the water surface, the angle between the water surface and the line-of-sight direction is close to the viewpoint position, and the angle between the water surface and the line-of-sight direction is close to a right angle. Increase the alpha value of the smaller part. Hereinafter, this operation is referred to as a “WPLR filter”. By such an operation, the reflection on the water surface and the transparency of the image seen through the water surface can be changed according to the viewpoint position and the line-of-sight direction, and a more realistic image can be obtained.

揺れ効果付加部76は、草などの、水中で水の流れにより、又は、空気中で風により揺れを生じるオブジェクトの画像に対して、揺れを表現する効果を付加する。揺れ効果付加部76は、固定点からの距離に応じた歪を生じさせる、せん断マトリクス変換を用いてオブジェクトをねじることにより、マトリクス計算を1回行うだけでオブジェクトの揺れを表現する。3次元グラフィクスで扱う座標は、X、Y、Zの3つであるが、平行変換や透視変換を考慮し、次元を一つ増やして4次元同次座標として扱うことが多い。このとき、せん断マトリクスMsは、次式で表される。

Figure 0004015644
揺れ効果付加部76は、a、b、c、d、e、fに変数を代入して変換を行う。ここで、a=c、b=e、d=fとしてもよい。 The swaying effect adding unit 76 adds an effect of expressing swaying to an image of an object such as grass that causes swaying by the flow of water underwater or by wind in the air. The shaking effect adding unit 76 expresses the shaking of the object by performing the matrix calculation only once by twisting the object using shear matrix conversion that generates distortion according to the distance from the fixed point. The coordinates handled in the three-dimensional graphics are three, that is, X, Y, and Z. In many cases, however, the dimension is increased by one in consideration of parallel transformation or perspective transformation and handled as four-dimensional homogeneous coordinates. At this time, the shear matrix Ms is expressed by the following equation.
Figure 0004015644
The shaking effect adding unit 76 performs conversion by assigning variables to a, b, c, d, e, and f. Here, a = c, b = e, and d = f may be set.

フレア効果付加部78は、水中の画像に対して、水中に光が差し込む様子を表現する効果を付加する。フレア効果付加部78は、光の差し込みを描画する位置に長方形の板ポリゴンを配置し、せん断によって差し込み側と底面側の辺を平行に保ちつつ板ポリゴンをねじる。また、テクスチャは、ポリゴンと直角になるように張って、そのUV変化で光の差し込みが自然に見えるように表現する。   The flare effect adding unit 78 adds an effect that expresses a state in which light is inserted into water underwater. The flare effect adding unit 78 arranges rectangular plate polygons at positions where light insertion is drawn, and twists the plate polygons while keeping the sides on the insertion side and the bottom side parallel by shearing. Also, the texture is stretched so as to be perpendicular to the polygon and expressed so that the insertion of light can be seen naturally by the UV change.

フォグ効果付加部80は、水中の画像に対して、水深に応じたフォグ効果を付加する。フォグ効果付加部80は、所定の水深に対して最大のフォグ値を設定し、その水深よりも浅い領域に対しては、線形補間によりフォグ値をリアルタイムに設定して、フォグ効果を付加する。   The fog effect adding unit 80 adds a fog effect corresponding to the water depth to an underwater image. The fog effect adding unit 80 sets the maximum fog value with respect to a predetermined water depth, and sets the fog value in real time by linear interpolation for a region shallower than the water depth to add the fog effect.

スケール調整部82は、オブジェクトの画像を生成する際に、画像を表示する状況や、周辺のオブジェクトとの関係などに応じて、オブジェクトのスケールを自動的に調整する。例えば、ゲームに登場する魚や、アイテムなどを説明するための画面を表示する際に、魚やアイテムをゲーム中に登場する大きさではなく、表示枠に応じたほぼ一定の大きさで表示されるように、スケールを調整する。スケール調整部82は、オブジェクトデータベース62から読み出したオブジェクトのポリゴンモデルのカリング用球データから、その大きさを取得し、
(モデルのスケール)=k/(カリング用球データの半径)×(個別調整用数値)k
=(所定値)
より大きさを計算する。また、スケール調整部82は、カリング用球データの中心座標値に基づいて、表示位置のずれを修正する。
When the image of the object is generated, the scale adjustment unit 82 automatically adjusts the scale of the object according to the situation in which the image is displayed, the relationship with surrounding objects, and the like. For example, when displaying a screen for explaining fish or items appearing in the game, the size of the fish or item is displayed in a substantially constant size according to the display frame, not the size that appears in the game. Adjust the scale. The scale adjustment unit 82 acquires the size from the culling sphere data of the polygon model of the object read from the object database 62,
(Scale of model) = k / (Radius of culling sphere data) × (Number for individual adjustment) k
= (Predetermined value)
Calculate the size. The scale adjustment unit 82 corrects the display position deviation based on the center coordinate value of the culling sphere data.

図2は、水上オブジェクト、水中オブジェクト、水面オブジェクトの例を示す。図2に示した3次元仮想現実世界は、水面100を挟んで、水中102と水上104の2つの屈折率の異なる空間を含む。図2には、水上104に配置された水上オブジェクトの例としてバケツ110が、水中102に配置された水中オブジェクトの例として岩112が、水面100付近に配置された水面オブジェクトの例として落ち葉114が、それぞれ示されている。水上104からこの世界を眺めると、同じ空間内にある水上オブジェクトと、水面オブジェクトと、水面100で反射した水上オブジェクトと、水面100を透過した水中オブジェクトが見える。また、水中102からこの世界を眺めると、同じ空間内にある水中オブジェクトと、水面オブジェクトと、水面100で反射した水中オブジェクトと、水面100を透過した水上オブジェクトが見える。本実施の形態では、これらのオブジェクトの描画順序を適切に設定することにより、ゲーム世界をより正確に再現した画像を生成する。水面付近に存在するオブジェクトは、視点位置が水上であっても水中であっても、水面で反射して見える画像や水面を透過して見える画像よりもはっきりと見えるはずであるから、水面オブジェクトの描画を水面から比較的離れた水中オブジェクトや水上オブジェクトの描画と独立させ、水面における反射画像及び透過画像よりも優先させて描画することにより、より現実感の高い画像を生成することができる。   FIG. 2 shows examples of a water object, an underwater object, and a water surface object. The three-dimensional virtual real world shown in FIG. 2 includes two spaces having different refractive indexes, the underwater 102 and the water 104, with the water surface 100 interposed therebetween. In FIG. 2, a bucket 110 is an example of a water object placed on the water surface 104, a rock 112 is an example of an underwater object placed on the water 102, and a fallen leaf 114 is an example of a water surface object placed near the water surface 100. , Respectively. When this world is viewed from the water surface 104, a water object, a water surface object, a water object reflected by the water surface 100, and an underwater object transmitted through the water surface 100 in the same space can be seen. When the world is viewed from the underwater 102, an underwater object, a water surface object, an underwater object reflected by the water surface 100, and a water object that has passed through the water surface 100 can be seen in the same space. In the present embodiment, by appropriately setting the drawing order of these objects, an image that more accurately reproduces the game world is generated. Objects that are near the water surface should be more clearly visible than images that are reflected on the surface of the water or images that are transmitted through the surface of the water, regardless of whether the viewpoint is on the water or underwater. By rendering the drawing independent of the drawing of the underwater object or the water object relatively far from the water surface and prioritizing the reflected image and the transmitted image on the water surface, a more realistic image can be generated.

図3は、生成部70がゲーム画面を生成する手順を示すフローチャートである。まず、生成部70は、制御部30からカメラの視点位置及び視線方向を取得する(S10)。つづいて、生成部70は、カメラの視点位置に基づいて、オブジェクトの描画順序を決定する(S12)。生成部70は、カメラの視点位置が水面よりも上にあるか下にあるかを判断し、判断結果に応じてオブジェクトの描画順序を決定する。カメラの視点位置が水中にある場合は(S14のN)、生成部70は、水上オブジェクト、水面オブジェクト、水中オブジェクトの順にレンダリングを行い、それらを順次上書きしてゲーム世界の画像を生成する(S18)。カメラの視点位置が水上にある場合は(S14のY)、生成部70は、水中オブジェクト、水面オブジェクト、水上オブジェクトの順にレンダリングを行い、それらを順次上書きしてゲーム世界の画像を生成する(S16)。これにより、例えば半透明なオブジェクトが配置されている場合であっても、ソートエラーを生じることなく適切に描画することができる。生成部70は、こうして生成されたゲーム世界の画像に、キャラクタの体力や空腹度などの各種情報の表示を付加してゲーム画面を生成する(S20)。   FIG. 3 is a flowchart illustrating a procedure in which the generation unit 70 generates a game screen. First, the generation unit 70 acquires the viewpoint position and the line-of-sight direction of the camera from the control unit 30 (S10). Subsequently, the generation unit 70 determines the drawing order of the objects based on the viewpoint position of the camera (S12). The generation unit 70 determines whether the viewpoint position of the camera is above or below the water surface, and determines the drawing order of the objects according to the determination result. When the viewpoint position of the camera is underwater (N in S14), the generation unit 70 performs rendering in the order of the water object, the water surface object, and the underwater object, and sequentially overwrites them to generate an image of the game world (S18). ). When the viewpoint position of the camera is on the water (Y in S14), the generation unit 70 performs rendering in the order of the underwater object, the water surface object, and the water object, and sequentially overwrites them to generate an image of the game world (S16). ). Thereby, for example, even when a semi-transparent object is arranged, it is possible to appropriately draw without causing a sort error. The generation unit 70 adds a display of various information such as the physical strength and hunger level of the character to the image of the game world generated in this way to generate a game screen (S20).

図4は、生成部70が、水上から見たゲーム世界の画像を生成する手順を示すフローチャートである。この手順は、図3に示したフローチャートにおけるS16に該当する。まず、生成部70は、オブジェクトデータベース62から水中オブジェクトを読み出し、レンダリング部90に渡す。レンダリング部90は、カメラの視点位置と視線方向を設定して、水中オブジェクトをレンダリングし、テクスチャメモリ64に格納する(S30)。このとき、草などのオブジェクトが存在する場合は、揺れ効果付加部76により揺れを表現する効果を付加する。また、必要であれば、フレア効果付加部78により光の差し込みを表現する効果を付加してもよいし、フォグ効果付加部80により水中の透明度などを変更してもよい。つづいて、テクスチャメモリ64の画像に対して、水面効果付加部74により歪み効果を加え、WPLフィルタを適用し、水面の遠い部分ほど画像が薄くなるようにフレームバッファ66へ描画する(S32)。これにより、水面から透けて見える水中オブジェクトの画像が生成される。   FIG. 4 is a flowchart illustrating a procedure in which the generation unit 70 generates an image of the game world viewed from the water. This procedure corresponds to S16 in the flowchart shown in FIG. First, the generation unit 70 reads an underwater object from the object database 62 and passes it to the rendering unit 90. The rendering unit 90 sets the viewpoint position and line-of-sight direction of the camera, renders the underwater object, and stores it in the texture memory 64 (S30). At this time, if there is an object such as grass, an effect that expresses shaking is added by the shaking effect adding unit 76. Further, if necessary, an effect of expressing light insertion may be added by the flare effect adding unit 78, or the underwater transparency may be changed by the fog effect adding unit 80. Subsequently, a distortion effect is added to the image in the texture memory 64 by the water surface effect adding unit 74, and a WPL filter is applied, and the image is rendered in the frame buffer 66 so that the image becomes thinner at a portion farther from the water surface (S32). As a result, an image of the underwater object seen through the water surface is generated.

次に、生成部70は、テクスチャメモリ64を黒一色で塗りつぶす。つづいて、テクスチャメモリ64の画像に対して、水面効果付加部74により歪み効果を加え、WPLRフィルタを適用し、水面の遠い部分ほど画像が濃くなるようにフレームバッファ66へ描画する(S34)。この画像は、黒のグラデーションとなる。遠い水面ほど濃い黒の画像が加算されることになるので、視点位置から遠い水面ほど暗い画像になる。これにより、遠近感を出すことができる。   Next, the generation unit 70 fills the texture memory 64 with one black color. Subsequently, a distortion effect is applied to the image in the texture memory 64 by the water surface effect adding unit 74, and a WPLR filter is applied, and the image is drawn in the frame buffer 66 so that the image becomes darker as the part of the water surface is farther (S34). This image has a black gradation. Since the darker black image is added to the farther water surface, the darker the image is to the farther water surface from the viewpoint position. Thereby, a sense of perspective can be produced.

次に、生成部70は、オブジェクトデータベース62から水上オブジェクトを読み出し、レンダリング部90に渡す。レンダリング部90は、カメラの視点位置と視線方向を設定して、水上オブジェクトをレンダリングし、テクスチャメモリ64に格納する(S36)。このとき、マトリクスは水面で反転させる。草などのオブジェクトが存在する場合は、揺れ効果付加部76により揺れを表現する効果を付加してもよい。つづいて、テクスチャメモリ64の画像に対して、水面効果付加部74により歪み効果を加え、WPLRフィルタを適用し、水面の遠い部分ほど画像が濃くなるようにフレームバッファ66へ描画する(S38)。これにより、水面で反射されて見える水上オブジェクトの画像が描画される。以上の手順により、水上オブジェクトと水中オブジェクトの画像が水面でクロスフェードしたような画像が得られる。水中オブジェクトの画像にはWPLフィルタを、水面で反転させた水上オブジェクトの画像にはWPLRフィルタを適用しているので、視点から近く、水面と視線方向とのなす角が直角に近いほど、水面を透過する水中オブジェクトの画像が濃く、水面に反射した水上オブジェクトの画像が薄く描画され、逆に、視点から遠く、水面と視線方向とのなす角が小さいほど、水面を透過する水中オブジェクトの画像が薄く、水面に反射した水上オブジェクトの画像が濃く描画されることになる。これにより、水面の様子をよりリアルに再現することができる。   Next, the generation unit 70 reads out the water object from the object database 62 and passes it to the rendering unit 90. The rendering unit 90 sets the viewpoint position and line-of-sight direction of the camera, renders the surface object, and stores it in the texture memory 64 (S36). At this time, the matrix is inverted on the water surface. When an object such as grass is present, an effect for expressing the shaking may be added by the shaking effect adding unit 76. Subsequently, a distortion effect is applied to the image in the texture memory 64 by the water surface effect adding unit 74, and a WPLR filter is applied, and the image is drawn in the frame buffer 66 so that the image becomes darker at a portion farther from the water surface (S38). As a result, an image of the floating object that is reflected on the water surface is drawn. By the above procedure, an image in which the images of the water object and the underwater object are cross-faded on the water surface is obtained. Since the WPL filter is applied to the underwater object image and the WPLR filter is applied to the water object image inverted on the water surface, the closer the angle between the water surface and the line of sight is, the closer the water surface is. The image of the underwater object passing through the water surface is darker, the image of the water object reflected off the water surface is drawn lighter, and conversely, the farther from the viewpoint and the smaller the angle between the water surface and the line-of-sight direction, The image of the water object that is thin and reflected on the water surface is drawn deeply. Thereby, the state of the water surface can be reproduced more realistically.

次に、生成部70は、オブジェクトデータベース62から水面オブジェクトを読み出し、レンダリング部90に渡す。レンダリング部90は、カメラの視点位置と視線方向を設定して、水面オブジェクトをレンダリングし、テクスチャメモリ64に格納する(S40)。このとき、テクスチャアニメーションを利用してもよい。つづいて、テクスチャメモリ64の画像に対して、水面効果付加部74により歪み効果を加え、WPLフィルタを適用し、水面の遠い部分ほど画像が薄くなるようにフレームバッファ66へ描画する(S42)。これにより、水面オブジェクトの画像が描画される。水面の画像に水面オブジェクトの画像を上書きするので、水面付近に配置されたオブジェクトが、水面を透過して見える水中オブジェクトや、水面で反射して見える水上オブジェクトよりも優先して描画される。これにより、より現実感の高い画像を生成することができる。   Next, the generation unit 70 reads out the water surface object from the object database 62 and passes it to the rendering unit 90. The rendering unit 90 sets the viewpoint position and line-of-sight direction of the camera, renders the water surface object, and stores it in the texture memory 64 (S40). At this time, texture animation may be used. Subsequently, a distortion effect is applied to the image in the texture memory 64 by the water surface effect adding unit 74, and a WPL filter is applied, and the image is rendered in the frame buffer 66 so that the image becomes thinner at a portion farther from the water surface (S42). Thereby, the image of the water surface object is drawn. Since the image of the water surface object is overwritten on the image of the water surface, the object arranged in the vicinity of the water surface is drawn with priority over the underwater object that can be seen through the water surface and the water surface object that can be reflected off the water surface. As a result, a more realistic image can be generated.

次に、生成部70は、オブジェクトデータベース62から水上オブジェクトを読み出し、レンダリング部90に渡す。レンダリング部90は、カメラの視点位置と視線方向を設定して、水上オブジェクトをレンダリングし、フレームバッファ66に加算する(S44)。以上の手順により、水上から見たゲーム世界の画像が適切に生成される。   Next, the generation unit 70 reads out the water object from the object database 62 and passes it to the rendering unit 90. The rendering unit 90 sets the viewpoint position and line-of-sight direction of the camera, renders the surface object, and adds it to the frame buffer 66 (S44). Through the above procedure, an image of the game world viewed from the water is appropriately generated.

図5は、生成部70が、水中から見たゲーム世界の画像を生成する手順を示すフローチャートである。この手順は、図3に示したフローチャートにおけるS18に該当する。まず、生成部70は、オブジェクトデータベース62から水上オブジェクトを読み出し、レンダリング部90に渡す。レンダリング部90は、カメラの視点位置と視線方向を設定して、水上オブジェクトをレンダリングし、テクスチャメモリ64に格納する(S50)。このとき、草などのオブジェクトが存在する場合は、揺れ効果付加部76により揺れを表現する効果を付加してもよい。つづいて、テクスチャメモリ64の画像に対して、水面効果付加部74により歪み効果を加え、WPLフィルタを適用し、水面の遠い部分ほど画像が薄くなるようにフレームバッファ66へ描画する(S52)。これにより、水面から透けて見える水上オブジェクトの画像が生成される。   FIG. 5 is a flowchart illustrating a procedure in which the generation unit 70 generates an image of the game world viewed from underwater. This procedure corresponds to S18 in the flowchart shown in FIG. First, the generation unit 70 reads out a floating object from the object database 62 and passes it to the rendering unit 90. The rendering unit 90 sets the camera viewpoint position and line-of-sight direction, renders the surface object, and stores it in the texture memory 64 (S50). At this time, if there is an object such as grass, an effect of expressing shaking may be added by the shaking effect adding unit 76. Subsequently, a distortion effect is applied to the image in the texture memory 64 by the water surface effect adding unit 74, and a WPL filter is applied, and the image is rendered in the frame buffer 66 so that the image becomes thinner as the part of the water surface is farther (S52). As a result, an image of the water object that can be seen through the water surface is generated.

次に、生成部70は、テクスチャメモリ64を黒一色で塗りつぶす。つづいて、テクスチャメモリ64の画像に対して、水面効果付加部74により歪み効果を加え、WPLRフィルタを適用し、水面の遠い部分ほど画像が濃くなるようにフレームバッファ66へ描画する(S54)。この画像は、黒のグラデーションとなる。遠い水面ほど濃い黒の画像が加算されることになるので、視点位置から遠い水面ほど暗い画像になる。これにより、遠近感を出すことができる。   Next, the generation unit 70 fills the texture memory 64 with one black color. Subsequently, a distortion effect is applied to the image in the texture memory 64 by the water surface effect adding unit 74, and a WPLR filter is applied to draw the image in the frame buffer 66 so that the image becomes darker as the part of the water surface is farther away (S54). This image has a black gradation. Since the darker black image is added to the farther water surface, the darker the image is to the farther water surface from the viewpoint position. Thereby, a sense of perspective can be produced.

次に、生成部70は、オブジェクトデータベース62から水中オブジェクトを読み出し、レンダリング部90に渡す。レンダリング部90は、カメラの視点位置と視線方向を設定して、水中オブジェクトをレンダリングし、テクスチャメモリ64に格納する(S56)。このとき、マトリクスは水面で反転させる。つづいて、テクスチャメモリ64の画像に対して、水面効果付加部74により歪み効果を加え、WPLRフィルタを適用し、水面の遠い部分ほど画像が濃くなるようにフレームバッファ66へ描画する(S58)。これにより、水面で反射されて見える水中オブジェクトの画像が描画される。以上の手順により、水上オブジェクトと水中オブジェクトの画像が水面でクロスフェードしたような画像が得られる。水上オブジェクトの画像にはWPLフィルタを、水面で反転させた水中オブジェクトの画像にはWPLRフィルタを適用しているので、視点から近く、水面と視線方向とのなす角が直角に近いほど、水面を透過する水上オブジェクトの画像が濃く、水面に反射した水中オブジェクトの画像が薄く描画され、逆に、視点から遠く、水面と視線方向とのなす角が小さいほど、水面を透過する水上オブジェクトの画像が薄く、水面に反射した水中オブジェクトの画像が濃く描画されることになる。これにより、水面の様子をよりリアルに再現することができる。   Next, the generation unit 70 reads the underwater object from the object database 62 and passes it to the rendering unit 90. The rendering unit 90 sets the camera viewpoint position and line-of-sight direction, renders the underwater object, and stores it in the texture memory 64 (S56). At this time, the matrix is inverted on the water surface. Subsequently, a distortion effect is applied to the image in the texture memory 64 by the water surface effect adding unit 74, and a WPLR filter is applied, and the image is drawn in the frame buffer 66 so that the image becomes darker as the part of the water surface is farther away (S58). As a result, an image of the underwater object that is reflected by the water surface is drawn. By the above procedure, an image in which the images of the water object and the underwater object are cross-faded on the water surface is obtained. Since the WPL filter is applied to the image of the water object and the WPLR filter is applied to the image of the underwater object inverted on the water surface, the closer the angle between the water surface and the line of sight is, the closer the water surface is to the water surface. The image of an overwater object that is transmitted through the water surface is darker when the image of the underwater object that is transmitted through is darker and the image of the underwater object that is reflected off the surface of the water is thinly drawn. A thin image of the underwater object reflected on the water surface is drawn deeply. Thereby, the state of the water surface can be reproduced more realistically.

次に、生成部70は、オブジェクトデータベース62から水面オブジェクトを読み出し、レンダリング部90に渡す。レンダリング部90は、カメラの視点位置と視線方向を設定して、水面オブジェクトをレンダリングし、テクスチャメモリ64に格納する(S60)。このとき、テクスチャアニメーションを利用してもよい。つづいて、テクスチャメモリ64の画像に対して、水面効果付加部74により歪み効果を加え、WPLフィルタを適用し、水面の遠い部分ほど画像が薄くなるようにフレームバッファ66へ描画する(S62)。これにより、水面オブジェクトの画像が描画される。水面の画像に水面オブジェクトの画像を上書きするので、水面付近に配置されたオブジェクトが、水面を透過して見える水上オブジェクトや、水面で反射して見える水中オブジェクトよりも優先して描画される。これにより、より現実感の高い画像を生成することができる。   Next, the generation unit 70 reads out the water surface object from the object database 62 and passes it to the rendering unit 90. The rendering unit 90 sets the viewpoint position and line-of-sight direction of the camera, renders the water surface object, and stores it in the texture memory 64 (S60). At this time, texture animation may be used. Subsequently, a distortion effect is applied to the image in the texture memory 64 by the water surface effect adding unit 74, and a WPL filter is applied, and the image is rendered in the frame buffer 66 so that the image becomes thinner at a portion farther from the water surface (S62). Thereby, the image of the water surface object is drawn. Since the image of the water surface object is overwritten on the image of the water surface, the object arranged near the water surface is drawn with priority over the water object that can be seen through the water surface and the water object that is reflected on the water surface. As a result, a more realistic image can be generated.

次に、生成部70は、オブジェクトデータベース62から水中オブジェクトを読み出し、レンダリング部90に渡す。レンダリング部90は、カメラの視点位置と視線方向を設定して、水中オブジェクトをレンダリングし、フレームバッファ66に加算する(S64)。このとき、草などのオブジェクトが存在する場合は、揺れ効果付加部76により揺れを表現する効果を付加する。また、必要であれば、フレア効果付加部78により光の差し込みを表現する効果を付加してもよいし、フォグ効果付加部80により水中の透明度などを変更してもよい。最後に、フレームバッファ66の画像に対して、水中効果付加部72により水のゆらめきを表現する効果を付加する(S66)。以上の手順により、水中から見たゲーム世界の画像が適切に生成される。   Next, the generation unit 70 reads the underwater object from the object database 62 and passes it to the rendering unit 90. The rendering unit 90 sets the viewpoint position and line-of-sight direction of the camera, renders the underwater object, and adds it to the frame buffer 66 (S64). At this time, if there is an object such as grass, an effect that expresses shaking is added by the shaking effect adding unit 76. Further, if necessary, an effect of expressing light insertion may be added by the flare effect adding unit 78, or the underwater transparency may be changed by the fog effect adding unit 80. Finally, an effect of expressing water fluctuation is added to the image in the frame buffer 66 by the underwater effect adding unit 72 (S66). Through the above procedure, an image of the game world viewed from underwater is appropriately generated.

以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there.

実施の形態に係る画像処理装置を含むゲーム装置の構成を示す図である。It is a figure which shows the structure of the game device containing the image processing apparatus which concerns on embodiment. 水上オブジェクト、水中オブジェクト、水面オブジェクトの例を示す図である。It is a figure which shows the example of a water object, an underwater object, and a water surface object. 生成部がゲーム画面を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure in which a production | generation part produces | generates a game screen. 生成部が水上から見たゲーム世界の画像を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure in which the production | generation part produces | generates the image of the game world seen from the water. 生成部が水中から見たゲーム世界の画像を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure in which the production | generation part produces | generates the image of the game world seen from underwater.

符号の説明Explanation of symbols

10 ゲーム装置、30 制御部、40 表示装置、50 画像処理装置、60 記憶部、62 オブジェクトデータベース、64 テクスチャメモリ、66 フレームバッファ、70 生成部、72 水中効果付加部、74 水面効果付加部、76 揺れ効果付加部、78 フレア効果付加部、80 フォグ効果付加部、82 スケール調整部、90 レンダリング部。   10 game devices, 30 control units, 40 display devices, 50 image processing devices, 60 storage units, 62 object databases, 64 texture memories, 66 frame buffers, 70 generation units, 72 underwater effect addition units, 74 water surface effect addition units, 76 Shake effect adding unit, 78 Flare effect adding unit, 80 Fog effect adding unit, 82 Scale adjusting unit, 90 Rendering unit.

Claims (12)

屈折率の異なる第1空間及び第2空間に仮想的に配置された3次元オブジェクトのデータを、前記第1空間に配置された第1オブジェクト前記第2空間に配置された第2オブジェクト、及び前記第1空間及び前記第2空間の境界面付近に配置された第3オブジェクトの別を識別可能に格納する格納部と、
所定の視点位置から所定の視線方向に見た前記3次元オブジェクトの画像を生成する生成部と、を備え、
前記生成部は、前記視点位置が前記第1空間にある場合、前記第2オブジェクト、前記境界面に反射して見える前記第1オブジェクト、前記第3オブジェクト、前記第1オブジェクトの順にレンダリングして重ね合わせることにより前記3次元オブジェクトの画像を生成することを特徴とする画像処理装置。
The data of the three-dimensional object virtually arranged in the first space and the second space different refractive index, the first first object placed in a space, the second object disposed in the second space and, A storage unit for identifiably storing a third object arranged near a boundary surface between the first space and the second space ;
A generation unit that generates an image of the three-dimensional object viewed in a predetermined line-of-sight direction from a predetermined viewpoint position;
When the viewpoint position is in the first space, the generation unit renders and overlaps the second object, the first object that is reflected on the boundary surface, the third object, and the first object in this order. An image processing apparatus that generates an image of the three-dimensional object by combining them.
前記視点位置が前記第2空間にある場合、前記生成部は、前記第1オブジェクト、前記境界面に反射して見える第2オブジェクト、前記第3オブジェクト、前記第2オブジェクトの順にレンダリングして重ね合わせることにより、前記画像を生成することを特徴とする請求項に記載の画像処理装置。 When the viewpoint position is in the second space, the generation unit renders and superimposes the first object, the second object that is reflected on the boundary surface, the third object, and the second object in this order. it, the image processing apparatus according to claim 1, characterized in that to generate the image. 生成された画像を所定のサイズのブロックに分割し、前記ブロックの頂点を移動させて画像を歪ませることにより、前記画像がゆらめく様子を表現する効果を付加する歪み効果付加部を更に備えることを特徴とする請求項1又は2に記載の画像処理装置。 The image processing apparatus further includes a distortion effect adding unit that adds an effect of expressing a state in which the image fluctuates by dividing the generated image into blocks of a predetermined size and distorting the image by moving the vertex of the block. the image processing apparatus according to claim 1 or 2, characterized. 前記頂点の移動量は、その頂点に投影された前記境界面上の座標の奥行き方向の値の逆数に比例することを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 3 , wherein an amount of movement of the vertex is proportional to a reciprocal of a value in a depth direction of coordinates on the boundary surface projected onto the vertex. 前記頂点の透明度は、前記視点位置と前記頂点との間の距離又は前記視線方向と前記頂点における前記境界面の法線とのなす角に応じて決定されることを特徴とする請求項又はに記載の画像処理装置。 Transparency of the vertices claim 3, characterized in that it is determined according to the angle between the normal of the boundary surface at a distance, or the sight line direction and the apex between the apexes and the viewpoint position or 5. The image processing apparatus according to 4 . 流体中で揺れを生じるオブジェクトの画像に対して、せん断マトリクス変換を作用させることにより、前記オブジェクトが揺れる様子を表現する効果を付加する揺れ効果付加部を更に備えることを特徴とする請求項1からのいずれかに記載の画像処理装置。 The apparatus further comprises a shaking effect adding unit that adds an effect of expressing a state of shaking of the object by applying shear matrix conversion to an image of the object that causes shaking in the fluid. 6. The image processing apparatus according to any one of 5 above. 前記第1空間又は前記第2空間に光が差し込む様子を表現する効果を付加するために、前記光が差し込む位置に板ポリゴンを配置し、せん断によって差し込み側と底面側の辺を平行に保ちつつ前記板ポリゴンをねじり、前記板ポリゴンと直角にテクスチャを張るフレア効果付加部を更に備えることを特徴とする請求項1からのいずれかに記載の画像処理装置。 In order to add an effect of expressing a state in which light is inserted into the first space or the second space, a plate polygon is arranged at a position where the light is inserted, and the sides on the insertion side and the bottom side are kept parallel by shearing. twisting the plate polygon, the image processing apparatus according to any one of claims 1 to 6, further comprising a flare effect adding section tensioning the plate polygon perpendicular textured. 前記第1空間が水中である場合に、水深に応じたフォグ効果を付加するフォグ効果付加部を更に備えることを特徴とする請求項1からのいずれかに記載の画像処理装置。 Wherein when the first space is water, an image processing apparatus according to any one of claims 1 to 7, characterized in that it further comprises a fog effect adding section for adding a fog effect in accordance with the water depth. 前記オブジェクトのスケールを、表示モードに基づいて自動調整するスケール調整部を更に備えることを特徴とする請求項1からのいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, the scale of the object, and further comprising a scaling unit that automatically adjusts based on the display mode. 屈折率の異なる第1空間及び第2空間に仮想的に配置された3次元オブジェクトのデータをレンダリングするために、視点位置と視線方向を取得するステップと、
前記視点位置と、前記第1空間と前記第2空間の境界面との位置関係に応じて、前記第1空間に配置された第1オブジェクト前記第2空間に配置された第2オブジェクト、及び前記第1空間及び前記第2空間の境界面付近に配置された第3オブジェクトの描画順序を決定するステップと、
前記視点位置が前記第1空間にある場合、前記第2オブジェクト、前記境界面に反射して見える前記第1オブジェクト、前記第3オブジェクト、前記第1オブジェクトの順に、前記3次元オブジェクトのデータを格納した格納部から前記データを読み出してレンダリングし、それらを重ね合わせることにより、前記3次元オブジェクトの画像を生成するステップと、
を含むことを特徴とする画像処理方法。
Obtaining a viewpoint position and a line-of-sight direction in order to render data of a three-dimensional object virtually arranged in the first space and the second space having different refractive indexes;
It said viewpoint position, according to the positional relationship between the boundary surface of the first space and the second space, the first first object placed in a space, the second object disposed in the second space and, Determining a drawing order of a third object arranged near a boundary surface between the first space and the second space ;
When the viewpoint position is in the first space, the data of the three-dimensional object is stored in the order of the second object, the first object that is reflected on the boundary surface, the third object, and the first object. Generating the image of the three-dimensional object by reading and rendering the data from the storage unit, and superimposing the data;
An image processing method comprising:
屈折率の異なる第1空間及び第2空間に仮想的に配置された3次元オブジェクトのデータをレンダリングするために、視点位置と視線方向を取得する機能と、
前記視点位置と、前記第1空間と前記第2空間の境界面との位置関係に応じて、前記第1空間に配置された第1オブジェクト前記第2空間に配置された第2オブジェクト、及び前記第1空間及び前記第2空間の境界面付近に配置された第3オブジェクトの描画順序を決定する機能と、
前記視点位置が前記第1空間にある場合、前記第2オブジェクト、前記境界面に反射して見える前記第1オブジェクト、前記第3オブジェクト、前記第1オブジェクトの順に、前記3次元オブジェクトのデータを格納した格納部から前記データを読み出してレンダリングし、それらを重ね合わせることにより、前記3次元オブジェクトの画像を生成する機能と、
をコンピュータに実行せしめることを特徴とするコンピュータプログラム。
A function of acquiring a viewpoint position and a line-of-sight direction in order to render data of a three-dimensional object virtually arranged in the first space and the second space having different refractive indexes;
It said viewpoint position, according to the positional relationship between the boundary surface of the first space and the second space, the first first object placed in a space, the second object disposed in the second space and, A function of determining a drawing order of a third object arranged near a boundary surface between the first space and the second space ;
When the viewpoint position is in the first space, the data of the three-dimensional object is stored in the order of the second object, the first object that is reflected on the boundary surface, the third object, and the first object. A function of generating the image of the three-dimensional object by reading and rendering the data from the storage unit, and superimposing the data;
A computer program for causing a computer to execute.
屈折率の異なる第1空間及び第2空間に仮想的に配置された3次元オブジェクトのデータをレンダリングするために、視点位置と視線方向を取得する機能と、
前記視点位置と、前記第1空間と前記第2空間の境界面との位置関係に応じて、前記第1空間に配置された第1オブジェクト前記第2空間に配置された第2オブジェクト、及び前記第1空間及び前記第2空間の境界面付近に配置された第3オブジェクトの描画順序を決定する機能と、
前記視点位置が前記第1空間にある場合、前記第2オブジェクト、前記境界面に反射して見える前記第1オブジェクト、前記第3オブジェクト、前記第1オブジェクトの順に、前記3次元オブジェクトのデータを格納した格納部から前記データを読み出してレンダリングし、それらを重ね合わせることにより、前記3次元オブジェクトの画像を生成する機能と、
を実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
A function of acquiring a viewpoint position and a line-of-sight direction in order to render data of a three-dimensional object virtually arranged in the first space and the second space having different refractive indexes;
It said viewpoint position, according to the positional relationship between the boundary surface of the first space and the second space, the first first object placed in a space, the second object disposed in the second space and, A function of determining a drawing order of a third object arranged near a boundary surface between the first space and the second space ;
When the viewpoint position is in the first space, the data of the three-dimensional object is stored in the order of the second object, the first object that is reflected on the boundary surface, the third object, and the first object. A function of generating the image of the three-dimensional object by reading and rendering the data from the storage unit, and superimposing the data;
The computer-readable recording medium which recorded the program for implement | achieving.
JP2004161787A 2004-05-31 2004-05-31 Image processing apparatus and image processing method Expired - Fee Related JP4015644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004161787A JP4015644B2 (en) 2004-05-31 2004-05-31 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004161787A JP4015644B2 (en) 2004-05-31 2004-05-31 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2005346165A JP2005346165A (en) 2005-12-15
JP4015644B2 true JP4015644B2 (en) 2007-11-28

Family

ID=35498521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004161787A Expired - Fee Related JP4015644B2 (en) 2004-05-31 2004-05-31 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4015644B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7833360B2 (en) 2006-03-07 2010-11-16 Nippon Steel Corporation Method of producing grain-oriented electrical steel sheet very excellent in magnetic properties
US7942982B2 (en) 2006-11-22 2011-05-17 Nippon Steel Corporation Grain-oriented electrical steel sheet excellent in coating adhesion and method of producing the same
WO2014125841A1 (en) 2013-02-18 2014-08-21 Jfeスチール株式会社 Nitriding equipment for oriented electromagnetic steel plate and nitriding method
KR20150119124A (en) 2013-02-18 2015-10-23 제이에프이 스틸 가부시키가이샤 Method and device for nitriding grain-oriented electrical steel sheet
US11459633B2 (en) 2017-12-28 2022-10-04 Jfe Steel Corporation Low-iron-loss grain-oriented electrical steel sheet and production method for same
US11578377B2 (en) 2017-05-12 2023-02-14 Jfe Steel Corporation Grain-oriented electrical steel sheet and method for producing the same
KR20230169261A (en) 2021-05-28 2023-12-15 제이에프이 스틸 가부시키가이샤 Manufacturing method of grain-oriented electrical steel sheet
KR20230170744A (en) 2021-05-28 2023-12-19 제이에프이 스틸 가부시키가이샤 Manufacturing method of grain-oriented electrical steel sheet
KR20240006635A (en) 2021-05-28 2024-01-15 제이에프이 스틸 가부시키가이샤 Manufacturing method of grain-oriented electrical steel sheet

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4902847B2 (en) * 2006-03-29 2012-03-21 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4805094B2 (en) * 2006-10-31 2011-11-02 富士通セミコンダクター株式会社 Fog effect processing method, graphics apparatus, graphics semiconductor integrated circuit device, and fog effect processing program
JP4895381B2 (en) * 2007-03-26 2012-03-14 サミー株式会社 Image generating apparatus and image generating program
US8009168B2 (en) 2007-06-26 2011-08-30 Microsoft Corporation Real-time rendering of light-scattering media
US7990377B2 (en) 2007-06-26 2011-08-02 Microsoft Corporation Real-time rendering of light-scattering media
US8190403B2 (en) 2007-06-26 2012-05-29 Microsoft Corporation Real-time rendering of light-scattering media
US7940269B2 (en) 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US7940268B2 (en) 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
JP4937938B2 (en) * 2008-02-20 2012-05-23 株式会社カプコン Game program and game system
JP5087453B2 (en) * 2008-03-31 2012-12-05 株式会社カプコン Program, storage medium and computer apparatus
JP5613433B2 (en) * 2010-03-31 2014-10-22 株式会社カプコン Image processing program, recording medium, and computer apparatus
JP4929380B2 (en) * 2010-07-06 2012-05-09 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing method, and program
CN107899240B (en) * 2017-12-06 2020-12-29 北京像素软件科技股份有限公司 Method and device for realizing underwater fog effect
CN108230436A (en) * 2017-12-11 2018-06-29 网易(杭州)网络有限公司 The rendering intent of virtual resource object in three-dimensional scenic
CN107918949A (en) * 2017-12-11 2018-04-17 网易(杭州)网络有限公司 Rendering intent, storage medium, processor and the terminal of virtual resource object
JP7313811B2 (en) * 2018-10-26 2023-07-25 キヤノン株式会社 Image processing device, image processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3610702B2 (en) * 1996-10-18 2005-01-19 富士通株式会社 Video generation device
JP3517637B2 (en) * 1999-09-10 2004-04-12 株式会社ソニー・コンピュータエンタテインメント Image drawing method, image drawing apparatus, and recording medium
JP2002042153A (en) * 2000-07-27 2002-02-08 Namco Ltd Game system and information storage medium
JP4610748B2 (en) * 2001-01-16 2011-01-12 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP3694468B2 (en) * 2001-05-16 2005-09-14 大日本印刷株式会社 Image generating apparatus and storage medium
JP3949109B2 (en) * 2001-10-15 2007-07-25 富士通株式会社 Hierarchical sorting of linked objects in a virtual 3D space

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7833360B2 (en) 2006-03-07 2010-11-16 Nippon Steel Corporation Method of producing grain-oriented electrical steel sheet very excellent in magnetic properties
US7942982B2 (en) 2006-11-22 2011-05-17 Nippon Steel Corporation Grain-oriented electrical steel sheet excellent in coating adhesion and method of producing the same
WO2014125841A1 (en) 2013-02-18 2014-08-21 Jfeスチール株式会社 Nitriding equipment for oriented electromagnetic steel plate and nitriding method
KR20150119124A (en) 2013-02-18 2015-10-23 제이에프이 스틸 가부시키가이샤 Method and device for nitriding grain-oriented electrical steel sheet
US11578377B2 (en) 2017-05-12 2023-02-14 Jfe Steel Corporation Grain-oriented electrical steel sheet and method for producing the same
US11459633B2 (en) 2017-12-28 2022-10-04 Jfe Steel Corporation Low-iron-loss grain-oriented electrical steel sheet and production method for same
KR20230169261A (en) 2021-05-28 2023-12-15 제이에프이 스틸 가부시키가이샤 Manufacturing method of grain-oriented electrical steel sheet
KR20230170744A (en) 2021-05-28 2023-12-19 제이에프이 스틸 가부시키가이샤 Manufacturing method of grain-oriented electrical steel sheet
KR20240006635A (en) 2021-05-28 2024-01-15 제이에프이 스틸 가부시키가이샤 Manufacturing method of grain-oriented electrical steel sheet

Also Published As

Publication number Publication date
JP2005346165A (en) 2005-12-15

Similar Documents

Publication Publication Date Title
JP4015644B2 (en) Image processing apparatus and image processing method
US10607417B2 (en) Image generating apparatus and image generating method
EP1642625B1 (en) Video game device and image processing program
US8797360B2 (en) Image display device, method for controlling image display device, and information storage medium
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
EP2065854B1 (en) posture dependent normal vectors for texture mapping
JP4804120B2 (en) Program, information storage medium, and image generation system
US8400445B2 (en) Image processing program and image processing apparatus
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
KR100848687B1 (en) 3-dimension graphic processing apparatus and operating method thereof
JP4201207B2 (en) Program, information storage medium, and image generation system
JP4717624B2 (en) Image generation system, program, and information storage medium
JP4754385B2 (en) Program, information recording medium, and image generation system
JP4566120B2 (en) Program, information storage medium, and image generation system
JP2007164651A (en) Program, information storage medium and image generation system
JP2010086264A (en) Image processing apparatus and image processing program
JP3867071B2 (en) Image processing apparatus and image processing method
JP2007164736A (en) Image generation system, program and information storage medium
JP2009140371A (en) Program, information storage medium, and image generation system
JP2010033253A (en) Program, information storage medium, and image generation system
JPH0981771A (en) Image display device
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2009211243A (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130921

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees