JP4117497B2 - Image processing apparatus, image processing method, and recording medium - Google Patents

Image processing apparatus, image processing method, and recording medium Download PDF

Info

Publication number
JP4117497B2
JP4117497B2 JP2006133337A JP2006133337A JP4117497B2 JP 4117497 B2 JP4117497 B2 JP 4117497B2 JP 2006133337 A JP2006133337 A JP 2006133337A JP 2006133337 A JP2006133337 A JP 2006133337A JP 4117497 B2 JP4117497 B2 JP 4117497B2
Authority
JP
Japan
Prior art keywords
character
display
display element
image processing
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006133337A
Other languages
Japanese (ja)
Other versions
JP2006263479A (en
Inventor
俊行 向山
昌子 奥田
知宏 荷村
哲一郎 廣瀬
昌樹 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2006133337A priority Critical patent/JP4117497B2/en
Publication of JP2006263479A publication Critical patent/JP2006263479A/en
Application granted granted Critical
Publication of JP4117497B2 publication Critical patent/JP4117497B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、三次元仮想空間の画像を提供するゲーム装置に適した画像処理技術に関わる。特に本発明は、ロールプレイングゲームにおいて表示される画像を臨場感豊かに表示したり自然な画像の変化を与えたりすることで、遊技者をゲームの世界に深く引き込むことのできる画像処理を提供する。   The present invention relates to an image processing technique suitable for a game device that provides an image in a three-dimensional virtual space. In particular, the present invention provides image processing that can draw a player deeply into the game world by displaying images displayed in a role-playing game with a rich sense of realism or giving natural image changes. .

テレビゲーム装置の中でも、三次元の画像処理技術を利用したロールプレイングゲームは、その画像の美しさとストーリーの深みなどで人気が高い。ロールプレイングゲームの多くは、コンピュータ・グラフィックス技術を応用して、三次元仮想空間に配置した数々の被表示体(以下「オブジェクト」という)を表示可能に構成されている。オブジェクトとしては、地形、植物、動物、建物等の自然界の形態を模擬したものの他、ロールプレイングゲームの主人公やゲームに登場する人物をモデル化したもの(以下「キャラクタ」という)がある。このゲーム装置では、主人公に相当するキャラクタは、遊技者が行う入力装置の操作に対応して仮想空間を移動可能に構成されている。そして、このゲーム装置は、主人公のキャラクタの移動にしたがって仮想空間の画像を表示するための視点を付随して移動させながらゲームストーリーを展開させ、このキャラクタとともに仮想空間を移動し次々表れるオブジェクトを画像表示していくものである。   Among video game devices, role-playing games using three-dimensional image processing technology are popular due to the beauty of the images and the depth of stories. Many role-playing games are configured to display a number of objects to be displayed (hereinafter referred to as “objects”) arranged in a three-dimensional virtual space by applying a computer graphics technique. Examples of the object include a model of a main character of a role playing game and a person appearing in the game (hereinafter referred to as a “character”), in addition to a model of a natural world such as terrain, plants, animals, and buildings. In this game apparatus, the character corresponding to the main character is configured to be able to move in the virtual space in response to the operation of the input device performed by the player. Then, the game device develops the game story while accompanying the viewpoint for displaying the image of the virtual space according to the movement of the hero character, and moves the object in the virtual space together with the character. It will be displayed.

従来のロールプレイングゲームでは、遊技者に仮想空間の様子を明確に提示する必要から、オブジェクトの表示方法に工夫を凝らしていた。例えば、キャラクタが建物を模擬したオブジェクトに出入りする場合、この建物に入ったキャラクタの動きを見やすくするために建物の一部を透明にしたり屋根の無いオブジェクトを利用したりしていた。   In the conventional role-playing game, since the state of the virtual space must be clearly presented to the player, the object display method has been devised. For example, when a character goes in and out of an object simulating a building, a part of the building is made transparent or an object without a roof is used to make it easy to see the movement of the character entering the building.

また、オブジェクトが樹木を模擬したものである場合には、樹木全体のテクスチャを一つの平面ポリゴン上に表現したり、葉を表現するためのテクスチャがマッピングされたポリゴンを幹中央に十字形に差し込んだようにして組み合わせたり、ボール状のオブジェクトで樹木を表現したりして、ポリゴン上に樹木らしく見せるためのテクスチャデータをマッピングしていた。   If the object is a model of a tree, the texture of the entire tree is represented on a single plane polygon, or a polygon with a texture mapped to represent leaves is inserted into the center of the trunk in a cross shape. In this way, texture data is mapped on the polygon to make it look like a tree by combining or expressing a tree with a ball-like object.

さらに、キャラクタの移動に連れて移動する影を表示して臨場感を高めることもあった。   In addition, a shadow that moves as the character moves may be displayed to enhance the sense of reality.

しかしながら、ロールプレイングゲームでは、遊技者がどっぷりとゲーム装置が提供する映像世界に浸り、主人公と精神的に同化してゲームを進められるように設計されていることが好ましい。このような観点から従来のロールプレイングゲームを評価すると、幾つかの不都合が存在していた。   However, it is preferable that the role playing game is designed so that the player can be immersed in the video world provided by the game device and can be assimilated mentally with the main character. When the conventional role-playing game is evaluated from such a viewpoint, there are some disadvantages.

例えば、キャラクタが建物に入る際に建物の一部を消していたゲーム装置では、突然建物の一部が消されたり画面が家の中の表示に切り替わったりしていたために不自然になり、ゲームプレイ中の遊技者に違和感を与えることがあった。また最初から建物の屋根を省いて表示しておくのでは、現実的な画像にほど遠いため、臨場感を高めることができなかった。   For example, in a game device in which a part of the building was erased when the character entered the building, the part of the building suddenly disappeared or the screen switched to the display in the house, making it unnatural. Occasional discomfort for players during play. In addition, if the building roof is omitted from the beginning and displayed, it is far from a realistic image, so it was not possible to enhance the presence.

また、ロールプレイングゲームでは、キャラクタがどこに行くかは遊技者の操作次第であるため、あるオブジェクトに極端に接近することがあった。ところがキャラクタが接近したオブジェクトが従来の方法で樹木を模擬したものであった場合には、微視的なオブジェクトの形状が現実の樹木の形状とはかけ離れていたため、如何にも不自然な画像になっていた。   Further, in the role playing game, where the character goes depends on the player's operation, there is a case where the character is extremely close to the object. However, if the object that the character approached was a model of a tree by a conventional method, the shape of the microscopic object was far from the shape of the actual tree, so it looks like an unnatural image. It was.

しかしそれだからといって個々の葉を全て個別のポリゴンにして表現するのでは、マシンの性能と処理時間に大きな制約のあるゲーム装置ではとても対応できない。   However, even if it is expressed as an individual polygon for each leaf, it cannot be handled by a game machine that has great restrictions on machine performance and processing time.

さらに、従来の影を表示させる方法では、黒い円盤状のオブジェクトをキャラクタの足下に配置し、両オブジェクトを一緒に移動させて影を表示させていた。しかし、地形に凹凸がある場合に影のオブジェクトが地面にめり込むことを防止するため、影のオブジェクトを地形に合わせて浮かすといった演算負荷の高い方法を使用していた。演算負荷を軽減するためには影が地面にめり込むことがあっても無視するしかなかった。このため自然な影を表示することには困難であった。   Further, in the conventional method of displaying shadows, a black disk-like object is placed under the character's feet, and both objects are moved together to display the shadow. However, in order to prevent the shadow object from sinking into the ground when the terrain is uneven, a method having a high calculation load such as floating the shadow object according to the terrain has been used. The only way to reduce the computational load is to ignore the shadows that sink into the ground. For this reason, it was difficult to display a natural shadow.

上記不都合に鑑み、本発明の第1の課題は、キャラクタがオブジェクトに出入りする場合に臨場感を削がずに自然な表示の移り変わりを可能とする画像表示を提供することである。   In view of the above inconveniences, a first object of the present invention is to provide an image display that enables a natural transition of display without reducing the sense of presence when a character enters and exits an object.

本発明の第2の課題は、樹木などのオブジェクトを表示する際に大きく表示しても自然な質感で樹木などの形態を表示可能とする画像表示を提供することである。   A second problem of the present invention is to provide an image display that can display a form such as a tree with a natural texture even when an object such as a tree is displayed large.

本発明の第3の課題は、演算の負荷を増やさず臨場感を削がない自然な影を表示可能とする画像表示を提供することである。   The third object of the present invention is to provide an image display that can display a natural shadow without increasing the calculation load and without reducing the sense of reality.

本発明の第4の課題は、本発明の画像処理が可能なゲーム装置を提供することである。   A fourth object of the present invention is to provide a game apparatus capable of image processing according to the present invention.

本発明の第5の課題は、本発明の画像処理が可能なプログラムを提供可能な記録媒体を提供することである。   A fifth object of the present invention is to provide a recording medium capable of providing a program capable of image processing according to the present invention.

上記第1の課題を解決する発明は、仮想空間内に配置される1以上のオブジェクトと前記オブジェクトに対し相対的に移動可能に設定されたキャラクタとを表示可能に構成された画像処理装置またはその方法において、前記キャラクタが前記オブジェクトに対して所定条件に達している場合に、当該キャラクタの移動と関連した領域に配置されている前記オブジェクトを構成する表示要素のうち、少なくとも一部の特定表示要素の表示濃度を次第に変化させることが可能に構成されている。   An invention for solving the first problem is an image processing apparatus configured to be able to display one or more objects arranged in a virtual space and a character set so as to be movable relative to the object, or the same In the method, when the character reaches a predetermined condition with respect to the object, at least some of the display elements constituting the object arranged in an area associated with the movement of the character The display density can be gradually changed.

「オブジェクト」とは、被表示体であり、ここでは例えばキャラクタを表すオブジェクトと、そのキャラクタが出入りする建物を表すオブジェクトとの関係をいう。ただし一方のオブジェクトが他方のオブジェクト中に入るものに総て適用可能である。上記「所定条件」は、例えば前記キャラクタが前記オブジェクトの内部に出入りすることである。二つのオブジェクト間の距離が一定値に達したことで判断しても、「ドアを開けた」「窓が開いた」等のゲーム進行で設定される状態で間接的に判断してもよい。「関連した領域」とは、表示の濃度を変更することによって内部に入ったオブジェクトを見えるように設定すべき領域であるとか、ゲームの進行上内部を表示させる必要がある領域をいう。例えば建物であれば、一階部分、二階部分など一つのまとまりのある領域がそれに相当する。「少なくとも一部の特定表示要素」とは任意に設定可能である。例えば、前記オブジェクトを構成する表示要素のうち、表示画像を生成するために仮想空間に設定された視点側に位置する表示要素である。「少なくとも一部」なので建物全体の透明度を調整してもその特定部分の透明度を調整してもよい。具体的な変化方法としては、例えば、前記特定表示要素の表示濃度を、前記キャラクタが前記オブジェクトに対して入るときに次第に薄くしていき、出るときに濃くしていく。   The “object” is a display object, and here, for example, refers to a relationship between an object representing a character and an object representing a building where the character enters and exits. However, the present invention can be applied to anything in which one object falls within the other object. The “predetermined condition” is, for example, that the character enters and exits the object. It may be determined that the distance between the two objects has reached a certain value, or may be indirectly determined in a state set by the progress of the game such as “door opened” or “window opened”. The “related area” refers to an area that should be set so that an object that has entered inside can be seen by changing the display density, or an area that needs to be displayed as the game progresses. For example, in the case of a building, one united area such as the first floor part or the second floor part corresponds to that. The “at least some specific display elements” can be arbitrarily set. For example, among the display elements constituting the object, the display elements are located on the viewpoint side set in the virtual space in order to generate a display image. Since it is “at least part”, the transparency of the entire building may be adjusted or the transparency of the specific part may be adjusted. As a specific change method, for example, the display density of the specific display element is gradually decreased when the character enters the object, and is increased when the character exits.

ここで、オブジェクトを構成する仕切部材には予め厚みを設定しておくことは好ましい。このとき、前記特定表示要素以外の表示要素で表示されている前記仕切部材の断面に所定のテクスチャデータをマッピングして表示させる。   Here, it is preferable to set a thickness in advance for the partition member constituting the object. At this time, predetermined texture data is mapped and displayed on the cross section of the partition member displayed by a display element other than the specific display element.

上記第2の課題を解決する発明は、三次元仮想空間に配置されるオブジェクトを表示可能に構成された画像処理装置またはその方法であって、所定のテクスチャデータをマッピングした平面状の表示要素を所定の中心軸の周りに当該中心軸と一定角度をなすように放射状に配置してオブジェクトを構成し、そのようなオブジェクトを1以上上下方向に(仮想空間に設定した上下方向)重ねて仮想空間に配置することにより、樹木状の形態を模擬した画像を表示可能に構成されている。   The invention for solving the second problem is an image processing apparatus or method thereof configured to display an object arranged in a three-dimensional virtual space, wherein a planar display element to which predetermined texture data is mapped is provided. An object is configured by arranging radially around a predetermined center axis so as to form a certain angle with the center axis, and one or more such objects are stacked in the vertical direction (vertical direction set in the virtual space) to overlap the virtual space By arranging in, it is configured to be able to display an image simulating a tree-like form.

ここで「中心軸」とは例えば「幹」に相当する部分である。全体の配置としては錐状あるいは傘状をなす。また、表示要素が同様に外傾している必要はなく、仮想空間の座標で上側に開いていたり、開く角度がランダムであったりしてもよい。「樹木状の形態」とは樹木の他に、自然界にあって形状のはっきりしない形態、例えば炎や煙、雲など、あらゆるものに適用可能である。   Here, the “center axis” is a portion corresponding to, for example, a “trunk”. The overall arrangement is conical or umbrella-shaped. Similarly, the display element does not need to be inclined outward, and may open upward in the coordinates of the virtual space, or the opening angle may be random. The “dendritic form” is applicable to any form other than a tree, such as a form that is not clearly defined in the natural world, such as flames, smoke, and clouds.

ここで、複数の前記オブジェクトのうち少なくとも最上端を覆うオブジェクトを略傘状に構成しておく。ただし下段のオブジェクトについては中心軸に近い部分が見えないので、必ずしも中心軸の近傍付近にテクスチャデータがマッピングされている必要はない。   Here, an object that covers at least the uppermost end of the plurality of objects is configured in a substantially umbrella shape. However, since the lower object cannot be seen near the central axis, the texture data does not necessarily have to be mapped near the central axis.

また、隣接する複数の前記オブジェクトの間で、同一のテクスチャデータをマッピングした表示要素が重ならないように、調整して構成しておく。表示要素を重ならないようにするには、各オブジェクトの向き(中心軸周りのオブジェクトの角度)をオブジェクトごとに変えたり、オブジェクトを構成する表示要素の順番をオブジェクトごとに変えたりすることで対応できる。また、個々の表示要素の平面が外周側にせり出してくるよう設定してもよい。また各前記オブジェクトを構成する各表示要素の平面が、互いに接しないように段違いに配置してもよい。また、表示要素の平面が扇子状にジグザグ形状をなすように並べてもよい。   Further, adjustment is made so that display elements mapped with the same texture data do not overlap between a plurality of adjacent objects. To prevent display elements from overlapping, it can be handled by changing the orientation of each object (the angle of the object around the central axis) for each object, or changing the order of the display elements that make up the object for each object. . Further, it may be set such that the plane of each display element protrudes to the outer peripheral side. Further, the planes of the display elements constituting the objects may be arranged in steps so as not to contact each other. Moreover, you may arrange so that the plane of a display element may make a zigzag shape in a fan shape.

上記第2の課題を解決する他の発明は、三次元仮想空間に配置されるオブジェクトを表示可能に構成された画像処理装置またはその方法であって、所定のテクスチャデータをマッピングした平面状の表示要素を特定の空間領域内に複数配置して一つのオブジェクトを構成し、複数の各前記表示要素の面が向いている方向を、仮想空間を観察する視点に対応させて方向制御可能に構成されている。   Another invention for solving the second problem is an image processing apparatus configured to display an object arranged in a three-dimensional virtual space, or a method thereof, and a planar display in which predetermined texture data is mapped A plurality of elements are arranged in a specific space area to constitute one object, and the direction in which the surface of each of the plurality of display elements faces can be controlled in accordance with the viewpoint of observing the virtual space. ing.

ここでいう「オブジェクト」は、樹木など複雑な形状を備えている自然界の事物が適当である。「オブジェクト」が樹木である場合、「表示要素」は樹木を構成する葉の束にするのが適当である。一つの樹木を複数の表示要素からなるブロックに分解し、各表示要素が視点の方向をほぼ向くように制御する主旨である。   The “object” here is a natural object having a complicated shape such as a tree. When the “object” is a tree, it is appropriate that the “display element” is a bundle of leaves constituting the tree. The main point is that one tree is divided into blocks composed of a plurality of display elements, and control is performed so that each display element is directed substantially in the direction of the viewpoint.

方向制御の一方法として、一つの前記オブジェクトに対し一つの代表点ベクトルを前記視点に対応させて設定し、当該オブジェクトを構成する複数の前記表示要素が当該代表点ベクトルの方向を向くように各前記表示要素を方向制御することが考えられる。   As one method of direction control, one representative point vector is set corresponding to the viewpoint for one object, and each of the plurality of display elements constituting the object faces the direction of the representative point vector. It is conceivable to control the direction of the display element.

方向制御の他の方法として、複数の前記表示要素における法線の各々が前記視点の方向を向くように各前記表示要素を方向制御することが考えられる。   As another method of controlling the direction, it is conceivable to control the direction of each display element so that each normal line of the plurality of display elements faces the direction of the viewpoint.

例えば、各表示要素の頂点に重み付け係数を設定し、当該表示要素にマッピングされるテクスチャの濃度を各頂点間の前記重み付け係数によって一次補間可能に構成され、重み付け係数を当該オブジェクトの仮想空間における配置に対応させて変更することにより、当該オブジェクトを構成する各表示要素のテクスチャの濃淡を制御可能に構成されている。   For example, a weighting coefficient is set at the vertex of each display element, and the texture density mapped to the display element is configured to be linearly interpolated by the weighting coefficient between the vertices, and the weighting coefficient is arranged in the virtual space of the object. By changing corresponding to the above, the density of the texture of each display element constituting the object can be controlled.

上記第3の課題を解決する発明は、仮想空間内に配置されるオブジェクトとそのオブジェクトの影とを表示可能に構成された画像処理装置またはその方法において、画像表示をするための視点と前記オブジェクトとの間に、前記影を表示するためのオブジェクトを生成可能に構成されている。   The invention for solving the third problem is an image processing apparatus or method for displaying an object arranged in a virtual space and a shadow of the object, and a viewpoint for displaying an image and the object. The object for displaying the shadow can be generated between the two.

ここで、仮想空間内に配置された基準面からの前記オブジェクトの高さに応じて前記視点から見たオブジェクトとその影のオブジェクトとの相対位置を変更可能に構成されている。例えば高さに対応して影が画面上下方に移動するように構成する。   Here, the relative position between the object viewed from the viewpoint and the shadow object thereof can be changed in accordance with the height of the object from the reference plane arranged in the virtual space. For example, the shadow is configured to move downward on the screen according to the height.

上記第3の課題を解決する発明は、仮想空間内に配置されるオブジェクトとその影とを表示可能に構成された画像処理装置またはその方法において、仮想空間内に設定された基準面のうち前記オブジェクトの影を表示させる領域に対し、当該影を表示させるための照明光を照射する光源を設定可能に構成されている。例えば、黒色ライトを仮想空間の太陽に相当する位置に配置する。照射する位置はオブジェクトの足下であるが、太陽の角度やオブジェクトの基準面からの高さに応じて照射位置を変えてもよい。   The invention for solving the third problem is an image processing apparatus configured to be able to display an object arranged in a virtual space and its shadow, or the method thereof, wherein the reference plane set in the virtual space is A light source for irradiating illumination light for displaying the shadow of the object can be set for an area where the shadow of the object is displayed. For example, a black light is arranged at a position corresponding to the sun in the virtual space. Although the irradiation position is under the object, the irradiation position may be changed according to the angle of the sun or the height of the object from the reference plane.

上記第4の課題を解決する発明は、本発明の画像処理装置を備えることを特徴とするゲーム装置である。   The invention that solves the fourth problem is a game device comprising the image processing device of the present invention.

上記第5の課題を解決する発明は、コンピュータに、本発明の画像処理方法を実行させるプログラムデータが記録された機械読取可能な記録媒体である。   The invention for solving the fifth problem is a machine-readable recording medium on which program data for causing a computer to execute the image processing method of the present invention is recorded.

なお、記録媒体とは、何等かの物理的手段により情報(主にデジタルデータ、プログラム)が記録されているものであって、コンピュータ、専用プロセッサ等の処理装置に所定の機能を行わせることができるものである。要するに、何等かの手段でもってコンピュータにプログラムをダウンロードし、所定の機能を実行させるものであればよい。例えば、フレキシブルディスク、固定ディスク、磁気テープ、光磁気ディスク、CD、CD−ROM、CD−R、DVD−RAM,DVD−ROM、DVD−R、PD、MD,DCC、ROMカートリッジ、バッテリバックアップ付きのRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等を含む。   Note that the recording medium is a medium in which information (mainly digital data, a program) is recorded by some physical means, and allows a processing device such as a computer or a dedicated processor to perform a predetermined function. It can be done. In short, any means may be used as long as it downloads a program to a computer and executes a predetermined function by any means. For example, flexible disk, fixed disk, magnetic tape, magneto-optical disk, CD, CD-ROM, CD-R, DVD-RAM, DVD-ROM, DVD-R, PD, MD, DCC, ROM cartridge, with battery backup A RAM memory cartridge, a flash memory cartridge, a nonvolatile RAM cartridge, and the like are included.

有線または無線の通信回線(公衆回線、データ専用線、衛星回線等)を介してホストコンピュータからデータの転送を受ける場合を含むものとする。いわゆるインターネットをここにいう記録媒体に含まれるものである。   This includes the case where data is transferred from the host computer via a wired or wireless communication line (public line, data dedicated line, satellite line, etc.). The so-called Internet is included in this recording medium.

次に本発明の好適な実施の形態を、図面を参照して説明する。   Next, preferred embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
本実施形態1は、オブジェクトが建物等に出入りする場合に自然な画像表現を可能にする、三次元的画像表示が可能な画像表示装置、その方法、ゲーム装置および記録媒体に関する。
(Embodiment 1)
The first embodiment relates to an image display device capable of three-dimensional image display, a method thereof, a game device, and a recording medium that enable natural image expression when an object enters and exits a building or the like.

(構成の説明)
第1図に、本発明のゲーム装置におけるブロック図を示す。本発明のゲーム装置1は、第1図に示すように、CPUブロック10,ビデオブロック11およびサウンドブロック12などを備えている。
(Description of configuration)
FIG. 1 shows a block diagram of the game apparatus of the present invention. As shown in FIG. 1, the game apparatus 1 of the present invention includes a CPU block 10, a video block 11, a sound block 12, and the like.

CPUブロック10は、本発明の処理装置に係り、バスアビータ100、CPU101、メインメモリ102、ROM103、CD−ROMドライブ104を備えている。   The CPU block 10 relates to the processing apparatus of the present invention, and includes a bus aviator 100, a CPU 101, a main memory 102, a ROM 103, and a CD-ROM drive 104.

バスアビータ100は、バスを介して相互に接続されるデバイスにバス占有時間を割り振ることにより、データの送受信を制御可能に構成されている。   The bus aviator 100 is configured to be able to control data transmission and reception by allocating a bus occupation time to devices connected to each other via a bus.

CPU101は、CD−ROMドライブ104,ROM103、ビデオブロック11およびサウンドブロック12、入力装置107を介してバックアップメモリ108をアクセス可能に構成されている。CPU101は、電源投入時にROM103に格納されたイニシャルプログラム(初期実行プログラム)を実行し、装置全体の初期化を行い、CD−ROMドライブ104にCD−ROMが装着されたことを検出すると、CD−ROMに格納されているオペレーティングシステム用プログラムデータをメインメモリ102に転送するようになっている。その後、CPU101はオペレーティングシステムに従って動作するようになり、引き続きCD−ROMに格納されているアプリケーションプログラムデータをメインメモリ102に転送し、そのプログラムを実行するようになっている。また、CPU101は、画像データをグラフィックメモリ111に転送し、音声データをサウンドメモリ121に転送可能になっている。CPU101が実行するプログラムデータによる処理は、主として入力装置107からの操作信号の入力や通信装置130からの通信データの解釈と、それに基づいてビデオブロック11に行わせる画像処理およびサウンドブロック12に行わせる音声処理である。   The CPU 101 is configured to be able to access the backup memory 108 via the CD-ROM drive 104, the ROM 103, the video block 11 and the sound block 12, and the input device 107. The CPU 101 executes an initial program (initial execution program) stored in the ROM 103 when the power is turned on, initializes the entire apparatus, and detects that a CD-ROM is loaded in the CD-ROM drive 104. The operating system program data stored in the ROM is transferred to the main memory 102. Thereafter, the CPU 101 operates according to the operating system, and subsequently transfers the application program data stored in the CD-ROM to the main memory 102 and executes the program. In addition, the CPU 101 can transfer image data to the graphic memory 111 and transfer sound data to the sound memory 121. The processing by the program data executed by the CPU 101 is mainly performed by the input of the operation signal from the input device 107 and the interpretation of the communication data from the communication device 130, and by the image processing and the sound block 12 to be performed by the video block 11 based thereon. It is voice processing.

メインメモリ102は、主として上記オペレーティングシステム用プログラムデータおよびアプリケーションプログラムデータを格納する他、静的変数や動的変数等を格納するワークエリアを提供可能になっている。ROM103は、イニシャルプログラムローダの格納領域である。   The main memory 102 mainly stores the operating system program data and application program data, and can provide a work area for storing static variables, dynamic variables, and the like. The ROM 103 is a storage area for the initial program loader.

CD−ROMには、本ゲーム装置に本発明の画像処理方法を実行させるためのプログラムデータ、画像表示のための画像データおよび音声出力のための音声データなどが格納される。CD−ROMドライブ104は、CD−ROMが着脱可能になっており、CD−ROMが装着されるとCPU101にその旨のデータを出力し、CPU101の制御によりデータを転送可能になっている。なお、記録媒体はCD−ROMに限ることなく、他の各種記録媒体を読取可能に構成してもよい。なお、後述する通信装置130経由でCD−ROMに格納されるようなデータ群を各メモリに転送するように構成してもよい。このように設定すれば、遠隔地のサーバの固定ディスクなどからデータの転送が可能である。   The CD-ROM stores program data for causing the game apparatus to execute the image processing method of the present invention, image data for image display, audio data for audio output, and the like. The CD-ROM drive 104 is detachable from the CD-ROM. When the CD-ROM is loaded, the data is output to the CPU 101 and the data can be transferred under the control of the CPU 101. Note that the recording medium is not limited to a CD-ROM, and other various recording media may be readable. In addition, you may comprise so that the data group stored in CD-ROM via the communication apparatus 130 mentioned later may be transferred to each memory. With this setting, data can be transferred from a fixed disk of a remote server.

入力装置107は、本ゲーム装置に着脱自在に接続され、遊技者の操作ボタン等の操作状況に対応した操作信号をCPUブロック10のバスに出力するようになっている。なお、入力装置107としては、ジョイパッドやキーボードの他、マウスや銃型コントローラ等のポインティングデバイスが含まれる。また入力装置107は、一つ接続されるのみならず、二以上接続可能にして、複数の遊技者が同時にゲームプレイできるように構成してもよい。   The input device 107 is detachably connected to the game device, and outputs an operation signal corresponding to an operation state such as an operation button of the player to the bus of the CPU block 10. The input device 107 includes a pointing device such as a mouse or a gun-type controller in addition to a joypad and a keyboard. Further, not only one input device 107 but also two or more can be connected so that a plurality of players can play a game at the same time.

バックアップメモリ108は、入力装置107に着脱自在に接続できるようになっており、CPU101からアクセス可能に構成されている。そしてCPU101から転送される、ゲーム中に発生するゲームの進行状況やゲームの成績、操作方法などの設定を含む設定データの格納領域になっている。これら設定データは、電源遮断時に電源遮断直前の状態からゲームを再開するためのバックアップデータとして機能する他、バックアップメモリを交換することにより他のゲーム装置の操作状態をそのまま当該ゲーム装置に反映するためのデータとすることもできる。   The backup memory 108 can be detachably connected to the input device 107 and is configured to be accessible from the CPU 101. This is a storage area for setting data that is transferred from the CPU 101 and includes settings such as the progress of the game occurring during the game, the results of the game, and the operation method. These setting data not only function as backup data for restarting the game from the state immediately before the power is turned off when the power is turned off, but also reflect the operation state of the other game device as it is by replacing the backup memory. It can also be the data.

ビデオブロック11は、VDP(Video Display Processor)110、グラフィックメモリ111およびビデオエンコーダ112を備えている。グラフィックメモリ111には、上記したようにCD−ROMから読み取られた画像データが格納されている。VDP110は、グラフィックメモリ111に格納されている画像データのうち、画像表示に必要な画像データを読み取って、CPU101から供給される画像表示に必要な情報、すなわちコマンドデータ、視点位置データ、光源位置データ、オブジェクト指定データ、オブジェクト位置データ、テクスチャ指定データ、テクスチャ濃度データ、視野変換マトリクスデータ等に従って、座標変換(ジオメトリ演算)、テクスチャマッピング処理、表示優先処理、シェーディング処理等を実行可能になっている。なお、前記座標変換等の処理は、CPU101が行うように構成してもよい。すなわち、各デバイスの演算能力を勘案してどの処理をどのデバイスにさせるかを割り振ればよい。ビデオエンコーダ112は、VDP110が生成した画像データをNTSC方式等の所定のテレビジョン信号に変換し外部に接続されるモニタ装置4に出力可能に構成されている。   The video block 11 includes a VDP (Video Display Processor) 110, a graphic memory 111, and a video encoder 112. The graphic memory 111 stores image data read from the CD-ROM as described above. The VDP 110 reads image data necessary for image display out of image data stored in the graphic memory 111, and information necessary for image display supplied from the CPU 101, that is, command data, viewpoint position data, and light source position data. In accordance with object designation data, object position data, texture designation data, texture density data, field of view conversion matrix data, coordinate transformation (geometry calculation), texture mapping processing, display priority processing, shading processing, etc. can be executed. The processing such as coordinate conversion may be performed by the CPU 101. That is, it is only necessary to assign which processing is to be performed to which device in consideration of the computing capability of each device. The video encoder 112 is configured to be able to convert the image data generated by the VDP 110 into a predetermined television signal such as the NTSC system and output it to the monitor device 4 connected to the outside.

サウンドブロック12は、サウンドプロセッサ120、サウンドメモリ121およびD/Aコンバータ122を備えている。サウンドメモリ121には、上記したようにCD−ROMから読み取られた音声データが格納されている。サウンドプロセッサ120は、CPU101から供給されるコマンドデータに基づいて、サウンドメモリ121に格納されている波形データ等の音声データを読み取って、DSP(Digital Signal Processor)機能に基づく各種エフェクト処理、デジタル/アナログ変換処理等を行うようになっている。そしてD/Aコンバータ122は、サウンドプロセッサ120により生成された音声データをアナログ信号に変換し、外部に接続されるスピーカ5に出力可能に構成されている。   The sound block 12 includes a sound processor 120, a sound memory 121, and a D / A converter 122. The sound memory 121 stores audio data read from the CD-ROM as described above. The sound processor 120 reads audio data such as waveform data stored in the sound memory 121 based on command data supplied from the CPU 101, and performs various effect processing based on a DSP (Digital Signal Processor) function, digital / analog. Conversion processing and the like are performed. The D / A converter 122 is configured to convert the audio data generated by the sound processor 120 into an analog signal and output the analog signal to the speaker 5 connected to the outside.

通信装置130は、例えば、モデムやターミナルアダプタであり、本ゲーム装置1に接続可能に構成され、本ゲーム装置1と外部回線とを接続するアダプターとして機能可能になっている。そして通信装置130は、公衆回線網131に接続されるゲーム供給用サーバから送信されたデータを受信し、CPUブロック10のバスに供給可能になっている。公衆回線網131は、加入者回線、専用線、有線無線の別を問わない。   The communication device 130 is, for example, a modem or a terminal adapter, is configured to be connectable to the game device 1, and can function as an adapter for connecting the game device 1 and an external line. The communication device 130 can receive data transmitted from the game supply server connected to the public line network 131 and supply the data to the bus of the CPU block 10. The public line network 131 may be a subscriber line, a dedicated line, or a wired radio.

(動作の説明)
次に本ゲーム装置における動作を説明する。
本ゲーム装置が動作することによって提供されるロールプレイングゲームは、遊技者が操作可能に設定された主人公に相当するキャラクタが仮想的な世界を旅していくというストーリーが設定されている。仮想空間に配置されるオブジェクト(すなわちプログラムデータおよび画像データによって予め定められる被表示体)としては、地面などの地形、建物、樹木、炎、雲、そして主人公およびゲーム中の登場人物であるキャラクタなどである。特に本ゲーム装置は、オブジェクトを自然界にあるような形態らしく表示することを目的としている。そのためロールプレイングゲームの展開上必要なオブジェクトも変形も極力自然に見せて、遊技者の集中を妨げないように設定されている。以下、特徴となる画像処理について説明する。
(Description of operation)
Next, the operation of the game apparatus will be described.
In the role-playing game provided by the operation of the game device, a story is set in which a character corresponding to a hero set to be operable by the player travels through a virtual world. Objects placed in the virtual space (that is, display objects determined in advance by program data and image data) include terrain such as the ground, buildings, trees, flames, clouds, and characters that are the main characters and characters in the game. It is. In particular, the game device is intended to display an object as if it were in the natural world. Therefore, it is set so that the objects and deformations necessary for the development of the role-playing game appear as natural as possible and do not disturb the player's concentration. Hereinafter, characteristic image processing will be described.

このゲーム装置で提供される画像は、所定の視点から三次元的に設定されている仮想空間を観察したように見せるために、所定の二次元平面に投射されるものである。この視点の位置はおおよそ主人公に相当するキャラクタと一定の位置関係をもって仮想空間を移動可能に設定されている。したがって、遊技者には、仮想世界を旅する主人公が次々目にするような画像が提供される。   The image provided by the game device is projected onto a predetermined two-dimensional plane so as to appear as if a virtual space set three-dimensionally from a predetermined viewpoint is observed. The position of this viewpoint is set so as to be able to move in the virtual space with a certain positional relationship with the character roughly corresponding to the hero. Therefore, the player is provided with images that the main character traveling in the virtual world sees one after another.

ゲームシーケンス中、主人公に相当するキャラクタが建物に入る場合、建物の表示をそのままにしておくと建物内部の様子が仕切部材である壁に妨げられ遊技者に提供されない。従来は、建物の壁のうち、視点側の壁を一瞬のうちに消して表示したり建物自体が最初から屋根のない建物であったりした。しかしこのような表示では表示の変化が急激であったり不自然さを与えたりする。また建物を構成する壁は1つのポリゴンにテクスチャデータをマッピングしたものであったため、断面が一枚板のように表示され、いかにも不自然であった。   When a character corresponding to the main character enters a building during the game sequence, if the display of the building is left as it is, the state inside the building is hindered by a wall as a partition member and is not provided to the player. Conventionally, among the walls of a building, the wall on the viewpoint side is displayed in an instant and the building itself is a building without a roof from the beginning. However, in such a display, the display changes rapidly or unnaturally. In addition, since the walls that make up the building were made by mapping texture data onto a single polygon, the cross section was displayed as a single plate, which was unnatural.

そこで、本ゲーム装置は上記不都合を解消すべく、キャラクタが建物に入ると徐々に建物の視点側の壁を薄く表示していく。また、建物の壁には厚みを与えその断面が不自然に見えないような工夫がされている。   Therefore, in order to eliminate the above inconvenience, the game apparatus gradually displays the wall on the viewpoint side of the building thinly when the character enters the building. In addition, the wall of the building is given a thickness so that its cross section does not look unnatural.

第2図Aに本画像処理を説明するフローチャートを、第2図Bにその画像生成処理のサブルーチン処理を示す。これら処理は、画像更新タイミングごと、例えばフレーム期間ごとに行われるものである。また第3図乃至第7図には、当該画像処理の開始から終了までを示した画像表示例を示す。   FIG. 2A shows a flowchart for explaining the main image processing, and FIG. 2B shows a subroutine processing of the image generation processing. These processes are performed every image update timing, for example, every frame period. FIGS. 3 to 7 show image display examples showing from the start to the end of the image processing.

ゲームシーケンス処理(ステップS11):まず、CPU101は、入力装置107から供給された操作信号に基づいて、仮想空間におけるキャラクタの次の画像表示タイミングにおける新たな位置を計算する。キャラクタの他に、動きを設定している他のオブジェクトがある場合には、それらの新たな位置も計算する。   Game Sequence Process (Step S11): First, the CPU 101 calculates a new position at the next image display timing of the character in the virtual space based on the operation signal supplied from the input device 107. In addition to the character, if there are other objects for which movement is set, their new positions are also calculated.

条件判断(S12):次いでCPU101はキャラクタが建物に入ろうとしているか否かを判断する。この条件は種々考えることができる。例えば、建物の中心位置とキャラクタの中心位置との距離が一定値以下になった瞬間に「建物に入った」と判断することができる。また、建物のオブジェクトとキャラクタとの公知の衝突判定を行い、衝突したと判断したら建物に入ったと判断することもできる。さらに、階段を上がり切った、ドアを開けた、窓が開いた等、建物内外のオブジェクトに対してキャラクタが取った行動の状態を条件としてもよい。   Condition determination (S12): Next, the CPU 101 determines whether or not the character is about to enter the building. Various conditions can be considered. For example, it can be determined that “the building has been entered” at the moment when the distance between the center position of the building and the center position of the character becomes a certain value or less. It is also possible to determine that the building has entered the building by performing a known collision determination between the building object and the character and determining that the object has collided. Furthermore, the condition of the action taken by the character with respect to the object inside or outside the building, such as when the stairs are fully raised, the door is opened, or the window is opened, may be used as a condition.

この条件に合致する場合(S12;YES)の画像表示例を第3図に示す。第3図では、建物のオブジェクトBとキャラクタCとが三次元的に表示されている。そしてキャラクタCが建物Bのドアに接近している。この条件に合致していない場合には(S12;NO)濃度変化処理はないものとしてCPU101は通常の画像生成処理を行う(S16)。   FIG. 3 shows an example of image display when this condition is met (S12; YES). In FIG. 3, a building object B and a character C are displayed in a three-dimensional manner. The character C is approaching the door of the building B. If this condition is not met (S12; NO), the CPU 101 performs normal image generation processing assuming that there is no density change processing (S16).

濃度変化のオブジェクト特定(S13):上記条件合致後、CPU101は濃度変化させるオブジェクトを特定する。すなわち、CPU101はキャラクタと建物との相対位置から濃度を薄くしていく建物の特定表示要素(ポリゴン群)を決定する。例えば、キャラクタが建物の一階に入りつつあると判断したら、濃度変化させるオブジェクトとして「建物の一階」を示すオブジェクト番号を所定の濃度変化モード変数に入れる(例えば上部4ビットに格納する)(S14)。また、ゲームシーケンスの流れからオブジェクト番号を特定してもよい。例えば建物が二階建てであってキャラクタが外から入る場合には、建物の一階にキャラクタが入るものと判断してもよい。   Density change object specification (S13): After the above condition is met, the CPU 101 specifies an object whose density is to be changed. That is, the CPU 101 determines the specific display element (polygon group) of the building whose density is decreased from the relative position between the character and the building. For example, if it is determined that the character is entering the first floor of a building, an object number indicating “the first floor of the building” is entered as a density change object in a predetermined density change mode variable (for example, stored in the upper 4 bits) ( S14). Further, the object number may be specified from the flow of the game sequence. For example, when the building is a two-story building and a character enters from the outside, it may be determined that the character enters the first floor of the building.

濃度変化フラグ特定(S15):そしてCPU101は、濃度変化が徐々に薄くしていくのか濃くしていくのかに応じて濃度変化モード変数のフラグを設定する(例えば下位4ビットの値が1ならば「薄くする」、2なら「濃くする」、0なら「変化無し(フラグゼロ)」)。キャラクタが建物に入る場合には、建物の内部を見やすくするために、建物の手前部分を薄く表示していく必要がある。逆に、キャラクタが建物から出る場合には、建物の表示を元に戻すために、建物の手前部分のテクスチャを濃くしていく必要がある。CPU101は、ゲームシーケンス状態を示す各種フラグを参照してキャラクタが取りつつある行動あるいは移動方向を判断し、濃度変化のモードを決定する。そしてその濃度変化モードを示すために予め定められているコードを、オブジェクト番号とともに濃度変化モード変数に格納する。CPU101はこの変数にコードが設定されているとき(例えば0以外の値が格納されているとき)濃度変化フラグがオンにされているものとして取り扱う。もちろん変数に対する濃度変化コードの割付方法は種々に設計変更可能である。   Density change flag specification (S15): The CPU 101 sets a density change mode variable flag according to whether the density change is gradually reduced or increased (for example, if the value of the lower 4 bits is 1). “Decrease”, 2 “Decrease”, 0 “No change (flag zero)”). When a character enters a building, it is necessary to display the front portion of the building thinly so that the inside of the building can be easily seen. Conversely, when the character leaves the building, it is necessary to darken the texture of the front portion of the building in order to restore the building display. The CPU 101 refers to various flags indicating the game sequence state to determine the action or moving direction that the character is taking and determines the density change mode. A predetermined code for indicating the density change mode is stored in the density change mode variable together with the object number. The CPU 101 handles that the density change flag is turned on when a code is set in this variable (for example, when a value other than 0 is stored). Of course, the design of the method for assigning the concentration change code to the variable can be variously changed.

画像生成処理(S16):上記濃度変化モードの設定が終了したら、CPU101は画像生成処理に移行する。ここでは通常の画像生成処理工程は省略し、建物に関して、テクスチャをマッピングしシェーディンダ処理を行う段階から説明する。まず、CPU101は、濃度変化モード変数を参照する。フラグがオフ(S101;NO)、つまり濃度を変化させない場合には、CPU101は建物のテクスチャ濃度をそのままにして復帰する。   Image generation processing (S16): When the setting of the density change mode is completed, the CPU 101 proceeds to image generation processing. Here, the normal image generation processing step is omitted, and the description will be made from the stage of mapping the texture and performing the shadediner process for the building. First, the CPU 101 refers to the density change mode variable. When the flag is off (S101; NO), that is, when the density is not changed, the CPU 101 returns with the texture density of the building unchanged.

フラグがオン(S101;YES)、つまり濃度を変化させる場合には、CPU101はさらに変数のコードを参照して、濃度を変化させるオブジェクト番号と濃度変化モードを読み取る。濃度を濃くするモードが設定されていた場合(S102;濃くする)、そのオブジェクト番号に対応づけられている、建物の視点側の一部を構成するポリゴン群(特定表示要素)にマッピングされるテクスチャデータの濃度を一階調上昇させるシェーディング処理を行う(S103)。この濃度を決める階調は、濃度を変化させるスピードに応じて種々に変更可能である。階調が少ない場合には、変化が急激になり、階調が多い場合には変化が緩慢になる。例えば、階調を60に設定すれば、60回のループ処理(NTSC方式で約1秒間)で濃度変化が完了するように設定できる。この階調は、ビデオブロック11に供給するコマンドで設定される。   When the flag is on (S101; YES), that is, when the density is changed, the CPU 101 further refers to the variable code and reads the object number and density change mode for changing the density. When the mode for increasing the density is set (S102; increase), the texture mapped to the polygon group (specific display element) constituting a part on the viewpoint side of the building associated with the object number A shading process for increasing the data density by one gradation is performed (S103). The gradation that determines the density can be variously changed according to the speed at which the density is changed. When there are few gradations, the change is rapid, and when there are many gradations, the change is slow. For example, if the gradation is set to 60, the density change can be completed in 60 loop processes (about 1 second in the NTSC system). This gradation is set by a command supplied to the video block 11.

濃度が変化して行き最も濃い階調(すなわち通常の不透明表示)になったら(S104;YES)、濃度変化フラグをオフ、すなわち濃度変化モード変数をゼロクリア等する(S105)。   When the density changes and becomes the darkest gradation (that is, normal opaque display) (S104; YES), the density change flag is turned off, that is, the density change mode variable is cleared to zero (S105).

濃度が変化していく過程では(S104;NO)、濃度変化フラグがオフされることはない。例えば、この過程を第4図乃至第7図に順番に示す。キャラクタCが建物Bに入ったら、建物Bを構成するポリゴンのうち、特定表示要素であるポリゴン群のテクスチャ濃度が少なくなっていく。最後には第7図に示すように、特定表示要素が完全に見えなくなり、建物の内部に配置されているオブジェクトO1〜O4や部屋を歩くキャラクタCが表示される。第7図から判るように家具や内装を表示するオブジェクトは濃度変化をさせないようにし、視点から見てなるべく奥の壁面に沿って配置することが、内部の様子を観察し易く好ましい。   In the process of changing the concentration (S104; NO), the concentration change flag is not turned off. For example, this process is shown in order in FIGS. When the character C enters the building B, the texture density of the polygon group which is the specific display element among the polygons constituting the building B decreases. Finally, as shown in FIG. 7, the specific display element is completely invisible, and the objects O1 to O4 arranged inside the building and the character C walking in the room are displayed. As can be seen from FIG. 7, it is preferable that the objects displaying furniture and interior are not changed in density and arranged along the wall surface as far as possible from the viewpoint so that the inside can be easily observed.

ここで、本ゲーム装置では建物の壁に厚みが設定してある。従来は壁に厚みがなかったので、建物の一部を消すと不自然であった。本発明では建物の外壁を構成するポリゴンと内壁を構成するポリゴンがそれぞれ設定されており、両ポリゴンの間に一定の距離が設定されている。このため、上記のように特定表示要素の濃度が薄くなっていくと、濃度変化をさせないように定めてある表示要素が透けて見え、建物の外壁と内壁の断面が見えてくる。この断面にテクスチャをマッピングしないと不自然になるため、本ゲーム装置では断面用のテクスチャデータを両壁の間にマッピングする。第7図では、断面としてSS1〜SS5が見えており、SS1〜SS3には立設された壁断面用のテクスチャデータが、SS4およびSS5には床断面用のテクスチャデータが、それぞれマッピングされている。これら断面にテクスチャが貼り付けられるため、特定表示要素が透明になっても不自然さがなく、実際の建物の断面を見ているような錯覚を遊技者に与えることができる。   Here, in this game device, the thickness is set on the wall of the building. Traditionally, there was no wall thickness, so it was unnatural to erase part of the building. In the present invention, the polygons constituting the outer wall of the building and the polygons constituting the inner wall are respectively set, and a certain distance is set between both polygons. For this reason, as the density of the specific display element becomes lighter as described above, the display element that is determined not to change the density can be seen through, and the cross section of the outer wall and the inner wall of the building can be seen. Since it is unnatural if the texture is not mapped to this cross section, the game apparatus maps the cross-section texture data between both walls. In FIG. 7, SS1 to SS5 are visible as cross sections, texture data for the wall cross section erected on SS1 to SS3, and texture data for the floor cross section are mapped to SS4 and SS5, respectively. . Since the texture is pasted on these sections, there is no unnaturalness even if the specific display element becomes transparent, and the player can be given the illusion of looking at the actual section of the building.

さて、ステップ102で濃度を濃くするモードが設定されていた場合(S102;薄くする)、上記とは逆の処理として、そのオブジェクト番号に対応づけられている、建物の視点側の一部を構成するポリゴン群(特定表示要素)にマッピングされるテクスチャデータの濃度を一階調下降させるシェーディング処理を行う(S106)。そして濃度が変化して行き最も薄い階調(すなわち透明表示)になったら(S107;YES)、濃度変化フラグをオフ、すなわち濃度変化モード変数をゼロクリア等する(S105)。濃度が変化していく過程では(S107;NO)、濃度変化フラグがオフされることはない。   If the mode for increasing the density is set in step 102 (S102; lighten), a part of the viewpoint side of the building corresponding to the object number is configured as the reverse process to the above. A shading process is performed to decrease the density of the texture data mapped to the polygon group (specific display element) to be reduced by one gradation (S106). When the density changes and becomes the lightest gradation (ie, transparent display) (S107; YES), the density change flag is turned off, that is, the density change mode variable is cleared to zero (S105). In the process of changing the concentration (S107; NO), the concentration change flag is not turned off.

なお、上記処理は建物に出入りする場合だけに限らず種々に変更して適用可能である。例えば、建物に部屋が複数ある場合には部屋ごとにオブジェクト番号を設定し、部屋ごとに濃くしたり薄くしたりを制御可能である。すなわち、キャラクタが一つの部屋から他の部屋に移動する場合には、部屋の境目に来たことを上記条件として、通過してきた部屋の濃度を徐々に濃く元に戻していき、これから入る部屋の濃度を徐々に薄くしていくことが可能である。   In addition, the said process is applicable not only when entering / exiting a building but with various changes. For example, when there are a plurality of rooms in a building, an object number is set for each room, and it is possible to control whether the room is darker or thicker. In other words, when a character moves from one room to another, the density of the room that has passed through is gradually returned to the original condition, assuming that it has come to the boundary of the room, and the room to enter It is possible to gradually reduce the concentration.

第3図〜第7図で示したような二階建ての建物であれば、キャラクタが階段(第7図のO2)を登っていることを条件として、一階に設定されている特定表示要素の濃度を元に戻していき、二階のために別個に設定されている特定表示要素の濃度を下げていけばよい。階段を降りるときはこの逆を行う。このような処理によれば、キャラクタの進行に従って壁面の自然な消去や再現ができるので、遊技者の集中力を削ぐおそれがない。   In the case of a two-story building as shown in FIGS. 3 to 7, the specific display element set on the first floor is subject to the condition that the character is climbing the stairs (O2 in FIG. 7). It is only necessary to restore the density and lower the density of the specific display element set separately for the second floor. When going down the stairs, do the reverse. According to such processing, the wall surface can be naturally erased and reproduced as the character progresses, so there is no risk of reducing the player's concentration.

本実施形態によれば、キャラクタが建物等のオブジェクトに出入りする場合に、ゲーム世界にどっぷり浸かっている遊技者の臨場感を削がずに自然な表示の移り変わりを可能とすることができる。   According to the present embodiment, when a character enters and exits an object such as a building, it is possible to change the natural display without reducing the presence of a player who is immersed in the game world.

(実施形態2)
本実施形態は、処理能力に一定の制限があるゲーム装置で不自然な画像を表示することなく臨場感豊かな樹木等のオブジェクトの表現を可能にする一方法に関する。
(Embodiment 2)
The present embodiment relates to a method that enables expression of objects such as trees with a rich presence without displaying an unnatural image on a game device having a certain limitation in processing capability.

当該実施形態2において使用するハードウェアは、実施形態1に示した通りであるため、その説明を省略する。ただし、CD−ROMからは本発明の樹木の表現を可能にするためのポリゴンデータ、テクスチャデータなどが本ゲーム装置に読み込まれるものとする。以下、動作を説明する。   Since the hardware used in the second embodiment is as shown in the first embodiment, the description thereof is omitted. However, it is assumed that polygon data, texture data, and the like for enabling expression of the tree of the present invention are read from the CD-ROM into the game device. The operation will be described below.

仮想世界では、主人公に相当するキャラクタがあるオブジェクト(樹木等)に近づけば、実際に樹木に近づく場合と同様にオブジェクトが大きくなって表示される。   In the virtual world, when a character corresponding to the hero approaches an object (such as a tree), the object is enlarged and displayed as in the case of actually approaching the tree.

従来の樹木の表示方法では、樹木全体のテクスチャを一つの平面ポリゴン上に表現したり、葉を表現するためのテクスチャがマッピングされたポリゴンを幹中央に十字形に差し込んだようにして組み合わせたり、ボール状のオブジェクトで樹木を表現したりして、ポリゴン上に樹木らしく見せるためのテクスチャデータをマッピングしていた。このため、視点が樹木に接近する場合に板状に葉が表示され、樹木らしくない表現になっていた。   In the conventional tree display method, the texture of the entire tree is expressed on a single plane polygon, or the polygon mapped with the texture for expressing the leaves is combined as if inserted into a cross in the center of the trunk, For example, trees are represented by ball-like objects, and texture data is mapped on the polygons to make them look like trees. For this reason, when the viewpoint approaches a tree, leaves are displayed in a plate shape, and the expression is not like a tree.

これに対し、本ゲーム装置では、テクスチャデータをマッピングした平面状の表示要素(ポリゴン)が中心軸の周りに中心軸と一定角度をなすように放射状に配置したオブジェクト(例えば傘状)に構成する。そしてこの傘状のオブジェクトを1以上重ねて仮想空間に配置することによって、接近した場合でも樹木らしい画像を提供可能にする。   On the other hand, in this game apparatus, a planar display element (polygon) to which texture data is mapped is configured as an object (for example, an umbrella shape) arranged radially around the central axis so as to form a certain angle with the central axis. . By placing one or more umbrella-shaped objects in the virtual space, it is possible to provide a tree-like image even when approaching.

第8図は、本ゲーム装置で提供される樹木のオブジェクトのうち、一つの傘状オブジェクトをワイヤーフレーム表現で示したものである。第8図Aはその斜視図であり第8図Bはその平面図である。この図では、三角形ポリゴン8つを使用して傘状オブジェクトを8角形に構成してあるが、ポリゴンの個数や形状はこれに限定されない。これらポリゴンのそれぞれに濃度や色調を微妙に異ならせた斑点からなるテクスチャデータをマッピングすることにより樹木らしい表現が可能になる。総てのポリゴンを下向きに、すなわち傘状になるようにすると、杉などの針葉樹の質感を与えることができ、ポリゴンを上向きにしたり下向きにしたりランダムに配置すると、広葉樹の質感を与えることができる。   FIG. 8 shows one umbrella-like object represented by a wire frame among the tree objects provided by the game apparatus. FIG. 8A is a perspective view thereof, and FIG. 8B is a plan view thereof. In this figure, eight triangular polygons are used to form an umbrella-like object in an octagon, but the number and shape of polygons are not limited to this. By mapping texture data consisting of spots with slightly different densities and color tones to each of these polygons, a tree-like expression becomes possible. If all polygons are faced down, that is, an umbrella shape, the texture of coniferous trees such as cedar can be given, and if the polygons are oriented upward or downward or randomly placed, the texture of hardwood can be given. .

第9図は、上記傘状オブジェクトを五つ(C1〜C5)使用した樹木のオブジェクトの説明図である。当該樹木のオブジェクトは、中心軸Aを取り囲む幹のオブジェクトTの周りに傘状オブジェクトC1〜C5を重ねて配置して構成されている。各傘状オブジェクトC1〜C5を構成するポリゴンと中心軸Aとのなす角度θ1〜θ5は、互いに同じでも異なっていてもよい。また傘状オブジェクトの各半径r1〜r5や傘状オブジェクト間の各ピッチp12,p23,p34およびp45についても同様である。傘状オブジェクトの数を多くしたりピッチpを小さくしたりする方が臨場感溢れる画像を表示可能であるが、データ量と処理時間が多くなってしまう。したがってこれらはメモリ容量、処理能力に応じて定められる。   FIG. 9 is an explanatory diagram of a tree object using five (C1 to C5) umbrella-shaped objects. The tree object is configured by placing umbrella-like objects C1 to C5 around a trunk object T surrounding the central axis A. The angles θ1 to θ5 formed by the polygons forming the umbrella-like objects C1 to C5 and the central axis A may be the same as or different from each other. The same applies to the radii r1 to r5 of the umbrella-shaped object and the pitches p12, p23, p34 and p45 between the umbrella-shaped objects. A more realistic image can be displayed by increasing the number of umbrella-shaped objects or decreasing the pitch p, but the amount of data and the processing time increase. Therefore, these are determined according to the memory capacity and processing capacity.

具体的な画像生成手順を第10図に示す。上記した画像生成処理(第2図A:ステップS16)において、他のオブジェクトの画像生成と並行して、CPU101はまずポリゴンを特定してオブジェクトを表示するためのポリゴンデータ群を決定する(S1)。これで使用するポリゴンが特定される。次いでCPU101は特定したポリゴンおよびその大きさを決定するマトリクスデータを示すオブジェクト指定データをビデオブロック11に転送する。これで使用するオブジェクトの個々の形状が定まる(S2)。さらにCPU101は傘状オブジェクト及び幹のオブジェクトの空間配置を決定するオブジェクト位置データをビデオブロックに転送する。これでテクスチャ以外の樹木の形状が定まる(S3)。最後に傘状オブジェクトや幹のオブジェクトを構成するポリゴンにマッピングするテクスチャデータを指定するテクスチャ指定データが転送する。ビデオブロック11では、そのテクスチャデータをマッピンダして樹木のオブジェクトを完成させる。このオブジェクトが視野変換されて画像表示される(S4)。   A specific image generation procedure is shown in FIG. In the above-described image generation process (FIG. 2A: step S16), in parallel with image generation of other objects, the CPU 101 first specifies polygons and determines polygon data groups for displaying the objects (S1). . This specifies the polygon to be used. Next, the CPU 101 transfers object designation data indicating matrix data for determining the specified polygon and its size to the video block 11. This determines the individual shape of the object to be used (S2). Further, the CPU 101 transfers object position data for determining the spatial arrangement of the umbrella-shaped object and the trunk object to the video block. This determines the shape of the trees other than the texture (S3). Finally, texture designation data for designating texture data to be mapped to the polygons constituting the umbrella object or the trunk object is transferred. In the video block 11, the texture data is mapped to complete a tree object. The field of view of this object is converted and an image is displayed (S4).

なお、上記傘状オブジェクトは種々に変更可能である。例えば第11図に示すように、傘状オブジェクトに配置するテクスチャT1〜T8の配置を総ての傘状オブジェクトに共通に設定する場合、傘状オブジェクトC1、C2、C3,…と順にテクスチャデータをマッピングする位置をずらしていくことが可能である。このようにすれば、傘状オブジェクトに同一のテクスチャデータをマッピングしながらも上下の傘で同一テクスチャが重なることがなくなり、自然な樹木の質感を提供可能である。   Note that the umbrella-shaped object can be variously changed. For example, as shown in FIG. 11, when the arrangement of the textures T1 to T8 to be arranged on the umbrella-shaped object is set in common to all the umbrella-shaped objects, the texture data is sequentially added to the umbrella-shaped objects C1, C2, C3,. It is possible to shift the mapping position. In this way, the same texture data is not overlapped by the upper and lower umbrellas while mapping the same texture data to the umbrella-like object, and a natural tree texture can be provided.

また第12図に示すように、最上部の傘状オブジェクトC1以外の他の傘状オブジェクトC2〜C5について、ポリゴンを外周側にずらしていくことで、傘の径を大きくしていくことが容易にできる。ポリゴンの大きさを変更する必要がなくなる点で、演算時間を減少させることができる。   Also, as shown in FIG. 12, it is easy to increase the diameter of the umbrella by shifting the polygon to the outer peripheral side for other umbrella-like objects C2 to C5 other than the uppermost umbrella-like object C1. Can be. The calculation time can be reduced in that it is not necessary to change the size of the polygon.

さらに第13図に示すように、傘状オブジェクトを構成するポリゴンを互いに接することなく上下にずらして配置することも可能である。このようにすれば、樹木の葉が多層的に重なったようになり、より自然な樹木の質感を提供することが可能になる。またオブジェクトが扇状に断面がジグザグになるように配置してもよい。   Further, as shown in FIG. 13, it is possible to arrange the polygons constituting the umbrella-like object so as to be shifted vertically without contacting each other. In this way, the leaves of the trees overlap in multiple layers, and it becomes possible to provide a more natural tree texture. Further, the object may be arranged in a fan shape so that the cross section is zigzag.

本実施形態の説明は樹木の表現に関するものであったが、本発明を適用可能なオブジェクトは樹木に限定されることはない。複雑な形状をしているため、忠実に再現するには処理数が膨大になってしまう一方で、単純なテクスチャ表現では接近時に不自然な表示となってしまう可能性のあるあらゆるオブジェクトに適用可能である。   Although the description of the present embodiment is related to the representation of trees, objects to which the present invention can be applied are not limited to trees. Because it has a complicated shape, the number of processes can be enormous to reproduce faithfully, but it can be applied to any object that may appear unnatural when approaching with a simple texture expression. It is.

本実施形態2によれば、樹木などのオブジェクトにキャラクタが接近することがあっても自然な質感で樹木を表示可能し遊技者の臨場感を削ぐことがないという効果を奏する。   According to the second embodiment, even if a character approaches an object such as a tree, the tree can be displayed with a natural texture, and the player's sense of reality is not lost.

(実施形態3)
本実施形態は、上記実施形態2のように臨場感豊かな樹木の表現を可能にする他の方法に関する。
(Embodiment 3)
The present embodiment relates to another method that enables the expression of trees with a rich sense of reality as in the second embodiment.

当該実施形態3において使用するハードウェアは、実施形態1に示した通りであるため、その説明を省略する。ただし、CD−ROMからは本発明の樹木の表現を可能にするためのプログラム、ポリゴンデータ、テクスチャデータなどが本ゲーム装置に読み込まれるものとする。以下、動作を説明する。   Since the hardware used in the third embodiment is as shown in the first embodiment, the description thereof is omitted. However, it is assumed that a program, polygon data, texture data, and the like for enabling expression of the tree of the present invention are read from the CD-ROM into the game device. The operation will be described below.

前記実施形態2は、樹木オブジェクトを表現するために葉の束を表わす表示要素の形状を特殊な形状に描画するものであったのに対し、本実施形態3は、葉の束を表わすテクスチャデータをマッピングした平面状の表示要素を幹の周りの特定の空間領域内に複数配置して一つのオブジェクトを構成するものである。   In the second embodiment, the shape of a display element representing a bundle of leaves is drawn in a special shape to represent a tree object, whereas in the third embodiment, texture data representing a bundle of leaves is drawn. A plurality of planar display elements that are mapped to each other are arranged in a specific space area around the trunk to constitute one object.

第14図に、本実施形態の樹木オブジェクトをワイヤーフレーム表現した斜視図を示す。第14図に示すように、樹木オブジェクトは、幹を表現する表示要素Tと葉の束を表現する複数の表示要素Pとから構成されている。   FIG. 14 shows a perspective view of the tree object of the present embodiment expressed as a wire frame. As shown in FIG. 14, the tree object is composed of a display element T representing a trunk and a plurality of display elements P representing a bundle of leaves.

幹を表現する表示要素Tは、複数のポリゴンにより幹の空間形状に構成されている。葉の束を表現する表示要素Pの各々は、各々所定数(例えば4つ)の頂点からなる単一ポリゴンで構成されている。表示要素Pは、幹を表現する表示要素Tの周囲の空間領域に適当なばらつきをもって配置される。視点が主として存在する仮想空間の位置から見て表示要素Pの重なりが少なくなるように、表示要素Pの配置を予め定めておく。このような樹木オブジェクトの画像データは、CD−ROMなどに予め記憶されているものである。   The display element T expressing the trunk is configured in a space shape of the trunk by a plurality of polygons. Each of the display elements P representing a bundle of leaves is composed of a single polygon composed of a predetermined number (for example, four) of vertices. The display element P is arranged with appropriate variation in a space region around the display element T representing the trunk. The arrangement of the display elements P is determined in advance so that the overlapping of the display elements P is reduced when viewed from the position of the virtual space where the viewpoint mainly exists. Such image data of the tree object is stored in advance on a CD-ROM or the like.

第15図に、本実施形態における方向制御法の説明図を示す。   FIG. 15 is an explanatory diagram of the direction control method in the present embodiment.

本実施形態の方向制御は、第15図に示すように、各樹木オブジェクトに対し一つの代表点ベクトルV1を視点VPに対応させて設定し、このオブジェクトを構成する複数の表示要素Pが代表点ベクトルV1の方向を向くように各表示要素Pを方向制御するものである。つまり、複数の各表示要素の面が向いている方向を、視点VPの方向V0に対応させて統一して動的に変更し、常に同一方向を向くように制御される。   In the direction control of the present embodiment, as shown in FIG. 15, one representative point vector V1 is set for each tree object corresponding to the viewpoint VP, and a plurality of display elements P constituting this object are represented as representative points. The direction of each display element P is controlled so as to face the direction of the vector V1. That is, the direction in which the surface of each of the plurality of display elements faces is unified and dynamically changed corresponding to the direction VO of the viewpoint VP, and is controlled to always face the same direction.

代表点ベクトルV1は、樹木オブジェクト上の任意の一点に定められる。任意の一点は、表示要素PやT上に設定しなくてもよいが、ここでは特定の表示要素P0上に設定する。特定の表示要素P0が向く方向に他の表示要素Pの方向も向くため、樹木オブジェクトの中央付近の表示要素Pを特定の表示要素P0とすることが好ましい。   The representative point vector V1 is determined at an arbitrary point on the tree object. An arbitrary point may not be set on the display element P or T, but is set on a specific display element P0 here. Since the direction of the other display element P also faces in the direction in which the specific display element P0 faces, it is preferable that the display element P near the center of the tree object be the specific display element P0.

代表点ベクトルV1は、視線ベクトルV0と同一方向、つまり視野変換のZ軸方向に設定することが好ましい。このようにすれば、特定の表示要素Pについては、必ず視点VPの方向を向き、他の表示要素Pも大体視点VPの方向を向くからである。   The representative point vector V1 is preferably set in the same direction as the line-of-sight vector V0, that is, in the Z-axis direction for visual field conversion. In this way, the specific display element P always faces the viewpoint VP, and the other display elements P also generally face the viewpoint VP.

第16図に、葉の束を表現する表示要素Pの拡大図を示す。表示要素Pは、例えば方形状を備え、各頂点VX1〜VX4の座標で定義されている。頂点数に制限は無いが、3〜4点設ければ十分である。各表示要素Pは、その中心点(重心)で交差する3つの回転軸X,Y,Z軸の周りを任意に回転可能になっている。具体的には、ボディ座標系で定義された表示要素Pをワールド座標系に展開する場合に、定められたXYZ軸の各回転角度で回転させて配置される。このように各表示要素Pがその法線方向を任意の方向に向けることが可能に構成されているので、視点位置に応じて表示要素Pを常に方向制御できるのである。   FIG. 16 shows an enlarged view of the display element P expressing a bundle of leaves. The display element P has a square shape, for example, and is defined by the coordinates of the vertices VX1 to VX4. The number of vertices is not limited, but it is sufficient to provide 3 to 4 points. Each display element P is arbitrarily rotatable around three rotation axes X, Y, and Z that intersect at the center point (center of gravity). Specifically, when the display element P defined in the body coordinate system is expanded in the world coordinate system, the display element P is rotated and arranged at each rotation angle of the determined XYZ axes. In this way, each display element P is configured to be able to direct its normal direction in an arbitrary direction, so that the direction of the display element P can always be controlled according to the viewpoint position.

各表示要素P内には、同一のテクスチャデータPTがマッピングされている。メモリに余裕があれば複数種類のテクスチャデータを設けても良いが、輝度(濃度)の一次補間などで十分な質感を表現することが可能であるため、一種類で十分である。ただし、同じテクスチャデータを使用する場合でも、表示要素Pごとにマッピングする向きをランダムに変化させることは好ましい。このような手法を採用すれば、葉の束の形が異なって表示されるため、同一形状のテクスチャデータを使用しているにも関わらず、きわめて自然な樹木を表現することが可能である。   In each display element P, the same texture data PT is mapped. A plurality of types of texture data may be provided if there is room in the memory, but a single type is sufficient because sufficient texture can be expressed by linear interpolation of luminance (density). However, even when the same texture data is used, it is preferable to randomly change the mapping direction for each display element P. By adopting such a method, the shape of the leaf bundle is displayed differently, so that it is possible to express a very natural tree even though texture data having the same shape is used.

表示要素Pを構成する各頂点には、輝度の一次補間を定義するための重み付け係数が設定されている。その値の設定は任意である。例えば0〜1までの範囲で規定するとすれば、0のとき輝度がゼロ(つまり表示上黒色になる)とし1のとき輝度が100%(つまり表示上白色になる)になるものとする。処理装置は、一つの表示要素Pにテクスチャをマッピングする場合に、当該表示要素Pにマッピングされるテクスチャの輝度を各頂点の重み付け係数によって一次補間可能に構成される。例えば表示要素上の一方の頂点に重み付け係数1が設定され他方の頂点に重み付け係数0が設定されていれば、この二頂点間において、一方の頂点から他方の頂点まで明から暗に向けて明るさが徐々に落ちていくようなグラデュエーションでテクスチャが表示される。   Each vertex constituting the display element P is set with a weighting coefficient for defining primary interpolation of luminance. The setting of the value is arbitrary. For example, if it is defined in the range of 0 to 1, the luminance is zero (that is, black on display) when it is 0, and the luminance is 100% (that is, white on display) when it is 1. When mapping a texture to one display element P, the processing device is configured such that the luminance of the texture mapped to the display element P can be linearly interpolated by the weighting coefficient of each vertex. For example, if the weighting factor 1 is set at one vertex on the display element and the weighting factor 0 is set at the other vertex, the brightness from one vertex to the other vertex is increased from light to dark between the two vertices. The texture is displayed with a gradient that gradually falls.

第17図Aに、総ての頂点の重み付け係数を1に設定した場合のテクスチャマッピング例を示し、第17図Bに、対向する辺において頂点の重み付け係数を変えた場合のテクスチャマッピング例を示す。総ての頂点に同じ重み付け係数が設定された場合には、第17図Aに示すように、明暗の差の無い平面的な表示となる。これに対し頂点の重み付け係数を変化させた場合には、日光が一方向から照射されているかのような明暗の差が生じ、立体感が生ずる。   FIG. 17A shows an example of texture mapping when all vertex weighting coefficients are set to 1, and FIG. 17B shows an example of texture mapping when vertex weighting coefficients are changed on opposite sides. . When the same weighting coefficient is set for all the vertices, as shown in FIG. 17A, a flat display with no difference in brightness is obtained. On the other hand, when the weighting coefficient of the vertices is changed, a difference in brightness appears as if sunlight is radiated from one direction, resulting in a stereoscopic effect.

次に本実施形態の動作を第18図のフローチャートを参照して説明する。   Next, the operation of this embodiment will be described with reference to the flowchart of FIG.

樹木オブジェクトを仮想空間に表示させる必要がある場合、CPU101は、CD−ROMから読み取った幹を表現するための表示要素Tを生成するために、それに関連付けられたポリゴングループにより幹の表示要素を生成する。そして幹の表示要素Tの周囲に各表示要素Pの中心(重心)位置を設定していく(S21)。表示要素Pのポリゴンを読み取ってから、CPU101は先に設定した表示要素Pの中心位置に表示要素Pのポリゴンを配置していく(S22)。   When it is necessary to display a tree object in a virtual space, the CPU 101 generates a display element of a trunk by using a polygon group associated with the display element T in order to generate a display element T for expressing the trunk read from the CD-ROM. To do. Then, the center (center of gravity) position of each display element P is set around the trunk display element T (S21). After reading the polygon of the display element P, the CPU 101 arranges the polygon of the display element P at the center position of the previously set display element P (S22).

視点VPからの視点ベクトルV0を取得してから(S23)、CPU101は代表点ベクトルV1を計算する(S24)。代表点ベクトルV1は、樹木オブジェクト上の特定の表示要素P0に向かう視点ベクトルV0をそのまま利用すればよい。   After obtaining the viewpoint vector V0 from the viewpoint VP (S23), the CPU 101 calculates the representative point vector V1 (S24). As the representative point vector V1, the viewpoint vector V0 directed to the specific display element P0 on the tree object may be used as it is.

テクスチャマッピングの濃度設定のために、CPU101は環境光ベクトルを読み取って(S25)、樹木オブジェクトに対する主たる照明方向を認識する。認識した環境光ベクトルに対応させて各表示要素Pの頂点に設定する重み付け係数を決定する(S26)。環境光の方向に近いほうの頂点の重み付け係数が高く、遠いほうの頂点の重み付け係数が低くなるように設定する。濃度(輝度)設定は厳密なものではないので、環境光に最も近い頂点の重み付け係数を1、最も遠い頂点の重み付け係数を0、その中間の頂点の重み付け係数を0.5というように、単純な割付を行うことが可能である。ただし、環境光の強さおよび環境光と各頂点間との位置関係から線形計算を行って重み付け係数を定めてもよい。表示要素Pごとに異なる重み付け係数を設定してもよいが、環境光は樹木オブジェクト全体に均等に影響するものなので、一つの表示要素Pについて定めた重み付け係数を他の総ての表示要素Pにも同様に設定すれば十分である。   In order to set the density of texture mapping, the CPU 101 reads the ambient light vector (S25) and recognizes the main illumination direction for the tree object. A weighting coefficient to be set at the apex of each display element P is determined in correspondence with the recognized environmental light vector (S26). It is set so that the weighting coefficient of the vertex near the direction of the ambient light is high and the weighting coefficient of the vertex far away is low. Since the density (brightness) setting is not strict, the weighting coefficient of the vertex closest to the ambient light is 1, the weighting coefficient of the farthest vertex is 0, and the weighting coefficient of the middle vertex is 0.5. Can be assigned. However, the weighting coefficient may be determined by performing linear calculation based on the intensity of the ambient light and the positional relationship between the ambient light and each vertex. A different weighting factor may be set for each display element P. However, since ambient light affects the entire tree object equally, the weighting factor determined for one display element P is assigned to all other display elements P. It is sufficient to set similarly.

CPU101は、樹木オブジェクト上に配置される表示要素Pの各々について、ポリゴンの向きを先に定めた代表点ベクトルV1の方向に向ける(S27)。方向制御された表示要素Pについて、CPU101はテクスチャデータPTをマッピングしていく(S28)。このとき上記で定めた頂点の重み付け係数に応じてテクスチャの輝度を一次補間して、濃淡(明暗)が生じるようにビットマップデータを作成していく。   The CPU 101 directs the direction of the polygon to the direction of the representative point vector V1 previously determined for each display element P arranged on the tree object (S27). For the display element P whose direction is controlled, the CPU 101 maps the texture data PT (S28). At this time, the luminance of the texture is linearly interpolated according to the weighting coefficient of the vertex defined above, and the bitmap data is created so as to generate the shading (brightness / darkness).

CPU101は、方向制御(S27)とテクスチャマッピング(S28)を表示要素Pであるポリゴンが存在する限り行う(S29:NO)。総てのポリゴンの方向制御とテクスチャマッピングが終了したら(S29:YES)、CPU101は処理を次に移行する。   The CPU 101 performs direction control (S27) and texture mapping (S28) as long as there is a polygon that is the display element P (S29: NO). When the direction control and texture mapping of all the polygons are completed (S29: YES), the CPU 101 proceeds to the next process.

(実施例)
本実施形態により実際に樹木オブジェクトの描画を行った場合の実施例を示す。第19図に、側面から樹木オブジェクトの配置を定めた場合のワイヤーフレーム表現を示す。幹を表現する表示要素Tの周囲に葉の束を表現する表示要素Pがバラバラに配置されている。この実施例では44枚の表示要素Pが配置されている。
(Example)
An example when a tree object is actually drawn according to the present embodiment will be described. FIG. 19 shows a wire frame representation when the arrangement of tree objects is determined from the side. Display elements P that express a bundle of leaves are arranged apart from each other around a display element T that expresses a trunk. In this embodiment, 44 display elements P are arranged.

第20図に、第19図に定められた樹木オブジェクトに対しテクスチャデータをマッピングした表示例を示す。この例では、図面上方から環境光が当たっているとの前提のもと各表示要素Pの重み付け係数が設定されている(第17図B参照)。表示要素Pにマッピングされるテクスチャデータのうちデータの無い部分には背景画像BGが透けて表示される。樹木オブジェクトの下には影オブジェクトSが表示されている。この影は、後述する実施形態で表示されるようなものである。   FIG. 20 shows a display example in which texture data is mapped to the tree object defined in FIG. In this example, the weighting coefficient of each display element P is set on the assumption that ambient light is shining from above the drawing (see FIG. 17B). The background image BG is displayed through the portion of the texture data mapped to the display element P where there is no data. A shadow object S is displayed below the tree object. This shadow is as displayed in an embodiment described later.

第21図は、視点位置を樹木オブジェクトの上部に移した場合のワイヤーフレーム表現である。第22図は、それにテクスチャデータをマッピンダしたものである。   FIG. 21 is a wire frame representation when the viewpoint position is moved to the upper part of the tree object. FIG. 22 shows a mapper of texture data.

本実施形態によれば、各表示要素Pにマッピングされるテクスチャデータは同一のものであるにも関わらず、重み付け係数による陰影とランダムな配置によって、自然物である樹木のような質感が十分に表現されていることが確認できる。   According to the present embodiment, although the texture data mapped to each display element P is the same, the texture like a natural tree is sufficiently expressed by the shading by the weighting coefficient and the random arrangement. Can be confirmed.

第23図に、比較のため、均一の重み付け係数を設定した場合、つまり一次補間が無い場合と等価な場合を示す。一次補間をしないと、濃淡や明暗がなくなるため、平面的な画像表現になってしまう。   FIG. 23 shows a case where a uniform weighting coefficient is set for comparison, that is, a case equivalent to the case where there is no primary interpolation. Without linear interpolation, there will be no shading or contrast, resulting in a planar image representation.

また第24図は、環境光の方向が下側(地面側)にあるものとして重み付けした場合の画像表示例である。地面が光り輝いているといった超自然的な画像を表現する場合にも臨場感のある画像表示が行えることが確認できる。   FIG. 24 is an image display example when weighting is performed assuming that the direction of the ambient light is on the lower side (ground side). It can be confirmed that a realistic image display can be performed even when a supernatural image such as the ground is shining.

(変形例)
なお、上記実施形態では、代表点ベクトルV1を一つ定め、総ての表示要素Pの方向をその方向に向けていたが、演算処理能力に余裕のある場合には、各表示要素Pを総て視点VPの方向に向けるように方向制御してもよい。つまり、第25図に示すように、複数の表示要素Pにおける法線V3の各々が視点VPの方向を向くように各表示要素Pを方向制御するのである。特定の表示要素Pを定めるようなことはせず、総ての表示要素Pについてその重心PCへの法線が視線ベクトルV0と平行になるように方向制御する。
(Modification)
In the above embodiment, one representative point vector V1 is defined and the direction of all the display elements P is directed to that direction. Then, the direction may be controlled so as to be directed toward the viewpoint VP. That is, as shown in FIG. 25, the direction of each display element P is controlled such that each of the normal lines V3 of the plurality of display elements P faces the direction of the viewpoint VP. A specific display element P is not determined, and the direction of all the display elements P is controlled so that the normal to the center of gravity PC is parallel to the line-of-sight vector V0.

このような処理を行えば、極端に視点が樹木オブジェクトに接近するような場合(例えば幹にとまる虫の視点)であっても、樹木のどの部分であっても葉の質感を自然に表現することが可能になる。   By performing such processing, the texture of the leaves is naturally expressed in any part of the tree, even when the viewpoint is extremely close to the tree object (for example, the viewpoint of an insect staying on the trunk). It becomes possible.

本実施形態の説明は樹木の表現に関するものであったが、本発明を適用可能なオブジェクトは樹木に限定されることはない。複雑な形状をしているため、忠実に再現するには処理数が膨大になってしまう一方で、単純なテクスチャ表現では接近時に不自然な表示となってしまう可能性のあるあらゆるオブジェクトに適用可能である。   Although the description of the present embodiment is related to the representation of trees, objects to which the present invention can be applied are not limited to trees. Because it has a complicated shape, the number of processes can be enormous to reproduce faithfully, but it can be applied to any object that may appear unnatural when approaching with a simple texture expression. It is.

上述したように本実施形態3によれば、樹木などのオブジェクトに視点が極端に接近することがあっても自然な質感で樹木を表示可能し遊技者の臨場感を削ぐことがないという効果を奏する。   As described above, according to the third embodiment, even if the viewpoint is extremely close to an object such as a tree, the tree can be displayed with a natural texture, and the player's sense of reality is not cut. Play.

(実施形態4)
本実施形態では、処理能力に一定の制限があるゲーム装置で臨場感を削がない自然な影を表現可能にする方法に関する。
(Embodiment 4)
The present embodiment relates to a method capable of expressing a natural shadow that does not reduce the sense of presence in a game device having a certain limitation in processing capability.

当該実施形態4において使用するハードウェアは、実施形態1に示した通りであるため、その説明を省略する。ただし、CD−ROMからは本発明の影の表現を可能にするためのプログラム、画像データなどが本ゲーム装置に読み込まれるものとする。以下、動作を説明する。   Since the hardware used in the fourth embodiment is as described in the first embodiment, the description thereof is omitted. However, it is assumed that a program for enabling the expression of the shadow of the present invention, image data, and the like are read into the game device from the CD-ROM. The operation will be described below.

従来のゲーム装置でキャラクタに影を付与する場合、影を示す黒色のオブジェクトをキャラクタの下に配置していた。しかし自然の土地形状らしく見せるために地面に凹凸を付与する場合に不都合が生ずる。すなわちキャラクタが凹凸のある地面を移動する際に影のオブジェクトが地面の出っ張り部分にめり込んで表示されてしまうのである。   When a shadow is added to a character in a conventional game device, a black object indicating the shadow is placed under the character. However, inconvenience arises when unevenness is given to the ground to make it look like a natural land shape. In other words, when the character moves on the uneven ground, the shadow object is displayed in the protruding portion of the ground.

本実施形態は、簡易で効果的な影の付与方法を提案する。その方法は、視点とキャラクタとの間に影を表示するためのオブジェクトを生成する画像処理方法である。   This embodiment proposes a simple and effective method for applying a shadow. The method is an image processing method for generating an object for displaying a shadow between a viewpoint and a character.

本実施形態の画像処理方法を、第26図のフローチャートを参照して説明する。このフローチャートは一つのオブジェクトの画像を生成するための処理方法を示している。   The image processing method of this embodiment will be described with reference to the flowchart of FIG. This flowchart shows a processing method for generating an image of one object.

まず、CPU101は、通常のゲームシーケンス処理を行い、新たな画像更新期間におけるオブジェクトの位置を決定する(S31)。例えば、第27図に示すように、仮想空間において、基準面である地面GとキャラクタCとがポリゴンで構成されており、キャラクタCと地面Gとの配置が定まる。次に影のオブジェクトを生成するために、仮想空間に配置されているオブジェクトがキャラクタであるか否かを判定する(S32)。キャラクタでない場合(S32;NO)、すなわち影を付ける必要のない静物などを模擬したオブジェクトの場合には、そのまま影を伴わない画像生成処理に移行する(S35)。   First, the CPU 101 performs normal game sequence processing, and determines the position of an object in a new image update period (S31). For example, as shown in FIG. 27, in the virtual space, the ground G, which is the reference plane, and the character C are composed of polygons, and the arrangement of the character C and the ground G is determined. Next, in order to generate a shadow object, it is determined whether or not the object arranged in the virtual space is a character (S32). If it is not a character (S32; NO), that is, if it is an object simulating a still life that does not need to be shaded, the process proceeds to image generation processing without a shadow as it is (S35).

オブジェクトがキャラクタである場合(S32;YES)、キャラクタの高さを計算する(S33)。キャラクタの高さは、第27図に示すように、キャラクタXの足下に設定されたキャラクタセンタCCの位置で判断する。第27図では、キャラクタCが地面Gを歩いているので高さはゼロである。第28図では、キャラクタCがジャンプした位置になっているため、高さがHになっている。   If the object is a character (S32; YES), the height of the character is calculated (S33). The height of the character is determined based on the position of the character center CC set below the character X as shown in FIG. In FIG. 27, since the character C is walking on the ground G, the height is zero. In FIG. 28, since the character C is at the jump position, the height is H.

次いでこのキャラクタの高さに応じて影の位置を決定する。例えば第27図のように、高さがゼロであるときは、CPU101は、影SのオブジェクトのセンタSGが視点VPとキャラクタセンタCCとを結んだ線上に位置するように設定する。この影のセンタSCは、例えばキャラクタセンタCCから一定半径Rsの球SP上に配置されるようにする。したがって、視点VPが動くと影のセンタSCの位置も球SPの表面に沿って移動することになる。第29図にこの配置による画像表示の模式図を、第31図に画像表示例を示す。影SはキャラクタCの手前にあるため、キャラクタCの足下に影Sがかかるように表示されるが、足下の一部しかかからないため不自然さはない。地面Gと同じ位置に視点VPを移すと、影Sの平面と視線とが平行になるため影Sは見えなくなる。   Next, the shadow position is determined according to the height of the character. For example, as shown in FIG. 27, when the height is zero, the CPU 101 sets the center SG of the object of the shadow S so as to be positioned on the line connecting the viewpoint VP and the character center CC. For example, the shadow center SC is arranged on a sphere SP having a constant radius Rs from the character center CC. Therefore, when the viewpoint VP moves, the position of the shadow center SC also moves along the surface of the sphere SP. FIG. 29 shows a schematic diagram of image display by this arrangement, and FIG. 31 shows an image display example. Since the shadow S is in front of the character C, the shadow S is displayed so as to be applied to the feet of the character C. However, since only a part of the feet is applied, there is no unnaturalness. If the viewpoint VP is moved to the same position as the ground G, the shadow S becomes invisible because the plane of the shadow S and the line of sight become parallel.

もしもキャラクタCの高さがゼロでない場合、その高さに応じて影を、仮想空間でいう下方に移動させる。具体的に言うと、視点VPとキャラクタセンタCCとを結んだ線が含まれる地面Gに鉛直な面と球SPの表面との交差線に沿って移動させる。その移動させる距離は、例えば距離と比例させる。例えば第28図では、高さがHであるため影のセンタSCが球SP上を白抜き矢印の方向に移動する。第30図にこの配置による画像表示の模式図を示す。キャラクタCが地面からジャンプして影Sが離れて表示されるという自然な画像が表示される。   If the height of the character C is not zero, the shadow is moved downward in the virtual space according to the height. More specifically, it is moved along the intersection line between the surface perpendicular to the ground G including the line connecting the viewpoint VP and the character center CC and the surface of the sphere SP. The moving distance is proportional to the distance, for example. For example, in FIG. 28, since the height is H, the shadow center SC moves on the sphere SP in the direction of the white arrow. FIG. 30 shows a schematic diagram of image display by this arrangement. A natural image in which the character C jumps off the ground and the shadow S is displayed away is displayed.

以上のようにしてキャラクタとその影との位置関係が定まったら、CPU101は通常の画像生成処理をしてキャラクタおよび影にテクスチャデータをマッピングする(S35)。影Sのオブジェクトには、例えば、第31図に示すように、黒色で周辺部がぼやけているようなデータがマッピングされる。   When the positional relationship between the character and its shadow is determined as described above, the CPU 101 performs normal image generation processing and maps texture data to the character and shadow (S35). For example, as shown in FIG. 31, the shadow S object is mapped with black data whose peripheral portion is blurred.

本実施形態によれば、演算の負荷を増やさず自然な影を表示することができ、遊技者の臨場感を削ぐことがないという効果を奏する。   According to the present embodiment, it is possible to display a natural shadow without increasing the calculation load, and there is an effect that the player's sense of realism is not lost.

(実施形態5)
本実施形態は、上記実施形態4における自然な影の表現を可能にする他の方法に関する。
(Embodiment 5)
This embodiment relates to another method that enables natural shadow expression in the fourth embodiment.

当該実施形態5において使用するハードウェアは、実施形態1に示した通りであるため、その説明を省略する。ただし、CD−ROMからは本発明の影の表現を可能にするためのプログラム、画像データなどが本ゲーム装置に読み込まれるものとする。以下、動作を説明する。   Since the hardware used in the fifth embodiment is the same as that shown in the first embodiment, the description thereof is omitted. However, it is assumed that a program for enabling the expression of the shadow of the present invention, image data, and the like are read into the game device from the CD-ROM. The operation will be described below.

本実施形態では、簡易で効果的な影の他の付与方法を提案する。その方法は、キャラクタの影を表示させる領域に影を表示させるための照明光、つまりブラックライトを照射する光源を設定する方法である。   In this embodiment, another method for providing a simple and effective shadow is proposed. That method is a method of setting illumination light for displaying a shadow in a region where the shadow of the character is displayed, that is, a light source for irradiating black light.

当該画像処理方法を実施するために、影を付けるように対応させられたキャラクタCの上部に、CPU101は、下向きに暗照明を射出する光源(ブラックライト)を設定する。例えば、第33図に示すように、ブラックライトの光源LPをキャラクタCの上部に設定する。例えば、地面Gの鉛直線上にキャラクタセンタCCと光源LPが並ぶようにする。ただし太陽が傾いた時刻であることを表現するためには、光源LPの位置をそのときの太陽の向きに相当する位置に移動させてもよい。CPU101は上記の設定の元、光源LPに基づくレンダリング処理(シェーディング処理)を実施する。そのときCPU101は、地面Gを構成するポリゴンにのみ光源LPを反映させてレンダリング処理を行う。   In order to carry out the image processing method, the CPU 101 sets a light source (black light) that emits dark illumination downward on the character C corresponding to be shaded. For example, as shown in FIG. 33, the black light source LP is set above the character C. For example, the character center CC and the light source LP are arranged on the vertical line of the ground G. However, in order to express that the sun is tilted, the position of the light source LP may be moved to a position corresponding to the direction of the sun at that time. Based on the above settings, the CPU 101 performs rendering processing (shading processing) based on the light source LP. At that time, the CPU 101 performs rendering processing by reflecting the light source LP only on the polygons constituting the ground G.

上記により、第33図に示すように、光源LPからのブラックライトが照射される領域の地面Gのみが暗く表示され、これが影Sとして表示される。影のセンタSCは光源LPとキャラクタセンタCCとを結ぶ線上に位置することになる。第34図は、実際の画像表示例である。影Sは地面Gにのみ反映されるように表示されるので、キャラクタC足下が暗くなることはない。なお、キャラクタの高さに応じて光源の位置を移動させることで、上記実施形態4の方法と同様に影の位置を高さに対応させて変化させることもできる。   As described above, as shown in FIG. 33, only the ground G in the area irradiated with the black light from the light source LP is displayed darkly, and this is displayed as a shadow S. The shadow center SC is located on a line connecting the light source LP and the character center CC. FIG. 34 shows an actual image display example. Since the shadow S is displayed so as to be reflected only on the ground G, the feet of the character C do not become dark. Note that, by moving the position of the light source according to the height of the character, the position of the shadow can be changed corresponding to the height as in the method of the fourth embodiment.

本実施形態5によれば、演算の負荷を増やさず自然な影を表示することができ、遊技者の臨場感を削ぐことがないという効果を奏する。   According to the fifth embodiment, it is possible to display a natural shadow without increasing the calculation load, and there is an effect that the player's sense of reality is not lost.

(その他の変形例)
本発明は、上記各形態に拘らず種々に変形できる。例えば、上記実施の形態では、ポリゴンで総ての表示要素やオブジェクトを構成していたが、ポリゴンによらず他の方法でオブジェクトを表示させてもよい。
(Other variations)
The present invention can be modified in various ways regardless of the above embodiments. For example, in the above embodiment, all display elements and objects are configured by polygons, but objects may be displayed by other methods regardless of polygons.

また、上記実施形態1では、キャラクタが建物に出入りするときに濃度を順次変化させていたが、キャラクタと建物との関係に限らず、二つのオブジェクトの関係において一方が他方に出入りするときに本発明を適用可能である。また、キャラクタの出入りと無関係にオブジェクトの一部を透明化させていくときにも本発明を適用可能である。   In the first embodiment, the density is sequentially changed when the character enters and exits the building. However, the present invention is not limited to the relationship between the character and the building. The invention can be applied. The present invention can also be applied when making a part of an object transparent regardless of the entry and exit of a character.

さらに、上記実施形態2や3では、樹木などのオブジェクトに本発明を適用していたが、樹木のように乱雑な感じの自然界に存する形態を模擬したオブジェクトを表示する際に、本発明を提供することが可能である。例えば、髪の毛や炎など形状がはっきりしないものを質感豊かに表現する場合に有効である。   Furthermore, in the second and third embodiments, the present invention is applied to an object such as a tree. However, the present invention is provided when displaying an object simulating a natural form of a messy feeling like a tree. Is possible. For example, it is effective for expressing a material whose shape is not clear, such as hair or flame, with a rich texture.

またさらに、上記実施形態1、4、5では、キャラクタが人であったが、モデルは人間に限ることなく、動物、ロボット等、さらには自動車や飛行機等動くものに適用可能である。   Furthermore, in the first, fourth, and fifth embodiments, the character is a person. However, the model is not limited to a person, and the present invention can be applied to animals, robots, and further moving objects such as cars and airplanes.

本発明によれば、キャラクタがオブジェクトに出入りする場合に臨場感を削がずに自然な表示の移り変わりを可能とする画像表示を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, when a character goes in and out of an object, the image display which enables the transition of a natural display without reducing a sense of reality can be provided.

本発明によれば、樹木などのオブジェクトを表示する際に大きく表示しても自然な質感で樹木を表示可能とする画像表示を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even if it displays large, when displaying objects, such as a tree, the image display which can display a tree with a natural texture can be provided.

本発明によれば、演算の負荷を増やさず臨場感を削がない自然な影を表示可能とする画像表示を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image display which can display the natural shadow which does not increase the calculation load and does not reduce a sense of reality can be provided.

本発明によれば、上記画像処理が可能なゲーム装置を提供することができる。   According to the present invention, it is possible to provide a game device capable of the image processing.

本発明によれば、上記画像処理が可能なプログラムを提供可能な記録媒体を提供することができる。   According to the present invention, it is possible to provide a recording medium capable of providing a program capable of the image processing.

本ゲーム装置のブロック図。The block diagram of this game device. 実施形態1の濃度変化処理を説明するフローチャートであり、条件合致判定の処理。6 is a flowchart for explaining density change processing according to the first embodiment, which is a condition match determination process. 実施形態1の濃度変化処理を説明するフローチャートであり、画像生成処理の詳細。5 is a flowchart for explaining density change processing according to the first embodiment, and details of image generation processing; 濃度変化の移り変わりを示す画像表示例(第1段階)。An image display example showing a change in density change (first stage). 濃度変化の移り変わりを示す画像表示例(第2段階)。An image display example showing the transition of density change (second stage). 濃度変化の移り変わりを示す画像表示例(第3段階)。An image display example showing the transition of density change (third stage). 濃度変化の移り変わりを示す画像表示例(第4段階)。An image display example showing the transition of density change (fourth stage). 濃度変化の移り変わりを示す画像表示例(第5段階)。An image display example showing a change in density change (fifth stage). ワイヤーフレーム表現の樹木を表現するオブジェクト例(斜視図)。An example object (perspective view) representing a tree in a wire frame representation. ワイヤーフレーム表現の樹木を表現するオブジェクト例(平面図)。An example object (plan view) representing a tree in a wire frame representation. 実施形態2における樹木オブジェクトの構成図。FIG. 6 is a configuration diagram of a tree object in the second embodiment. 樹木のオブジェクトを画像生成する手順の説明図。Explanatory drawing of the procedure which produces | generates the image of the object of a tree. 傘状オブジェクトの変形例(その1)。Modified example (1) of an umbrella-shaped object. 傘状オブジェクトの変形例(その2)。Modified example (part 2) of the umbrella-shaped object. 傘状オブジェクトの変形例(その3)。Modified example (3) of the umbrella-shaped object. 実施形態3における樹木オブジェクトの構成図。The block diagram of the tree object in Embodiment 3. FIG. 実施形態3における各表示要素(ポリゴン)の方向制御の説明図。Explanatory drawing of direction control of each display element (polygon) in Embodiment 3. FIG. 一つの表示要素(ポリゴン)の制御説明図。FIG. 6 is a control explanatory diagram of one display element (polygon). 表示要素の各頂点に同じ重み付け係数を設定した場合のテクスチャ表示図。The texture display figure at the time of setting the same weighting coefficient to each vertex of a display element. 表示要素の各頂点に同じ重み付け係数を設定した場合のテクスチャ表示図。The texture display figure at the time of setting the same weighting coefficient to each vertex of a display element. 実施形態3における樹木オブジェクトの方向制御を説明するフローチャート。10 is a flowchart for explaining direction control of a tree object according to the third embodiment. 方向制御された樹木オブジェクトのワイヤーフレーム構成図(側面図)。The wire frame block diagram (side view) of the direction-controlled tree object. 方向制御された樹木オブジェクトにテクスチャをマッピングした表示例(側面図)。The example of a display (side view) which mapped the texture to the tree object by which direction control was carried out. 方向制御された樹木オブジェクトのワイヤーフレーム構成図(下面図)。The wire frame block diagram (bottom view) of the direction-controlled tree object. 方向制御された樹木オブジェクトにテクスチャをマッピングした表示例(平面図)。A display example (plan view) in which a texture is mapped to a direction-controlled tree object. 各表示要素の重み付け係数を制御しない場合の樹木オブジェクトの表示例。The example of a tree object display when not controlling the weighting coefficient of each display element. 各表示要素の重み付け係数を変更した場合の樹木オブジェクトの表示例。The example of a tree object display when the weighting coefficient of each display element is changed. 実施形態3における他方法による各表示要素の方向制御の説明図。Explanatory drawing of direction control of each display element by the other method in Embodiment 3. FIG. 実施形態4における影生成処理を説明するフローチャート。10 is a flowchart for explaining shadow generation processing according to the fourth embodiment. キャラクタが地面に接触している状態の配置説明図。Arrangement explanatory drawing of the state where the character is contacting the ground. キャラクタがジャンプしている状態の配置説明図。Arrangement explanatory drawing of the state where the character is jumping. 第27図の配置における画像表示の模式図。The schematic diagram of the image display in arrangement | positioning of FIG. 図28の配置における画像表示の模式図。The schematic diagram of the image display in arrangement | positioning of FIG. 実施形態4における画像表示例(視点斜め上)。The example of an image display in Embodiment 4 (viewpoint diagonally upward). 実施形態4における画像表示例(視点地面上)。The example of an image display in Embodiment 4 (on a viewpoint ground). 実施形態5における配置説明図。Arrangement explanatory drawing in Embodiment 5. FIG. 実施形態5における画像表示例。10 is an image display example according to the fifth embodiment.

Claims (5)

仮想空間内に配置される1以上のオブジェクトと前記オブジェクトに対し相対的に移動可能に設定されたキャラクタとを表示可能に構成された画像処理装置において、
前記キャラクタが前記オブジェクトの内部に出入りする場合に、当該キャラクタの移動と関連した領域に配置されている前記オブジェクトを構成する表示要素のうち、少なくとも一部の特定表示要素の表示濃度を次第に変化させることが可能な処理装置を備え、
表示濃度を変化させる前記特定表示要素とは、前記オブジェクトを構成する表示要素のうち、表示画像を生成するために仮想空間に設定された視点側に位置する表示要素であり、
前記処理装置は、前記特定表示要素の表示濃度を、前記キャラクタが前記オブジェクトに対して入るときに次第に薄くしていき、出るときに濃くしていくものである、画像処理装置。
In an image processing apparatus configured to be able to display one or more objects arranged in a virtual space and a character set to be movable relative to the objects,
When the character enters and exits the object, the display density of at least some of the specific display elements among the display elements that are arranged in the area associated with the movement of the character is gradually changed. Equipped with a processing device capable of
The specific display element for changing the display density is a display element located on the viewpoint side set in the virtual space for generating a display image among the display elements constituting the object,
The image processing apparatus, wherein the processing apparatus gradually decreases the display density of the specific display element when the character enters the object and increases the density when the character exits.
前記オブジェクトを構成する仕切部材には予め厚みが設定されており、
前記処理装置は、前記特定表示要素以外の表示要素で表示されている前記仕切部材の断面に所定のテクスチャデータをマッピングして表示させるものである、
請求項1に記載の画像処理装置。
The partition member constituting the object has a thickness set in advance,
The processing device is configured to map and display predetermined texture data on a cross section of the partition member displayed by a display element other than the specific display element.
The image processing apparatus according to claim 1.
仮想空間内に配置される1以上のオブジェクトと前記オブジェクトに対し相対的に移動可能に設定されたキャラクタとを表示するための画像処理方法において、
前記キャラクタが前記オブジェクトに対して所定条件に達しているか否かを判定するステップであって、前記所定条件とは、前記キャラクタが前記オブジェクトの内部に出入りすることであるステップと、
前記所定条件に達している場合に、当該キャラクタの移動と関連した領域に配置されている前記オブジェクトを構成する表示要素のうち、少なくとも一部の特定表示要素の表示濃度を次第に変化させるステップであって、前記特定表示要素の表示濃度を、前記キャラクタが前記オブジェクトに対して入るときに次第に薄くしていき、出るときに濃くしていくステップと、
を備える、
画像処理方法。
In an image processing method for displaying one or more objects arranged in a virtual space and a character set to be movable relative to the object,
Determining whether or not the character has reached a predetermined condition with respect to the object, wherein the predetermined condition is that the character enters and exits the object; and
The step of gradually changing the display density of at least some of the specific display elements among the display elements constituting the object arranged in the area associated with the movement of the character when the predetermined condition is reached. The display density of the specific display element gradually decreases when the character enters the object, and increases when the character exits;
Comprising
Image processing method.
前記オブジェクトを構成する仕切部材に予め厚みを設定するとともに、前記特定表示要素以外の表示要素で表示されている前記仕切部材の断面に所定のテクスチャデータをマッピングして表示させるステップを備える、
請求項3に記載の画像処理方法。
The step of setting a thickness in advance on the partition member constituting the object and mapping and displaying predetermined texture data on a cross section of the partition member displayed on a display element other than the specific display element,
The image processing method according to claim 3.
コンピュータに、請求項3又は4に記載の画像処理方法を実行させるプログラムデータが記録された機械読取可能な記録媒体。   A machine-readable recording medium on which program data for causing a computer to execute the image processing method according to claim 3 or 4 is recorded.
JP2006133337A 1998-05-20 2006-05-12 Image processing apparatus, image processing method, and recording medium Expired - Fee Related JP4117497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006133337A JP4117497B2 (en) 1998-05-20 2006-05-12 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP13813498 1998-05-20
JP2006133337A JP4117497B2 (en) 1998-05-20 2006-05-12 Image processing apparatus, image processing method, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000550067A Division JP4258824B2 (en) 1998-05-20 1999-05-12 Image processing apparatus, image processing method, and recording medium

Publications (2)

Publication Number Publication Date
JP2006263479A JP2006263479A (en) 2006-10-05
JP4117497B2 true JP4117497B2 (en) 2008-07-16

Family

ID=37200010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006133337A Expired - Fee Related JP4117497B2 (en) 1998-05-20 2006-05-12 Image processing apparatus, image processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP4117497B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102087494B1 (en) * 2018-03-15 2020-03-10 정상문 Object display method for mobile real time simulation (rts) game
CN112675545B (en) 2021-01-07 2022-12-13 腾讯科技(深圳)有限公司 Method and device for displaying surface simulation picture, storage medium and electronic equipment

Also Published As

Publication number Publication date
JP2006263479A (en) 2006-10-05

Similar Documents

Publication Publication Date Title
JP4258824B2 (en) Image processing apparatus, image processing method, and recording medium
Goldstone Unity game development essentials
KR100740072B1 (en) Image generating device
ES2332271T3 (en) GRAPHICS PROCESSING DEVICE, GRAPHICS PROCESSING METHOD, GAME MACHINE AND STORAGE MEDIA.
Omernick Creating the Art of the Game
US20030193503A1 (en) Computer animation system and method
KR20010113703A (en) System for and method of implementing refraction mapping
Geig Unity Game Development in 24 Hours, Sams Teach Yourself
US20090080803A1 (en) Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
CN115082607A (en) Virtual character hair rendering method and device, electronic equipment and storage medium
Thorn Learn unity for 2d game development
JP4117497B2 (en) Image processing apparatus, image processing method, and recording medium
JP2009129167A (en) Program, information storage medium, and image generation system
US6924815B2 (en) Image generating system and image generation method for the same
Oravakangas Game Environment Creation: Efficient and Optimized Working Methods
JP3586460B2 (en) 3D game device and image composition method
Lappa Photorealistic Texturing for Modern Video Games
Bürger et al. Realtime Interactive Architectural Visualization using Unreal Engine 3.5
Geig Sams Teach Yourself Unity Game Development in 24 Hours
JP3735535B2 (en) Texture mapping method, recording medium, program, and program execution device
CN117357903A (en) Game building editing method, game building editing device, storage medium and electronic equipment
Roden Procedural content creation and technologies for 3D graphics applications and games
Ruiz Marco Ion-Physics Puzzles and Exploration 3D Videogame
Moore Unreal Development Kit 3 Beginner's Guide
JP3547430B2 (en) 3D game device and image composition method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080408

R150 Certificate of patent or registration of utility model

Ref document number: 4117497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140502

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees