JP4717622B2 - Program, information recording medium, and image generation system - Google Patents

Program, information recording medium, and image generation system Download PDF

Info

Publication number
JP4717622B2
JP4717622B2 JP2005361327A JP2005361327A JP4717622B2 JP 4717622 B2 JP4717622 B2 JP 4717622B2 JP 2005361327 A JP2005361327 A JP 2005361327A JP 2005361327 A JP2005361327 A JP 2005361327A JP 4717622 B2 JP4717622 B2 JP 4717622B2
Authority
JP
Japan
Prior art keywords
virtual camera
vector
normal vector
angle
drawing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005361327A
Other languages
Japanese (ja)
Other versions
JP2007164557A (en
Inventor
寛 藤内
嘉樹 堂前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2005361327A priority Critical patent/JP4717622B2/en
Publication of JP2007164557A publication Critical patent/JP2007164557A/en
Application granted granted Critical
Publication of JP4717622B2 publication Critical patent/JP4717622B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、プログラム、情報記録媒体および画像生成システムに関する。   The present invention relates to a program, an information recording medium, and an image generation system.

近年、仮想的な3次元空間(以下、「オブジェクト空間」という。)に配置設定されたキャラクタなどのオブジェクトを、仮想カメラ(所与の視点)から見た画像として生成する画像生成システムが実用化されている。このような画像生成システムは、仮想現実を体験させることができるものとして様々なシステムにて用いられるようになっており、特に、ゲームシステムにおいては、娯楽性および興趣性を向上させるためものとして重要視されている。   In recent years, an image generation system for generating an object such as a character placed and set in a virtual three-dimensional space (hereinafter referred to as “object space”) as an image viewed from a virtual camera (a given viewpoint) has been put into practical use. Has been. Such an image generation system has come to be used in various systems as being capable of experiencing virtual reality, and is particularly important for improving entertainment and entertainment in game systems. Is being viewed.

従来、このような画像生成システムは、例えばゲームにおける主人公のキャラクタなど、注視点が設定されるオブジェクト(以下、注視対象のオブジェクトともいう。)を、生成する画像内に的確に描画させるために、仮想カメラと注視対象のオブジェクトとの間に配置される障害物(遮蔽物)などのオブジェクトに対して、描画形成の可否も含めて種々の画像処理を行うようになっている。   Conventionally, such an image generation system, for example, in order to accurately draw an object in which a gazing point is set, such as a hero character in a game (hereinafter also referred to as a gaze target object), in an image to be generated, Various image processing including whether or not drawing can be performed is performed on an object such as an obstacle (shield) disposed between the virtual camera and the object to be watched.

特に、最近では、このような画像生成システムとしては、仮想カメラの位置とメインキャラクタなどの注視対象との間に配置される障害物のオブジェクトに対して、ゲームの臨場感を維持しつつ注視対象の描画を的確に行うものが知られている。   In particular, recently, such an image generation system has been used as a gaze target for an obstacle object arranged between the position of a virtual camera and a gaze target such as a main character while maintaining the presence of the game. It is known that accurately draws.

具体的には、この画像生成システムは、障害物などのオブジェクトがメインキャラクタの注視対象と重なって仮想カメラから観察されるか否かを判定する判定処理を行い、当該仮想カメラの位置と注視対象との間にオブジェクトが重なっている状態であると判定したときに当該オブジェクトに対して所定の透過処理を行うようになっている(例えば、特許文献1)。
特許第3141737号公報
Specifically, the image generation system performs a determination process to determine whether an object such as an obstacle is observed from the virtual camera so as to overlap the gaze target of the main character, and the position of the virtual camera and the gaze target When the object is determined to be in a state of being overlapped with the object, predetermined transparency processing is performed on the object (for example, Patent Document 1).
Japanese Patent No. 3141737

しかしながら、上述の画像生成システムにあっては、仮想カメラの位置と注視対象との間にオブジェクトが重なって当該仮想カメラから観察されるか否かを判定する判定処理をオブジェクト毎に必ず行わなければならず、画像を生成する際の処理が増加することになる。また、このような画像生成システムは、描画するオブジェクトが多い場合には、その処理が膨大となるため、画像処理能力を抑えた画像システムにおいては、円滑に、かつ、的確に画像形成を行うことが困難である。   However, in the above-described image generation system, the determination process for determining whether or not an object overlaps between the position of the virtual camera and the gaze target and is observed from the virtual camera must be performed for each object. In other words, the processing for generating an image increases. In addition, since such an image generation system requires a large amount of processing when there are many objects to be drawn, an image system that suppresses image processing capability can perform image formation smoothly and accurately. Is difficult.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、画像を生成する際の処理負担を低減させることができるとともに、仮想カメラの位置に応じてオブジェクトを的確に描画して画像を生成する画像生成システムを提供することにある。   The present invention has been made in view of the problems as described above, and the object of the present invention is to reduce the processing burden when generating an image and to change the object according to the position of the virtual camera. An object of the present invention is to provide an image generation system that accurately draws and generates an image.

(1)本発明は、オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、第1オブジェクトと、該第1オブジェクトに対応するとともに、透過可能に描画するための所定の透明度を有する第2オブジェクトとを、前記オブジェクト空間に設定するオブジェクト空間設定部と、前記オブジェクト空間に設定された仮想カメラから見えるオブジェクトを描画する際に、前記仮想カメラの視線ベクトルとオブジェクトを構成する面の法線ベクトルとのなす角度に応じて、オブジェクトを構成する面について描画対象としての適否を判定する描画対象判定部と、前記描画対象と判定された面のみを描画して画像を生成する画像生成部と、を含み、前記第1オブジェクトを構成する面の法線ベクトルと前記第2オブジェクトを構成する面の法線ベクトルとは、一方の法線ベクトルと仮想カメラの視線ベクトルとのなす角度が第1の角度範囲に属する場合に、他方の法線ベクトルと視線ベクトルとのなす角度が第2の角度範囲に属する関係を有し、前記描画対象判定部が、前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第1の角度範囲内である面を描画対象とし、前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第2の角度範囲内である面を描画対象としない処理を行う画像生成システムに関係する。   (1) The present invention is an image generation system for generating an image that can be viewed from a virtual camera in an object space. The image generation system corresponds to a first object, a predetermined object that corresponds to the first object and is drawn so as to be transparent An object space setting unit for setting a second object having transparency in the object space, and a line-of-sight vector of the virtual camera and an object are formed when an object visible from the virtual camera set in the object space is drawn In accordance with the angle formed by the normal vector of the surface, a drawing target determining unit that determines the suitability of the surface constituting the object as a drawing target, and only the surface determined as the drawing target is drawn to generate an image. An image generation unit, and a normal vector of a surface constituting the first object and the first object The normal vector of the surface constituting the object is the angle formed between the other normal vector and the line-of-sight vector when the angle formed between the one normal vector and the line-of-sight vector of the virtual camera belongs to the first angle range. Have a relationship belonging to the second angle range, and the drawing target determining unit sets a drawing target as a drawing target in a plane in which an angle of a normal vector with respect to a line-of-sight vector of the virtual camera is within the first angle range. The present invention relates to an image generation system that performs processing that does not target a surface whose normal vector angle with respect to the camera's line-of-sight vector is within the second angle range.

また、本発明は、上記各部としてコンピュータを機能させるプログラム及びそのようなプログラムを記憶するコンピュータに読み取り可能な情報記憶媒体についても適用可能である。   The present invention is also applicable to a program that causes a computer to function as each of the above-described units and a computer-readable information storage medium that stores such a program.

本発明によれば、第1オブジェクトと第2オブジェクトとが同時に描画対象と判定されることが無いので、オブジェクト空間上の仮想カメラの位置に応じて、不透明なオブジェクトまたは半透明なオブジェクトの何れか一方のオブジェクトを描画することになる。   According to the present invention, since the first object and the second object are not determined to be drawn simultaneously, either the opaque object or the translucent object is selected according to the position of the virtual camera in the object space. One object will be drawn.

したがって、本発明によれば、オブジェクト空間上において、仮想カメラと注視対象となるオブジェクトの間に注視対象を仮想カメラから視認不能にさせる遮蔽物が存在する場合に、遮蔽物に関して、第1オブジェクトと、これに対応する第2オブジェクトとを設定することによって、仮想カメラと注視対象となるオブジェクトの間の遮蔽物を特定する処理や当該遮蔽物を半透明化して描画する処理など、注視対象のオブジェクトを視認させるための専用の処理を行うことなく、各オブジェクトにおける描画対象の判定のみを行うことによって、注視対象となるオブジェクトが他のオブジェクトに遮蔽されても注視対象を視認しうる画像を生成することができる。   Therefore, according to the present invention, in the object space, when there is a shield that makes the gaze target invisible from the virtual camera between the virtual camera and the object that is the gaze target, By setting the second object corresponding to this, the object to be watched, such as the process of specifying the shield between the virtual camera and the object to be watched, or the process of rendering the shield semi-transparent By performing only the determination of the drawing target for each object without performing a dedicated process for visually recognizing the image, an image that allows the gaze target to be visually recognized even if the object that is the gaze target is shielded by another object is generated. be able to.

この結果、本発明によれば、上述の専用の処理を不要することによって画像を生成する際の処理負担を低減させることができるとともに、仮想カメラの位置に応じて注視対象となるオブジェクトを視認可能に的確に描画した画像を得ることができる。   As a result, according to the present invention, it is possible to reduce the processing burden when generating an image by eliminating the dedicated processing described above, and it is possible to visually recognize an object to be watched according to the position of the virtual camera. An image drawn accurately can be obtained.

(2)また本発明の画像生成システムでは、オブジェクトに対してテクスチャマッピングを行うテクスチャマッピング部を含み、前記テクスチャマッピング部が、前記第2オブジェクを描画する際に、前記第1オブジェクトにマッピングされるテクスチャと同一の色または模様の少なくとも何れか一方のテクスチャを第2オブジェクトにマッピングするようにしてもよい。また本発明のプログラム及び情報記憶媒体では、上記テクスチャマッピング部としてコンピュータを機能させるようにしてもよい。   (2) The image generation system of the present invention further includes a texture mapping unit that performs texture mapping on the object, and the texture mapping unit is mapped to the first object when the second object is drawn. You may make it map the texture of at least any one of the same color or pattern as a texture to a 2nd object. In the program and information storage medium of the present invention, a computer may function as the texture mapping unit.

このようにすれば、第2オブジェクトが描画対象となる場合に、第1オブジェクトと同一の色または模様のテクスチャがマッピングされるので、描画対象とならない第1オブジェクトの存在を間接的に認識させることでオブジェクト空間内での位置を把握しやすくなる。   In this way, when the second object is the drawing target, the texture of the same color or pattern as the first object is mapped, so that the presence of the first object that is not the drawing target is indirectly recognized. This makes it easier to grasp the position in the object space.

(3)また本発明の画像生成システム、プログラム及び情報記録媒体では、前記第2オブジェクトのサイズが前記第1オブジェクのサイズより小さく設定されていてもよい。   (3) In the image generation system, the program, and the information recording medium of the present invention, the size of the second object may be set smaller than the size of the first object.

このようにすれば、第2オブジェクトの描画面積が小さくなるため、仮想カメラの位置や向きの変化する範囲が制限されている場合などでは、第2オブジェクトを少ないデータ処理量によって描画することができるため利便性が高い。   In this way, since the drawing area of the second object is reduced, the second object can be drawn with a small amount of data processing when the range in which the position or orientation of the virtual camera changes is limited. Therefore, convenience is high.

(4)また本発明の画像生成システム、プログラム及び情報記録媒体では、前記オブジェクト空間設定部が、前記仮想カメラにおける注視点が設定される第3オブジェクトのサイズが変化する場合に、前記第3オブジェクトのサイズに応じて、前記オブジェクト空間におけるオブジェクトのサイズを替えて前記第2オブジェクトを設定するようにしてもよい。   (4) Further, in the image generation system, the program, and the information recording medium of the present invention, the object space setting unit may change the third object when the size of the third object to which the gazing point in the virtual camera changes is changed. The second object may be set by changing the size of the object in the object space according to the size of the object.

このようにすれば、注視点が設定される第3オブジェクトのサイズが変化した場合に、スクリーンに投影された第2オブジェクトのサイズがスクリーンのサイズに満たなくなって見苦しい画像が生成されてしまうという不都合を解消することができる。   In this way, when the size of the third object on which the gazing point is set changes, the size of the second object projected on the screen becomes less than the screen size and an unsightly image is generated. Can be eliminated.

(5)また本発明の画像生成システム、プログラム及び情報記録媒体では、前記オブジェクト空間設定部が、前記第1オブジェクトが、法線ベクトルの異なる複数の面から構成されており、該第1オブジェクトを構成する各面の法線ベクトルが前記視線ベクトルに対して第1の角度範囲に属する場合に、該視線ベクトルと前記第2の角度範囲に属する法線ベクトルを有する単一の面にて構成されている第2オブジェクトを前記オブジェクト空間に設定するようにしてもよい。   (5) Further, in the image generation system, the program, and the information recording medium of the present invention, the object space setting unit is configured such that the first object is composed of a plurality of surfaces having different normal vectors. When the normal vector of each surface that constitutes belongs to the first angle range with respect to the line-of-sight vector, it is configured by a single surface having the line-of-sight vector and the normal vector belonging to the second angle range. The second object may be set in the object space.

通常、複数の面によって構成されるオブジェクトを裏側から観察するような場合に、複雑な形状を描画する必要がないことも多い。特に遮蔽物を透視させることを目的とする場合には、遮蔽物の存在のみが把握できれば十分である。   Usually, when an object composed of a plurality of surfaces is observed from the back side, it is often unnecessary to draw a complicated shape. In particular, when it is intended to see through the shielding object, it is sufficient if only the presence of the shielding object can be grasped.

したがって、第1オブジェクトが法線方向の異なる複数の面から構成されている場合に、第2オブジェクトを、当該視線ベクトルと第2の角度範囲に属する法線ベクトルを有する単一の面にて構成しておけば、複雑な形状を有するオブジェクトを描画する場合であっても、少ないデータ処理量によって描画を済ませることができるとともに、仮想カメラが第2オブジェクト側に設定された場合には、描画判定処理の対象となる法線ベクトルの数が少なくなるので、描画対象の判定処理の負担が軽減される。   Therefore, when the first object is composed of a plurality of surfaces having different normal directions, the second object is composed of a single surface having the line-of-sight vector and a normal vector belonging to the second angle range. Thus, even when an object having a complicated shape is drawn, drawing can be completed with a small amount of data processing, and if the virtual camera is set on the second object side, the drawing determination Since the number of normal vectors to be processed is reduced, the burden of the drawing target determination process is reduced.

次に、本発明に好適な実施の形態について、図面に基づいて説明する。   Next, preferred embodiments of the present invention will be described with reference to the drawings.

なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態にて説明される構成の全てが、本発明の必須の構成要件であるとは限らない。   In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
まず、図1を用いて本実施形態における画像生成システム(ゲームシステム)の構成について説明する。
1. Configuration First, the configuration of an image generation system (game system) in the present embodiment will be described with reference to FIG.

なお、図1は、本実施形態の画像生成システムの機能ブロック図の一例である。また、本実施形態の画像生成システムは、図1の構成要素(各部)の一部を省略した構成としてもよい。   FIG. 1 is an example of a functional block diagram of the image generation system of the present embodiment. In addition, the image generation system according to the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM、VRAMなどにより実現できる。そして、本実施形態の記憶部170は、最終的な表示画像等が記憶されるフレームバッファ172と、オブジェクト毎に、当該オブジェクトの各頂点データが記憶されるオブジェクトデータ記憶部173と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部174と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ176と、を含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM, a VRAM, or the like. The storage unit 170 of this embodiment includes a frame buffer 172 that stores a final display image and the like, an object data storage unit 173 that stores each vertex data of the object for each object, and each object data A texture storage unit 174 for storing textures for use, and a Z buffer 176 for storing Z values at the time of object image generation processing. Note that some of these may be omitted.

本実施形態のオブジェクトデータ記憶部173には、ローカル座標系において予め設定され、頂点の位置座標、テクスチャ座標、色データ、法線ベクトル(法線データ)およびα値などの各頂点データを含むオブジェクトデータまたは処理部100によって所定の演算により算出された各頂点データを含むオブジェクトデータが記憶される。   The object data storage unit 173 of the present embodiment is an object that is preset in the local coordinate system and includes vertex data such as vertex position coordinates, texture coordinates, color data, normal vectors (normal data), and α values. Data or object data including each vertex data calculated by a predetermined calculation by the processing unit 100 is stored.

特に、本実施形態のオブジェクトデータ記憶部173には、注視点が設定されるキャラクタなどの注視対象のオブジェクトと仮想カメラとの間に設定される可能性のあるオブジェクトに対しては、すなわち、仮想カメラの視線方向を基準に当該オブジェクトの奥に配置される他のオブジェクト(注視点が設定されるキャラクタなどのオブジェクト)を描画する可能性のあるオブジェクトに対しては、通常のオブジェクト(以下、「第1オブジェクト」ともいう。)を描画するためのオブジェクトデータ(以下、「第1オブジェクトデータ」という。)と、当該第1オブジェクトデータに対応するオブジェクト(以下、「第2オブジェクト」ともいう。)を描画するためのオブジェクトデータであって、第1オブジェクトの各法線ベクトルの方向と描画する際のオブジェクトの透明度を示すα値とが異なるオブジェクトデータ(以下、「第2オブジェクトデータ」という。)と、が記憶される。   In particular, in the object data storage unit 173 of the present embodiment, an object that may be set between a gaze target object such as a character for which a gazing point is set and a virtual camera, that is, a virtual For objects that may draw other objects (objects such as characters for which a gazing point is set) placed behind the object based on the camera's line-of-sight direction, normal objects (hereinafter, “ Object data (hereinafter also referred to as “first object data”) for drawing a first object and an object corresponding to the first object data (hereinafter also referred to as “second object”). Object data for drawing a vector, each normal vector of the first object And α value indicating the transparency of an object at the time of drawing are different object data (hereinafter, referred to as. "The second object data") and, is stored.

すなわち、本実施形態のオブジェクトデータ記憶部173には、遮蔽物などの所定のオブジェクトの表面として認識される第1オブジェクトを描画する第1オブジェクトデータの他に、所定のオブジェクトの裏面として認識される第2オブジェクトを描画する第2オブジェクトデータが記憶される。そして、この第2オブジェクトデータは、第1オブジェクトデータの各頂点データと対応する頂点データを有し、法線ベクトルのオブジェクト空間上の方向が対応する第1オブジェクトデータの法線ベクトルと所定角度範囲以上異なり、かつ、所定の透明度にて(好ましくは半透明にて)のオブジェクトを描画するためのデータから構成される。   That is, in the object data storage unit 173 of the present embodiment, in addition to the first object data for drawing the first object recognized as the front surface of the predetermined object such as the shielding object, the back surface of the predetermined object is recognized. Second object data for drawing the second object is stored. The second object data includes vertex data corresponding to each vertex data of the first object data, and the normal vector of the first object data corresponding to the direction of the normal vector in the object space and a predetermined angle range. It is different from the above, and is composed of data for drawing an object with a predetermined transparency (preferably translucent).

また、この第2オブジェクトデータは、オブジェクトの大きさまたは座標位置など第1オブジェクトとは異なるオブジェクトを構成するデータであってもよいし、第1オブジェクトデータに対して座標データなどが相対的に規定される各頂点データから構成されていてよい。ただし、第2オブジェクトデータの各頂点データは、仮想カメラから見られる画像として描画される際の当該仮想カメラにおける画角に対して十分な大きさを有すること、および、その座標データは、第1オブジェクトデータにおける対応する頂点データの座標位置から所定の範囲内に、すなわち、同一のオブジェクトとして認識可能な範囲に設定されていることが必要である。   The second object data may be data constituting an object different from the first object, such as the size or coordinate position of the object, and the coordinate data is defined relative to the first object data. Each vertex data may be configured. However, each vertex data of the second object data has a sufficient size with respect to the angle of view of the virtual camera when rendered as an image viewed from the virtual camera, and the coordinate data thereof is the first It must be set within a predetermined range from the coordinate position of the corresponding vertex data in the object data, that is, within a range that can be recognized as the same object.

なお、第2オブジェクトデータに規定される法線ベクトルは、第1オブジェクトデータに対応する頂点データにおける法線ベクトルとオブジェクト空間上の方向が反対であること、すなわち、その角度が180度異なることが好ましいが、第1オブジェクトと第2オブジェクトが、表面のオブジェクトおよび裏面のオブジェクトとして認識可能な角度範囲であればよい。   Note that the normal vector defined in the second object data is opposite to the normal vector in the vertex data corresponding to the first object data in the object space direction, that is, the angle is 180 degrees different. Although it is preferable, the first object and the second object may be in an angle range that can be recognized as a front object and a back object.

テクスチャ記憶部174には、第1オブジェクトデータおよび第2オブジェクトデータそれぞれに対応するテクスチャが記憶される。特に、このテクスチャ記憶部174には、第2オブジェクトデータ用のテクスチャとして、第1オブジェクトと同様の色、同様の模様など第2オブジェクトデータによって第2ブジェクトが描画された場合であっても、第1オブジェクトデータによって描画されるオブジェクトと対応関係のあるオブジェクトであることを認識可能なテクスチャが記憶される。   The texture storage unit 174 stores textures corresponding to the first object data and the second object data. In particular, even when the second object data is drawn in the texture storage unit 174 using the second object data such as the same color and the same pattern as the first object as the texture for the second object data, A texture that can be recognized as an object having a correspondence relationship with an object drawn by one object data is stored.

ただし、第2オブジェクトにテクスチャをマッピングしない場合には、当該第2オブジェクトのためのテクスチャを用意せずとも第2オブジェクトのオブジェクトデータに頂点の色を設定しておくこともできる。   However, when the texture is not mapped to the second object, the vertex color can be set in the object data of the second object without preparing the texture for the second object.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は、記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、画像生成処理部120、を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, and an image generation processing unit 120. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (primitive surfaces such as polygons, free-form surfaces, and subdivision surfaces) representing display objects such as characters, buildings, stadiums, cars, trees, columns, walls, and maps (terrain). (Object) is set in the object space. That is, the position and rotation angle (synonymous with direction and direction) of the object (model object) in the world coordinate system are determined, and the rotation angle (X, Y, Z axis around the position (X, Y, Z)) is determined. Arrange objects at (rotation angle).

特に、本実施形態のオブジェクト空間設定部110は、オブジェクトデータ記憶部173に記憶されたオブジェクトデータに基づいて各オブジェクトをオブジェクト空間に設定する。具体的には、このオブジェクト空間設定部110は、オブジェクト空間内において固定的に設定されるオブジェクトについては、オブジェクトデータ記憶部173に記憶されているオブジェクトデータに基づいて設定し、当該オブジェクト空間内において移動するオブジェクトについては、オブジェクトデータ記憶部173に記憶されているオブジェクトデータに基づいて移動・動作処理部112にて処理された位置に設定する。   In particular, the object space setting unit 110 of the present embodiment sets each object in the object space based on the object data stored in the object data storage unit 173. Specifically, the object space setting unit 110 sets an object that is fixedly set in the object space based on the object data stored in the object data storage unit 173, and sets the object space in the object space. The moving object is set at a position processed by the movement / motion processing unit 112 based on the object data stored in the object data storage unit 173.

移動・動作処理部112は、オブジェクト(キャラクタ、ボール、車、又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクト(移動オブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なお、フレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (such as a character, a ball, a car, or an airplane). That is, an object (moving object) is moved in the object space or an object is moved based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like. Perform processing (motion, animation). Specifically, a simulation process for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part object) every frame (1/60 second). I do. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば、仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when shooting an object (eg, character, ball, car) from behind using a virtual camera, the virtual camera position or rotation angle (virtual camera position) is set so that the virtual camera follows changes in the position or rotation of the object. Control). In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above-described control process is performed for each virtual camera.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより、画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、オブジェクトの各頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が入力され、入力された頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行う際に、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うことができることができる。頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、表示画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、最終的な表示画像のピクセルの描画色を決定し、透視変換されたオブジェクトの描画色をフレームバッファ172(ピクセル単位で画像情報を記憶できるバッファ。描画バッファ、表示バッファ、バックバッファ、フロントバッファ、ワークバッファ、VRAM)に出力(描画)する。すなわち、ピクセルシェーディングでは、表示画像のピクセル単位で画像情報(色、法線、輝度、α値等)を設定あるいは変更するパークピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から観察される画像(フレーム画像)が生成される。なお、視点が複数存在する場合には、それぞれの視点から観察される画像を分割画像として1画面に表示できるようにフレーム画像を生成することができる。   The image generation unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting it to the display unit 190. When generating a so-called three-dimensional game image, first, each vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the object is input, and based on the input vertex data Vertex processing is performed. When performing the vertex processing, it is possible to perform vertex generation processing (tessellation, curved surface division, polygon division) for subdividing the polygon as necessary. In the vertex processing, geometric processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation processing is performed, and vertices constituting the object based on the processing result Change (update, adjust) the vertex data given for. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and pixel processing (fragment processing) for drawing pixels (fragments configuring the display screen) constituting the display image is performed. In the pixel processing, various processing such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. is performed to determine the pixel rendering color of the final display image, and the perspective transformation is performed. The drawing color of the object is output (drawn) to the frame buffer 172 (a buffer capable of storing image information in units of pixels. Drawing buffer, display buffer, back buffer, front buffer, work buffer, VRAM). That is, in pixel shading, park pixel processing is performed in which image information (color, normal, luminance, α value, etc.) is set or changed in units of pixels of the display image. Thereby, an image (frame image) observed from the virtual camera (given viewpoint) in the object space is generated. When there are a plurality of viewpoints, a frame image can be generated so that an image observed from each viewpoint can be displayed on one screen as a divided image.

特に、本実施形態の画像生成部120は、仮想カメラの視線方向を基準としてオブジェクトデータ記憶部173に記憶された各オブジェクトデータ毎に(具体的には、頂点データ毎に)オブジェクトを描画する際に用いるデータであるか否かの判定処理を行う描画対象判定部121と、オブジェクトを描画する際にαブレンディング処理(半透明描画処理)を行うαブレンディング部122と、描画する各オブジェクトに対してテクスチャをマッピングするテクスチャマッピング部124と、を含む。   In particular, the image generation unit 120 according to the present embodiment draws an object for each object data stored in the object data storage unit 173 (specifically, for each vertex data) with reference to the viewing direction of the virtual camera. A drawing target determining unit 121 that performs a process of determining whether or not the data is used for an object, an α blending unit 122 that performs an α blending process (semi-transparent rendering process) when rendering an object, and each object to be rendered A texture mapping unit 124 for mapping the texture.

なお、これらの一部を省略する構成としてもよく、描画対象判定部121は、画像生成部120以外に設けられていてもよい。   Note that some of these may be omitted, and the drawing target determination unit 121 may be provided in addition to the image generation unit 120.

通常、画像を生成する際には、仮想カメラの視線方向に対して観察不能なオブジェクトの頂点データについては、当該生成される画像には描画されず、当該仮想カメラの視線方向に対して観察可能な頂点データのみに基づいてオブジェクトを描画すれば画像を生成することができる。このため、本実施形態の描画対象判定部121は、各頂点データの法線ベクトルに基づいて仮想カメラの視線方向に対して当該オブジェクトの頂点が観察可能か否か、すなわち、描画対象となるか否かを判定する判定処理を行う。   Normally, when generating an image, the vertex data of an object that cannot be observed with respect to the viewing direction of the virtual camera is not drawn in the generated image and can be observed with respect to the viewing direction of the virtual camera. An image can be generated by drawing an object based on only the vertex data. For this reason, the drawing target determination unit 121 of the present embodiment determines whether or not the vertex of the object can be observed with respect to the viewing direction of the virtual camera based on the normal vector of each vertex data, that is, whether or not the drawing target is a drawing target. A determination process is performed to determine whether or not.

具体的には、描画対象判定部121は、各頂点データ毎に、仮想カメラからメインキャラクタなどの注視対象に設定される注視点に向けたベクトル(以下、「視線ベクトル」ともいう。)と当該各オブジェクトデータに含まれる各頂点データの法線ベクトルとの内積を演算し、算出された値が所定の条件を示せば(例えば、視線ベクトルと法線ベクトルにて形成される角度が所定の角度範囲に属すれば)、当該演算に用いた法線ベクトルの頂点データを、オブジェクトを描画する際に用いるオブジェクトデータとして判定する。   Specifically, for each vertex data, the drawing target determining unit 121 sets a vector (hereinafter also referred to as “line-of-sight vector”) directed from the virtual camera toward a gaze point set as a gaze target such as a main character. If the inner product of each vertex data contained in each object data and the normal vector of the vertex data is calculated and the calculated value shows a predetermined condition (for example, the angle formed by the line-of-sight vector and the normal vector is a predetermined angle) If it belongs to the range), the vertex data of the normal vector used in the calculation is determined as the object data used when drawing the object.

すなわち、オブジェクトを描画する際には、仮想カメラから見える当該オブジェクトの面についてのみ描画することから、この描画対象判定部121は、視線ベクトルと法線ベクトルによって形成される角度が180度±90度の範囲になる場合に描画対象として判定する必要がある。したがって、本実施形態の描画対象判定部121は、視線ベクトルを「V1」、法線ベクトルを「V2」とし、視線ベクトルと法線ベクトルにて形成される角度を「θ」とすると、下式の内積演算によって当該角度パラメータcosθを算出し、角度θが180度±90度の範囲になる場合に描画対象として判定する。   That is, when the object is drawn, only the surface of the object that can be seen from the virtual camera is drawn. Therefore, the drawing target determination unit 121 determines that the angle formed by the line-of-sight vector and the normal vector is 180 degrees ± 90 degrees. When it falls within the range, it is necessary to determine as a drawing target. Accordingly, the drawing target determination unit 121 of the present embodiment sets the line-of-sight vector as “V1”, the normal vector as “V2”, and the angle formed by the line-of-sight vector and the normal vector as “θ”. The angle parameter cos θ is calculated by the inner product calculation of the above, and when the angle θ is in a range of 180 ° ± 90 °, it is determined as a drawing target.

cosθ=V1・V2/|V1||V2| (1)
ただし、視線ベクトルおよび法線ベクトルが単位ベクトルであることから、|V1|=|V2|=1となる。
cos θ = V1 · V2 / | V1 || V2 | (1)
However, since the line-of-sight vector and the normal vector are unit vectors, | V1 | = | V2 | = 1.

なお、本実施形態の描画対象判定部121は、各頂点データ毎に、すなわち、オブジェクトデータ毎に当該判定処理を行うので、注視点が設定されるキャラクタなどの注視対象のオブジェクトと仮想カメラとの間に設定される可能性のあるオブジェクト、具体的には、仮想カメラに基づいて当該オブジェクトの奥に配置される他のオブジェクト(注視点が設定されるキャラクタなどのオブジェクト)を描画する可能性があるオブジェクトにおいては、第1オブジェクトデータおよび第2オブジェクトデータのそれぞれの頂点データに対しても判定処理を行うようになっている。   Note that the drawing target determination unit 121 according to the present embodiment performs the determination process for each vertex data, that is, for each object data, so that the object to be watched, such as a character for which a gazing point is set, and the virtual camera are used. There is a possibility of drawing an object that may be set in between, specifically, another object (an object such as a character for which a gazing point is set) placed behind the object based on the virtual camera In a certain object, determination processing is also performed on the vertex data of each of the first object data and the second object data.

また、αブレンディング部122は、α値(A値)に基づくαブレンディング処理(通常αブレンディング、α加算ブレンディング又はα減算ブレンディング等)も行うことができるようになっている。   The α blending unit 122 can also perform an α blending process (usually α blending, α addition blending, α subtraction blending, or the like) based on an α value (A value).

このαブレンディング部122は、α値(A値)に基づくαブレンディング処理(通常αブレンディング、α加算ブレンディング又はα減算ブレンディング等)を行う。例えば通常αブレンディングの場合には下式の処理を行う。   The α blending unit 122 performs α blending processing (normal α blending, α addition blending, α subtraction blending, or the like) based on the α value (A value). For example, in the case of normal α blending, the following processing is performed.

RQ=(1−α)×R1+α×R2 (2)
GQ=(1−α)×G1+α×G2 (3)
BQ=(1−α)×B1+α×B2 (4)
一方、加算αブレンディングの場合には下式の処理を行う。
RQ = (1−α) × R1 + α × R2 (2)
GQ = (1−α) × G1 + α × G2 (3)
BQ = (1−α) × B1 + α × B2 (4)
On the other hand, in the case of addition α blending, the following processing is performed.

RQ=R1+α×R2 (5)
GQ=G1+α×G2 (6)
BQ=B1+α×B2 (7)
ただし、R1、G1、B1は、フレームバッファ172に既に描画されている画像(画像)のRGB成分であり、R2、G2、B2は、フレームバッファ172に描画すべき画像のRGB成分である。また、RQ、GQ、BQは、αブレンディングにより得られる画像のRGB成分である。
RQ = R1 + α × R2 (5)
GQ = G1 + α × G2 (6)
BQ = B1 + α × B2 (7)
However, R1, G1, and B1 are RGB components of an image (image) already drawn in the frame buffer 172, and R2, G2, and B2 are RGB components of an image to be drawn in the frame buffer 172. RQ, GQ, and BQ are RGB components of an image obtained by α blending.

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

本実施形態のαブレンディング部122は、第2オブジェクトデータに基づいてオブジェクトを描画する場合には、仮想カメラの視線方向を基準に当該オブジェクトの奥にある注視点が設定されるキャラクタその他のオブジェクトを描画するため、当該第2オブジェクトデータに含まれる頂点データのα値に基づいて、当該オブジェクトを半透明にして描画するようになっている。   The α blending unit 122 of the present embodiment, when drawing an object based on the second object data, displays a character or other object in which a gaze point behind the object is set based on the visual line direction of the virtual camera. In order to draw, the object is rendered translucent based on the α value of the vertex data included in the second object data.

テクスチャマッピング部124は、テクスチャ記憶部174に記憶されるテクスチャ(テクセル値)を各オブジェクトにマッピングするための処理を行う。具体的には、このテクスチャマッピング部124は、オブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部174からテクスチャ(色、α値などの表面プロパティ)を読み出し、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やテクセル補間としてバイリニア補間などを行う。   The texture mapping unit 124 performs processing for mapping the texture (texel value) stored in the texture storage unit 174 to each object. Specifically, the texture mapping unit 124 reads the texture (surface properties such as color and α value) from the texture storage unit 174 using the texture coordinates set (given) at the vertices of the object (primitive surface). A texture that is a two-dimensional image or pattern is mapped to an object. In this case, bilinear interpolation or the like is performed as processing for associating pixels with texels or texel interpolation.

特に、本実施形態のテクスチャマッピング部124は、第2オブジェクトデータによってオブジェクトを描画する場合であっても、第1オブジェクトと同様の色、模様など第1オブジェクトと同一のオブジェクトとして認識可能なテクスチャに基づいてマッピングを行う。   In particular, the texture mapping unit 124 of the present embodiment generates a texture that can be recognized as the same object as the first object, such as the same color and pattern as the first object, even when the object is drawn by the second object data. Based on the mapping.

また本実施形態の画像生成システムでは、画像生成部120が隠面消去を行うことができるようになっている。隠面消去を利用する場合には、例えば、Z値が格納されるZバッファ176を用いて隠面消去を行いつつ、描画対象判定部124において描画するデータとして判定されたオブジェクトデータに基づいてオブジェクト(プリミティブ面)をフレームバッファ172に描画し、画像を生成する。そして、画像のZ値は、この描画処理の際に行われるZバッファ法(奥行き比較法)により、Zバッファ176上に生成(格納)される。なお、Z値(奥行き値)は、カメラ座標系のZ座標軸のZ値そのものであってもよいし、このZ値と数学的でかつ均等なパラメータであってもよい。   Further, in the image generation system of the present embodiment, the image generation unit 120 can perform hidden surface removal. When using hidden surface removal, for example, while performing hidden surface removal using the Z buffer 176 in which the Z value is stored, the object is determined based on the object data determined as data to be drawn by the drawing target determination unit 124. (Primitive surface) is drawn in the frame buffer 172 to generate an image. The Z value of the image is generated (stored) on the Z buffer 176 by the Z buffer method (depth comparison method) performed at the time of the drawing process. The Z value (depth value) may be the Z value itself of the Z coordinate axis of the camera coordinate system, or may be a parameter that is mathematically equivalent to this Z value.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に、図2〜図5を用いて本実施形態の手法について説明する。なお、図2〜図5は、本実施形態の手法を説明するための図である。特に、図2は、第1オブジェクトおよび第2オブジェクトが設定されたオブジェクト空間における仮想カメラと注視対象の関係を示す図であり、図3は、仮想カメラにおいて描画される壁の一部(ドア)の法線ベクトルの向きを示す図である。また、図4は、注視点が設定されるオブジェクトのサイズと第2オブジェクトのサイズの関係を示す図であり、図5は、法線ベクトルの異なるプリミティブ面を有する第1オブジェクトと第2オブジェクトの関係を示す一例である。
2. Next, the method according to the present embodiment will be described with reference to FIGS. 2-5 is a figure for demonstrating the method of this embodiment. In particular, FIG. 2 is a diagram illustrating a relationship between a virtual camera and a gaze target in an object space in which the first object and the second object are set, and FIG. 3 is a part of a wall (door) drawn in the virtual camera. It is a figure which shows direction of normal vector of. FIG. 4 is a diagram showing the relationship between the size of the object on which the gazing point is set and the size of the second object, and FIG. 5 shows the relationship between the first object and the second object having primitive surfaces with different normal vectors. It is an example which shows a relationship.

本実施形態では、注視対象となるオブジェクト(第3オブジェクト、注視対象オブジェクト)は、オブジェクト空間内の予め設定された移動領域内(オブジェクトの移動領域内)を移動する移動体オブジェクトであって、当該注視対象のオブジェクトの移動に伴って変化する仮想カメラの位置、向きに基づいてオブジェクト空間内に設定された各オブジェクトを描画して画像を生成する。   In the present embodiment, the object to be watched (third object, gaze target object) is a moving body object that moves within a preset moving area (within the moving area of the object) in the object space, An image is generated by drawing each object set in the object space based on the position and orientation of the virtual camera that changes with the movement of the gaze target object.

すなわち、仮想カメラは、注視対象となるオブジェクトの移動に伴って移動制御されるようになっており、注視対象のオブジェクトにおけるオブジェクト空間上の位置、向きと仮想カメラの位置、向き(視線ベクトルの向き:視線方向)とによっては、オブジェクトの移動領域外から観察される画像を生成する場合も生ずる。   That is, the virtual camera is controlled to move as the object to be watched moves, and the position and orientation of the object to be watched in the object space and the position and orientation of the virtual camera (the direction of the line-of-sight vector). : Line-of-sight direction), an image observed from outside the moving region of the object may be generated.

したがって、このように仮想カメラがオブジェクトの移動領域外に設定される場合であって、注視対象のオブジェクトと仮想カメラの間に、例えば、移動領域と移動領域外の境界に、固定的に設定されるオブジェクトが存在する場合には、当該注視対象のオブジェクトを視認可能に描画させるためには、注視対象のオブジェクトと仮想カメラの間に設定されるオブジェクトを透過(好ましくは半透明にて)させるなど工夫する必要がある。   Therefore, when the virtual camera is set outside the moving area of the object in this way, it is fixedly set between the object to be watched and the virtual camera, for example, at the boundary between the moving area and the moving area. In order to draw the gaze target object so that the gaze target object is visible, the object set between the gaze target object and the virtual camera is made transparent (preferably translucent). It is necessary to devise.

具体的には、仮想カメラが注視対象のオブジェクトの移動領域内に設定される際には、移動領域と移動領域外の境界に固定的に設定される壁のオブジェクトが存在する場合であっても、図2(A)に示すように、注視対象のオブジェクトと仮想カメラと間に当該壁のオブジェクトが設定されないため、仮想カメラから見える壁のオブジェクトを描画する際に支障は生じない。その一方、仮想カメラが注視対象のオブジェクトの移動領域外に設定され、移動領域と移動領域外の境界に固定的に設定される壁のオブジェクトが存在する場合には、図2(B)に示すように、当該壁オブジェクトに注視対象のオブジェクトが遮蔽されてしまい、注視対象のオブジェクトを観察することができない。   Specifically, when the virtual camera is set within the movement area of the object to be watched, even if there is a wall object fixedly set at the boundary between the movement area and the movement area, As shown in FIG. 2A, since the wall object is not set between the gaze target object and the virtual camera, there is no problem in drawing the wall object visible from the virtual camera. On the other hand, when the virtual camera is set outside the moving area of the object to be watched and there is a wall object that is fixedly set at the boundary between the moving area and the moving area, as shown in FIG. As described above, the gaze target object is shielded by the wall object, and the gaze target object cannot be observed.

そこで、本実施形態では、注視点が設定されるキャラクタなどの注視対象のオブジェクトと仮想カメラとの間に設定される可能性のあるオブジェクトに対しては、本来表現したいオブジェクトを描画するための第1オブジェクト(不透明オブジェクト)を設定する他に、第1オブジェクトと同位置あるいは近傍の位置に設定される第2オブジェクト(半透明オブジェクト)をオブジェクト空間に設定する手法を採用している。   Therefore, in the present embodiment, for an object that may be set between a gaze target object such as a character for which a gazing point is set and a virtual camera, a first object for drawing an object that is originally intended to be expressed. In addition to setting one object (opaque object), a method is adopted in which a second object (semi-transparent object) set at the same position as or near to the first object is set in the object space.

具体的には、第1オブジェクトデータに基づいて、例えば、オブジェクトの形状および色と当該オブジェクトのオブジェクト空間上の座標位置および向きなど本来のオブジェクトを描画するための第1オブジェクトをオブジェクト空間に設定するようになっている。また本実施形態の手法では、第1オブジェクトデータの各頂点データに対応するとともに、オブジェクトを透過的に描画するための各頂点データを有する第2オブジェクトデータに基づいて、第2オブジェクトをオブジェクト空間に設定するようになっている。   Specifically, based on the first object data, for example, the first object for drawing the original object such as the shape and color of the object and the coordinate position and orientation of the object in the object space is set in the object space. It is like that. In the method of the present embodiment, the second object is converted into the object space based on the second object data corresponding to each vertex data of the first object data and having each vertex data for transparently drawing the object. It is supposed to be set.

特に、第1オブジェクトを構成するプリミティブ面の法線ベクトルと第2オブジェクトを構成するプリミティブ面の法線ベクトルは、一方の法線ベクトルと仮想カメラの視線ベクトルとのなす角度が第1の角度範囲に属する場合に、他方の法線ベクトルと視線ベクトルとのなす角度が第2の角度範囲に属する関係を有するようになっている。   In particular, the normal vector of the primitive surface constituting the first object and the normal vector of the primitive surface constituting the second object are such that the angle between one normal vector and the line-of-sight vector of the virtual camera is the first angle range. , The angle formed by the other normal vector and the line-of-sight vector has a relationship belonging to the second angle range.

例えば、図2(A)及び図2(B)に示すように、壁のオブジェクト対しては、注視対象のオブジェクトと仮想カメラとの間に設定される可能性があるため、仮想カメラの位置によって注視対象のオブジェクトと当該仮想カメラとの間にこの壁のオブジェクトが設定される場合には、当該壁オブジェクトの奥に注視対象のオブジェクトなど他のオブジェクトを描画することができるように、所定の透明度(α値)を有する第2オブジェクトを設定するようになっている。   For example, as shown in FIGS. 2A and 2B, for a wall object, there is a possibility that it is set between the object to be watched and the virtual camera. When this wall object is set between the gaze target object and the virtual camera, a predetermined transparency is set so that other objects such as the gaze target object can be drawn behind the wall object. A second object having (α value) is set.

また本実施形態の手法では、図3(A)及び図3(B)に示すように、図2に示す壁の一部(ドア)のオブジェクトに対して、移動領域内の方向に向けて設定された法線ベクトルS1を有するプリミティブ面からなる不透明な壁のオブジェクトである第1オブジェクトと、移動領域外の方向に向けて設定された法線ベクトルS2を有するプリミティブ面からなる半透明な壁のオブジェクトである第2オブジェクトを設定するようになっている。そして、この法線ベクトルS1と法線ベクトルS2は、一方の法線ベクトルと仮想カメラの視線ベクトルとのなす角度が第1の角度範囲に属する場合に、他方の法線ベクトルと視線ベクトルとのなす角度が第2の角度範囲に属する関係を有するように、所定の角度範囲以上(好ましくは、180度)異なる方向にて設定されるようになっている。   In the method of the present embodiment, as shown in FIGS. 3A and 3B, the object of a part of the wall (door) shown in FIG. 2 is set in the direction within the moving area. A first object which is an opaque wall object consisting of a primitive surface having a normal vector S1 and a semi-transparent wall consisting of a primitive surface having a normal vector S2 set in a direction outside the moving region. A second object which is an object is set. The normal vector S1 and the normal vector S2 are obtained by calculating the difference between the normal vector and the line-of-sight vector when the angle formed by the one normal vector and the line-of-sight vector of the virtual camera belongs to the first angle range. The angles formed are set in directions different from each other by a predetermined angle range or more (preferably 180 degrees) so that the formed angle has a relationship belonging to the second angle range.

なお、図3(A)及び図3(B)に示す法線ベクトルS1およびS2は、図2(A)及び図2(B)において設定される仮想カメラにおいて描画される壁の一部(ドア)の不透明のオブジェクトおよび半透明なオブジェクトの法線ベクトルの向きを示している。ただし、図3(A)及び図3(B)において、法線ベクトルS1、S2は頂点データ毎のものを示しているわけでなく、説明の便宜上、第1オブジェクトおよび第2オブジェクトを構成する面の法線ベクトルを示している。   Note that the normal vectors S1 and S2 shown in FIGS. 3A and 3B are a part of a wall (door) drawn in the virtual camera set in FIGS. 2A and 2B. ) Shows the orientation of normal vectors of opaque and translucent objects. However, in FIG. 3 (A) and FIG. 3 (B), the normal vectors S1 and S2 do not indicate the values for each vertex data, and for the sake of convenience of description, the surfaces constituting the first object and the second object The normal vector of is shown.

一方、本実施形態の手法では、このように設定された各オブジェクトを描画する際には、視線ベクトルと各頂点データにおける法線ベクトルとの内積演算を行うことによって、仮想カメラの視線ベクトルに対して描画対象の適否、すなわち、観察可能か否かを判定し、描画対象となったオブジェクトの面を描画して画像を生成するようになっている。すなわち本実施形態の手法では、プリミティブ面(あるいはポリゴン)の法線の向きによって表面及び裏面を判定して表面のみを描画する技術、いわゆるバックフェイスカリングを利用している。バックフェイスカリングは本来描画処理を高速化するために、描画処理の対象データを減らすことを目的として利用されてきた技術である。   On the other hand, in the method of the present embodiment, when each object set in this way is drawn, an inner product operation between the line-of-sight vector and the normal vector in each vertex data is performed, so that the line-of-sight vector of the virtual camera is obtained. Thus, it is determined whether or not the drawing target is appropriate, that is, whether or not the drawing target can be observed, and the surface of the object to be drawn is drawn to generate an image. That is, in the method of the present embodiment, a technique of drawing only the front surface by determining the front surface and the back surface according to the normal direction of the primitive surface (or polygon), so-called back face culling is used. Back face culling is a technique that has been used for the purpose of reducing the data to be drawn in order to speed up the drawing process.

そして本実施形態の手法では、図2において設定される壁のオブジェクトに対して、上述のように、第1オブジェクトの法線ベクトルと第2オブジェクトの法線ベクトルとは、一方の法線ベクトルと仮想カメラの視線ベクトルとのなす角度が第1の角度範囲に属する場合に、他方の法線ベクトルと視線ベクトルとのなす角度が第2の角度範囲に属する関係を有しているので、本実施形態の画像生成システムは、この判定処理により、何れか一方のオブジェクトを構成するプリミティブ面のみを、描画対象のプリミティブ面として判定するようになっている。   In the method of the present embodiment, as described above, the normal vector of the first object and the normal vector of the second object are one normal vector and the wall object set in FIG. Since the angle formed between the visual vector of the virtual camera belongs to the first angle range and the angle formed between the other normal vector and the visual vector belongs to the second angle range, this embodiment According to this determination processing, the image generation system according to the embodiment determines only a primitive surface constituting one of the objects as a primitive surface to be drawn.

具体的には、仮想カメラが注視対象のオブジェクトの移動領域内に設定される場合には、すなわち、本来観察される方向からオブジェクトを描画する場合には、第1オブジェクト(第1オブジェクトを構成するプリミティブ面)を描画するようになっており、本来の壁の大きさ、色および形にて画像を描画するようになっている。   Specifically, when the virtual camera is set within the movement area of the object to be watched, that is, when the object is drawn from the originally observed direction, the first object (the first object is configured). (Primitive surface) is drawn, and an image is drawn with the original size, color and shape of the wall.

一方、仮想カメラが注視対象のオブジェクトの移動領域外に設定され、移動領域と移動領域外の境界に固定的に設定される壁のオブジェクトが存在する場合には、すなわち、本来観察されないオブジェクトの裏側に仮想カメラが移動し、当該裏側の方向から当該オブジェクトを描画する場合には、第2オブジェクト(第2オブジェクトを構成するプリミティブ面)を描画するようになっており、半透明な壁のオブジェクトを描画する。   On the other hand, when the virtual camera is set outside the moving area of the object to be watched and there is a wall object that is fixedly set at the boundary between the moving area and the moving area, that is, behind the object that is not originally observed When the virtual camera moves and the object is drawn from the direction of the back side, the second object (primitive surface constituting the second object) is drawn, and the object on the translucent wall is drawn. draw.

例えば、図2(A)に示す仮想カメラの位置、向きに基づいてオブジェクトを描画する場合には、不透明な壁の第1オブジェクトを描画し、図2(B)に示す仮想カメラの位置、向きに基づいてオブジェクトを描画する場合には、半透明な壁の第2オブジェクトを描画するようになっている。   For example, when drawing an object based on the position and orientation of the virtual camera shown in FIG. 2A, the first object on the opaque wall is drawn, and the position and orientation of the virtual camera shown in FIG. When the object is drawn based on the above, the second object on the translucent wall is drawn.

このように、本実施形態の手法では、オブジェクト空間上において、仮想カメラと注視対象となるオブジェクトの間に設定され、注視対象が仮想カメラから視認不能にさせる遮蔽物などのオブジェクトに対して第1オブジェクトのみならず第2オブジェクトを設定する。   As described above, in the method according to the present embodiment, the first object is set for an object such as a shield that is set between the virtual camera and the object to be watched in the object space and makes the watch target invisible from the virtual camera. Set the second object as well as the object.

したがって、本実施形態の手法によれば、仮想カメラと注視対象となるオブジェクトの間の遮蔽物を特定する処理や当該遮蔽物を半透明化して描画する処理など注視対象のオブジェクトを視認させるための専用の処理を行うことなく、各オブジェクトにおける描画対象の判定のみを行うことによって、注視対象となるオブジェクトが他のオブジェクトに遮蔽されても注視対象を視認しうる画像を生成することができるようになっている。   Therefore, according to the method of the present embodiment, it is possible to visually recognize an object to be watched, such as a process of specifying a shield between the virtual camera and the object to be watched or a process of rendering the shield semi-transparent. By only determining the drawing target for each object without performing dedicated processing, an image can be generated so that the gaze target can be visually recognized even if the object to be watched for is blocked by another object. It has become.

この結果、上述の専用の処理を不要することによって画像を生成する際の処理負担を低減させることができるとともに、仮想カメラの位置に適した各オブジェクトを的確に描画して画像を生成することができるようになっている。   As a result, it is possible to reduce the processing burden when generating an image by eliminating the dedicated processing described above, and to generate an image by accurately drawing each object suitable for the position of the virtual camera. It can be done.

また、本実施形態の第2オブジェクトは、例えば、図3(B)に示すように、第1オブジェクのサイズより小さいサイズにてオブジェクト空間上に設定されている。オブジェクト空間上において、仮想カメラと注視対象となるオブジェクトの間に設定された場合であって、仮想カメラが当該オブジェクトに近い場合または当該仮想カメラがオブジェクト空間の高さ方向に変化しない場合などでは、クリッピング処理その他の処理によって、スクリーンに投影される第2オブジェクトの描画範囲が狭いので、第2オブジェクトを少ないデータによって描画することができるからである。   Further, the second object of the present embodiment is set in the object space with a size smaller than the size of the first object, for example, as shown in FIG. In the object space, when it is set between the virtual camera and the object to be watched, and the virtual camera is close to the object or the virtual camera does not change in the height direction of the object space, This is because the drawing range of the second object projected on the screen is narrowed by the clipping process and other processes, so that the second object can be drawn with a small amount of data.

さらに、メインキャラクタなどの注視点が設定されるオブジェクト(第3オブジェクト)に対しては、そのサイズが可変に設定されており、所定のイベントに基づいて、そのサイズが所定の可変範囲にて変更される場合もある。すなわち、第2オブジェクトが当該注視点のオブジェクトに合わせて大きくさせて描画させる場合もある。この場合には、図4(A)及び図4(B)に示すように、注視点が設定されるオブジェクトのサイズに基づいて、オブジェクト空間における第2オブジェクトのサイズを替えて当該第2オブジェクトを設定するようになっている。すなわち、当該注視点が設定されるオブジェクトの最大変化量に合わせて、オブジェクト空間における第2オブジェクトのサイズを替えて当該第2オブジェクトを設定するようになっている。   In addition, the size of the object (third object) for which the gaze point is set, such as the main character, is set to be variable, and the size is changed within a predetermined variable range based on a predetermined event. Sometimes it is done. In other words, the second object may be drawn in a larger size in accordance with the object of interest. In this case, as shown in FIGS. 4 (A) and 4 (B), the size of the second object in the object space is changed based on the size of the object to which the gazing point is set. It is supposed to be set. That is, the second object is set by changing the size of the second object in the object space in accordance with the maximum change amount of the object for which the gazing point is set.

これにより、第2オブジェクトが第1オブジェクトより小さいサイズによって設定されている場合であっても、スクリーンに投影された第2オブジェクトのサイズがスクリーンより小さくなって的確に描画することができないという不都合を解消することができるようになっている。ただし、本実施形態の画像生成システムは、サイズの違う第2オブジェクトのオブジェクトデータを読み込んでオブジェクト空間に設定してもよいし、既にオブジェクト空間に設定されている第2オブジェクトのサイズを所定の係数でスケーリングしてもよい。   As a result, even when the second object is set to a size smaller than the first object, the size of the second object projected on the screen is smaller than the screen and cannot be drawn accurately. It can be solved. However, the image generation system of the present embodiment may read the object data of the second object having a different size and set it in the object space, or the size of the second object already set in the object space may be set to a predetermined coefficient. You may scale with.

なお、本実施形態の手法では、図5に示すように、第1オブジェクトが、法線の異なる複数のプリミティブ面から構成されるデータである場合に、第2オブジェクトを少なくとも何れか一のプリミティブ面の法線を示す法線ベクトルS1a、S1bに対して所定の角度範囲以上異なる単一の法線ベクトルS2から構成されるプリミティブ面のオブジェクトデータにて構成していてもよい。   In the method of the present embodiment, as shown in FIG. 5, when the first object is data composed of a plurality of primitive surfaces having different normals, the second object is at least one of the primitive surfaces. May be configured by primitive surface object data composed of a single normal vector S2 that differs by a predetermined angle range or more with respect to the normal vectors S1a and S1b.

通常、複数のプリミティブ面によって構成されるオブジェクトの裏側から、仮想カメラにて当該オブジェクトを観察した場合に、当該複雑な形状を描画する必要がないことも多いからである。これにより、この画像生成システムは、複雑な形状として認識されるオブジェクトに対しても、少ないデータによって仮想カメラの視線方向に応じて透明度が変化するオブジェクトを描画することができるとともに、仮想カメラが第2オブジェクト側に設定された場合には、描画判定処理の対象となる法線ベクトルの数が少なくなるので、当該描画判定処理の負担が軽減される。   This is because there is often no need to draw the complicated shape when the object is observed with a virtual camera from the back side of the object constituted by a plurality of primitive surfaces. As a result, this image generation system can draw an object whose transparency changes according to the line-of-sight direction of the virtual camera with a small amount of data even for an object recognized as a complicated shape. When set on the two object side, the number of normal vectors to be subjected to the drawing determination process is reduced, so that the burden of the drawing determination process is reduced.

また、第1オブジェクトおよび第2オブジェクトにて設定されるオブジェクトは、上述の壁のオブジェクトなどのオブジェクト空間上に固定されるオブジェクトと異なり、当該オブジェクト空間上を移動するオブジェクト(移動体オブジェクト)であってもよい。この場合には、第1オブジェクトおよび第2オブジェクトは、移動・動作処理部112によってそれぞれのオブジェクト空間上における位置が算出されるようになっている。   In addition, the object set in the first object and the second object is an object (moving body object) that moves in the object space, unlike an object that is fixed in the object space such as the above-mentioned wall object. May be. In this case, the positions of the first object and the second object in the object space are calculated by the movement / motion processing unit 112.

また、本実施形態では、少なくとも注視点が設定されるキャラクタなどの注視対象のオブジェクトと仮想カメラとの間に設定される可能性のあるオブジェクトに対してのみ、第1オブジェクトと第2オブジェクトが設定されていればよく、メインキャラクタなどの注視点が固定的に設定されるキャラクタが存在しても、または、存在しなくても、本発明を適用することが可能である。   In the present embodiment, the first object and the second object are set only for an object that may be set between a gaze target object such as a character for which a gaze point is set and a virtual camera. The present invention can be applied even if a character such as a main character with a fixed gaze point is present or not.

また、本実施形態では、一のオブジェクトに対して第1オブジェクトおよび第2オブジェクトの2のオブジェクトを設定する場合について説明したが、勿論、一のオブジェクトに対して3以上のオブジェクトを設定することも可能である。   In the present embodiment, the case where two objects of the first object and the second object are set for one object has been described. Of course, three or more objects may be set for one object. Is possible.

3.本実施形態の処理
次に、図6を用いて本実施形態の画像生成システムにおけるオブジェクトを描画する際の詳細な処理例について説明する。なお、図6は、本実施形態の画像生成システムにおけるオブジェクトを描画する際の動作を示すフローチャートである。
3. Processing of the Present Embodiment Next, a detailed processing example when drawing an object in the image generation system of the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing an operation when drawing an object in the image generation system of this embodiment.

以下の処理については、壁オブジェクトなどのオブジェクト空間上に固定されるオブジェクトを用いて説明する。   The following processing will be described using an object fixed on an object space such as a wall object.

まず、オブジェクトデータやテクスチャデータなど、画像生成に使用するオブジェクトに関する各種のデータを読み出してRAMあるいはVRAMに転送する(ステップS1)。特に、注視点が設定されるキャラクタなどの注視対象のオブジェクトと仮想カメラとの間に設定される可能性のあるオブジェクトについては、第1オブジェクトデータおよび第2オブジェクトデータと、それぞれに対応するテクスチャと、をRAMあるいはVRAMに転送する。   First, various data relating to an object used for image generation, such as object data and texture data, are read and transferred to the RAM or VRAM (step S1). In particular, for an object that may be set between a gaze target object such as a character for which a gaze point is set and a virtual camera, the first object data and the second object data, and the texture corresponding to each of the first object data and the second object data Are transferred to the RAM or VRAM.

次いで、各オブジェクトをオブジェクト空間に設定する(ステップS2)。特に、視点が設定されるキャラクタなどの注視対象のオブジェクトと仮想カメラとの間に設定される可能性のあるオブジェクトについては、第1オブジェクトデータおよび第2オブジェクトデータに基づいて、第1オブジェクトおよび第2オブジェクトをそれぞれオブジェクト空間に設定する。   Next, each object is set in the object space (step S2). In particular, for an object that may be set between a gaze target object such as a character for which a viewpoint is set and a virtual camera, the first object and the second object data are based on the first object data and the second object data. Two objects are set in the object space.

次いで、操作部などからの指示データに基づいて、画像を生成する際の基準となる仮想カメラの位置が決定されると、当該仮想カメラの視線方向を基準に各オブジェクト毎に視線ベクトルと法線ベクトルの内積を演算するとともに、当該視線ベクトルと法線ベクトルとによって構成される角度が第1の角度範囲内か第2の角度範囲内かを判定し、描画対象となるオブジェクトの面を判定する(ステップS3)。   Next, when the position of the virtual camera serving as a reference when generating an image is determined based on the instruction data from the operation unit or the like, the line-of-sight vector and the normal line for each object based on the line-of-sight direction of the virtual camera Calculates the inner product of the vectors, determines whether the angle formed by the line-of-sight vector and the normal vector is within the first angle range or the second angle range, and determines the surface of the object to be drawn (Step S3).

具体的には、視線ベクトルと法線ベクトルとによって構成される角度が所定の第1の角度範囲内の場合には、描画対象の面と判定し、視線ベクトルと法線ベクトルとによって構成される角度が第2の角度範囲内の場合には、描画対象でない面と判定する。特に、注視点が設定されるキャラクタなどの注視対象のオブジェクトと仮想カメラとの間に設定される可能性のあるオブジェクトについては、結果的に、第1オブジェクトおよび第2オブジェクトの何れか一方のオブジェクトの面を、選択的に描画対象の面と判定する。   Specifically, when the angle formed by the line-of-sight vector and the normal line vector is within the predetermined first angle range, the surface is determined to be a drawing target and is formed by the line-of-sight vector and the normal vector. When the angle is within the second angle range, it is determined that the surface is not a drawing target. In particular, with respect to an object that may be set between a gaze target object such as a character for which a gazing point is set and a virtual camera, as a result, one of the first object and the second object. Is selectively determined as a drawing target surface.

次いで、ステップS2の処理において描画対象と判定された面(オブジェクトのプリミティブ)を、テクスチャマッピング処理を行いつつ、描画して画像を生成する(ステップS4)。特に、第2オブジェクトデータによってオブジェクトを描画する際には、第1オブジェクトと同一の色または模様のテクスチャに基づいてテクスチャマッピングを行いつつ、当該オブジェクトの面を描画する。   Next, the surface (object primitive) determined as the drawing target in the process of step S2 is drawn while performing the texture mapping process to generate an image (step S4). In particular, when drawing an object with the second object data, the surface of the object is drawn while performing texture mapping based on the texture of the same color or pattern as the first object.

4.ハードウェア構成
次に、図7を用いて本実施形態を実現できるハードウェア構成について説明する。なお、図7は、本実施形態を実現できるハードウェア構成を示す一例である。
4). Hardware Configuration Next, a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. FIG. 7 is an example of a hardware configuration that can realize this embodiment.

メインプロセッサ900は、CD982(情報記憶媒体。CDでもよい。)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。   The main processor 900 operates based on a program stored in a CD 982 (information storage medium, which may be a CD), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like. Perform processing, sound processing, etc.

コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えば、オブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。   The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is necessary for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture.

また、この描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 also performs α blending (translucent processing), depth queuing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950には、システムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950.

RAM960は、各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The RAM 960 serves as a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The CD drive 980 accesses a CD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお、本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. May be. Alternatively, it may be realized by both hardware and a program.

そして、本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each unit of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each unit of this embodiment is stored in the information storage medium. . More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

また、本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語(プリミティブ面等)として引用された用語(ポリゴン等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   Further, the present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms (polygons, etc.) cited as broad or synonymous terms (primitive surfaces, etc.) in the description or drawings are replaced with broad or synonymous terms in the other descriptions or drawings. Can do.

また、判定処理および描画処理は、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含むことができる。   Further, the determination process and the drawing process are not limited to those described in this embodiment, and techniques equivalent to these can also be included in the scope of the present invention.

また、本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 本実施形態の手法を説明するための図であり、第1オブジェクト第2オブジェクトが設定されたオブジェクト空間における仮想カメラと注視対象の関係を示す図。It is a figure for demonstrating the method of this embodiment, and is a figure which shows the relationship between the virtual camera and gaze target in the object space in which the 1st object 2nd object was set. 本実施形態の手法を説明するための図であり、仮想カメラにおいて描画される壁の一部(ドア)の法線ベクトルの向き示す図。It is a figure for demonstrating the method of this embodiment, and is a figure which shows direction of the normal vector of a part of wall (door) drawn in a virtual camera. 本実施形態の手法を説明するための図であり、注視点が設定されるオブジェクトのサイズと第2オブジェクトのサイズの関係を示す図。It is a figure for demonstrating the method of this embodiment, and is a figure which shows the relationship between the size of the object in which a gaze point is set, and the size of a 2nd object. 本実施形態の手法を説明するための図であり、第1オブジェクトが法線ベクトルの異なるプリミティブ面に対する第2オブジェクトの例を示す図。It is a figure for demonstrating the method of this embodiment, and is a figure which shows the example of the 2nd object with respect to the primitive surface from which a 1st object differs in a normal vector. 本実施形態の処理の詳細例。The detailed example of the process of this embodiment. ハードウェアの構成例。Hardware configuration example.

符号の説明Explanation of symbols

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、120 画像生成部、121 描画対象判定部、
122 αブレンディング部、123 テクスチャマッピング部、130 音生成部、
160 操作部、170 記憶部、172 フレームバッファ、
173 オブジェクトデータ記憶部、174 テクスチャ記憶部、
176 Zバッファ176、180 情報記憶媒体、190 表示部、
192 音出力部、194 携帯型情報記憶装置、196 通信部
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 120 image generation unit, 121 drawing target determination unit,
122 α blending unit, 123 texture mapping unit, 130 sound generation unit,
160 operation unit, 170 storage unit, 172 frame buffer,
173 Object data storage unit, 174 Texture storage unit,
176 Z buffer 176, 180 information storage medium, 190 display unit,
192 sound output unit, 194 portable information storage device, 196 communication unit

Claims (9)

オブジェクト空間において仮想カメラから見える画像を生成するためのプログラムであって、
第1オブジェクトと、該第1オブジェクトに対応するとともに、透過可能に描画するための所定の透明度を有する第2オブジェクトとを、前記オブジェクト空間に設定するオブジェクト空間設定部と、
前記オブジェクト空間に設定された仮想カメラから見えるオブジェクトを描画する際に、前記仮想カメラの視線ベクトルとオブジェクトを構成する面の法線ベクトルとのなす角度に応じて、オブジェクトを構成する面について描画対象としての適否を判定する描画対象判定部と、
前記描画対象と判定された面のみを描画して画像を生成する画像生成部として、コンピュータを機能させ、
前記第1オブジェクトを構成する面の法線ベクトルと前記第2オブジェクトを構成する面の法線ベクトルとは、一方の法線ベクトルと仮想カメラの視線ベクトルとのなす角度が当該仮想カメラからオブジェクトが観察可能な第1の角度範囲に属する場合に、他方の法線ベクトルと視線ベクトルとのなす角度が当該仮想カメラからオブジェクトが観察不能な第2の角度範囲に属する関係を有し、
前記描画対象判定部が、
前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第1の角度範囲内である面を描画対象とし、前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第2の角度範囲内である面を描画対象としない処理を行うことを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
An object space setting unit that sets a first object and a second object corresponding to the first object and having a predetermined transparency for rendering transparently, in the object space;
When drawing an object that can be seen from a virtual camera set in the object space, a drawing target for a surface constituting the object according to an angle formed by a line-of-sight vector of the virtual camera and a normal vector of the surface constituting the object A drawing target determination unit that determines suitability as
As an image generation unit that draws only the surface determined to be the drawing target and generates an image, the computer functions.
The normal vector of the surface that constitutes the first object and the normal vector of the surface that constitutes the second object are such that the angle formed by one normal vector and the line-of-sight vector of the virtual camera is from the virtual camera to the object. When belonging to the first observable angle range, the angle formed by the other normal vector and the line-of-sight vector has a relationship belonging to the second angle range in which the object cannot be observed from the virtual camera ,
The drawing target determination unit
A surface whose normal vector angle with respect to the visual vector of the virtual camera is within the first angle range is a drawing target, and the angle of the normal vector with respect to the visual vector of the virtual camera is within the second angle range. A program characterized by performing processing that does not target a surface.
請求項1において、
オブジェクトに対してテクスチャマッピングを行うテクスチャマッピング部として前記コンピュータを機能させ、
前記テクスチャマッピング部が、
前記第2オブジェクを描画する際に、前記第1オブジェクトにマッピングされるテクスチャと同一の色または模様の少なくとも何れか一方のテクスチャを第2オブジェクトにマッピングすることを特徴とするプログラム。
In claim 1,
Causing the computer to function as a texture mapping unit that performs texture mapping on an object;
The texture mapping unit is
A program characterized by mapping at least one texture of the same color or pattern as a texture mapped to the first object to the second object when drawing the second object.
請求項1または2において、
前記第2オブジェクトのサイズが前記第1オブジェクのサイズより小さく設定されていることを特徴とするプログラム。
In claim 1 or 2,
A program characterized in that the size of the second object is set smaller than the size of the first object.
請求項3において、
前記オブジェクト空間設定部が、
前記仮想カメラにおける注視点が設定される第3オブジェクトのサイズが変化する場合に、前記第3オブジェクトのサイズに応じて、前記オブジェクト空間におけるオブジェクトのサイズを替えて前記第2オブジェクトを設定することを特徴とするプログラム。
In claim 3,
The object space setting unit
Setting the second object by changing the size of the object in the object space in accordance with the size of the third object when the size of the third object on which the point of interest in the virtual camera is set changes. A featured program.
請求項4において、
前記オブジェクト空間設定部が、
前記第1オブジェクトが、法線ベクトルの異なる複数の面から構成されており、該第1オブジェクトを構成する各面の法線ベクトルが前記視線ベクトルに対して第1の角度範囲に属する場合に、該視線ベクトルと前記第2の角度範囲に属する法線ベクトルを有する単一の面にて構成されている第2オブジェクトを前記オブジェクト空間に設定することを特徴とするプログラム。
In claim 4,
The object space setting unit
When the first object is composed of a plurality of surfaces having different normal vectors, and the normal vector of each surface constituting the first object belongs to a first angle range with respect to the line-of-sight vector, A program characterized in that a second object composed of a single plane having the line-of-sight vector and a normal vector belonging to the second angle range is set in the object space.
コンピュータに読み取り可能な情報記憶媒体であって、請求項1〜5のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   An information storage medium readable by a computer, wherein the program according to any one of claims 1 to 5 is stored. オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、
第1オブジェクトと、該第1オブジェクトに対応するとともに、透過可能に描画するための所定の透明度を有する第2オブジェクトとを、前記オブジェクト空間に設定するオブジェクト空間設定部と、
前記オブジェクト空間に設定された仮想カメラから見えるオブジェクトを描画する際に、前記仮想カメラの視線ベクトルとオブジェクトを構成する面の法線ベクトルとのなす角度に応じて、オブジェクトを構成する面について描画対象としての適否を判定する描画対象判定部と、
前記描画対象と判定された面のみを描画して画像を生成する画像生成部と、
を含み、
前記第1オブジェクトを構成する面の法線ベクトルと前記第2オブジェクトを構成する面の法線ベクトルとは、一方の法線ベクトルと仮想カメラの視線ベクトルとのなす角度が当該仮想カメラからオブジェクトが観察可能な第1の角度範囲に属する場合に、他方の法線ベクトルと視線ベクトルとのなす角度が当該仮想カメラからオブジェクトが観察不能な第2の角度範囲に属する関係を有し、
前記描画対象判定部が、
前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第1の角度範囲内である面を描画対象とし、前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第2の角度範囲内である面を描画対象としない処理を行うことを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
An object space setting unit that sets a first object and a second object corresponding to the first object and having a predetermined transparency for rendering transparently, in the object space;
When drawing an object that can be seen from a virtual camera set in the object space, a drawing target for a surface constituting the object according to an angle formed by a line-of-sight vector of the virtual camera and a normal vector of the surface constituting the object A drawing target determination unit that determines suitability as
An image generation unit that generates an image by drawing only the surface determined to be the drawing target;
Including
The normal vector of the surface that constitutes the first object and the normal vector of the surface that constitutes the second object are such that the angle formed by one normal vector and the line-of-sight vector of the virtual camera is from the virtual camera to the object. When belonging to the first observable angle range, the angle formed by the other normal vector and the line-of-sight vector has a relationship belonging to the second angle range in which the object cannot be observed from the virtual camera ,
The drawing target determination unit
A surface whose normal vector angle with respect to the visual vector of the virtual camera is within the first angle range is a drawing target, and the angle of the normal vector with respect to the visual vector of the virtual camera is within the second angle range. An image generation system that performs processing that does not target a surface for drawing.
オブジェクト空間において仮想カメラから見える画像を生成するためのプログラムであって、  A program for generating an image visible from a virtual camera in an object space,
第1オブジェクトと、該第1オブジェクトに対応するとともに、透過可能に描画するための所定の透明度を有する第2オブジェクトとを、前記オブジェクト空間に設定するオブジェクト空間設定部と、  An object space setting unit that sets a first object and a second object corresponding to the first object and having a predetermined transparency for rendering transparently, in the object space;
前記オブジェクト空間に設定された仮想カメラから見えるオブジェクトを描画する際に、前記仮想カメラの視線ベクトルとオブジェクトを構成する面の法線ベクトルとのなす角度に応じて、オブジェクトを構成する面について描画対象としての適否を判定する描画対象判定部と、  When drawing an object that can be seen from a virtual camera set in the object space, a drawing target for a surface constituting the object according to an angle formed by a line-of-sight vector of the virtual camera and a normal vector of the surface constituting the object A drawing target determination unit that determines suitability as
前記描画対象と判定された面のみを描画して画像を生成する画像生成部として、コンピュータを機能させ、  As an image generation unit that draws only the surface determined to be the drawing target and generates an image, the computer functions.
前記第1オブジェクトを構成する面の法線ベクトルと前記第2オブジェクトを構成する面の法線ベクトルとは、一方の法線ベクトルと仮想カメラの視線ベクトルとのなす角度が180度±90度の範囲である第1の角度範囲に属する場合に、他方の法線ベクトルと視線ベクトルとのなす角度が180度±90度の範囲外である第2の角度範囲に属する関係を有し、  The normal vector of the surface that constitutes the first object and the normal vector of the surface that constitutes the second object have an angle between one normal vector and the line-of-sight vector of the virtual camera of 180 ° ± 90 °. A first angle range that is a range, the angle formed by the other normal vector and the line-of-sight vector has a relationship that belongs to a second angle range that is outside the range of 180 degrees ± 90 degrees;
前記描画対象判定部が、  The drawing target determination unit
前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第1の角度範囲内である面を描画対象とし、前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第2の角度範囲内である面を描画対象としない処理を行うことを特徴とするプログラム。  A surface whose normal vector angle with respect to the visual vector of the virtual camera is within the first angle range is a drawing target, and the angle of the normal vector with respect to the visual vector of the virtual camera is within the second angle range. A program characterized by performing processing that does not target a surface.
オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、An image generation system for generating an image visible from a virtual camera in an object space,
第1オブジェクトと、該第1オブジェクトに対応するとともに、透過可能に描画するための所定の透明度を有する第2オブジェクトとを、前記オブジェクト空間に設定するオブジェクト空間設定部と、  An object space setting unit that sets a first object and a second object corresponding to the first object and having a predetermined transparency for rendering transparently, in the object space;
前記オブジェクト空間に設定された仮想カメラから見えるオブジェクトを描画する際に、前記仮想カメラの視線ベクトルとオブジェクトを構成する面の法線ベクトルとのなす角度に応じて、オブジェクトを構成する面について描画対象としての適否を判定する描画対象判定部と、  When drawing an object that can be seen from a virtual camera set in the object space, a drawing target for a surface constituting the object according to an angle formed by a line-of-sight vector of the virtual camera and a normal vector of the surface constituting the object A drawing target determination unit that determines suitability as
前記描画対象と判定された面のみを描画して画像を生成する画像生成部と、  An image generation unit that generates an image by drawing only the surface determined to be the drawing target;
を含み、  Including
前記第1オブジェクトを構成する面の法線ベクトルと前記第2オブジェクトを構成する面の法線ベクトルとは、一方の法線ベクトルと仮想カメラの視線ベクトルとのなす角度が180度±90度の範囲である第1の角度範囲に属する場合に、他方の法線ベクトルと視線ベクトルとのなす角度が当該仮想カメラからオブジェクトが180度±90度の範囲外である第2の角度範囲に属する関係を有し、  The normal vector of the surface that constitutes the first object and the normal vector of the surface that constitutes the second object have an angle between one normal vector and the line-of-sight vector of the virtual camera of 180 ° ± 90 °. In the case of belonging to the first angle range that is a range, the relationship between the other normal vector and the line-of-sight vector belongs to the second angle range in which the object is outside the range of 180 ° ± 90 ° from the virtual camera Have
前記描画対象判定部が、  The drawing target determination unit
前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第1の角度範囲内である面を描画対象とし、前記仮想カメラの視線ベクトルに対する法線ベクトルの角度が前記第2の角度範囲内である面を描画対象としない処理を行うことを特徴とする画像生成システム。  A surface whose normal vector angle with respect to the visual vector of the virtual camera is within the first angle range is a drawing target, and the angle of the normal vector with respect to the visual vector of the virtual camera is within the second angle range. An image generation system that performs processing that does not target a surface for drawing.
JP2005361327A 2005-12-15 2005-12-15 Program, information recording medium, and image generation system Active JP4717622B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005361327A JP4717622B2 (en) 2005-12-15 2005-12-15 Program, information recording medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005361327A JP4717622B2 (en) 2005-12-15 2005-12-15 Program, information recording medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2007164557A JP2007164557A (en) 2007-06-28
JP4717622B2 true JP4717622B2 (en) 2011-07-06

Family

ID=38247361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005361327A Active JP4717622B2 (en) 2005-12-15 2005-12-15 Program, information recording medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4717622B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947130B2 (en) 2008-01-23 2018-04-17 Intel Corporation Method, apparatus, and computer program product for improved graphics performance
JP5430456B2 (en) * 2010-03-16 2014-02-26 キヤノン株式会社 Geometric feature extraction device, geometric feature extraction method, program, three-dimensional measurement device, object recognition device
JP5677050B2 (en) * 2010-11-26 2015-02-25 株式会社カプコン GAME PROGRAM AND GAME DEVICE
US20140022273A1 (en) * 2011-10-18 2014-01-23 Kiril Vidimce Surface Based Graphics Processing
JP2016093362A (en) * 2014-11-14 2016-05-26 株式会社コロプラ Control program of virtual camera within game space, and game system
JP6122047B2 (en) * 2015-02-10 2017-04-26 株式会社カプコン GAME PROGRAM AND GAME DEVICE
JP7097125B1 (en) 2021-12-22 2022-07-07 株式会社セルシス Video generation method and image generation program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10214337A (en) * 1997-01-28 1998-08-11 Namco Ltd Picture forming device
JP2000331195A (en) * 1999-05-19 2000-11-30 Nec Corp Three-dimensional display method and device and recording medium stored with three-dimensional display program
JP3141737B2 (en) * 1995-08-10 2001-03-05 株式会社セガ Virtual image generation apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3141737B2 (en) * 1995-08-10 2001-03-05 株式会社セガ Virtual image generation apparatus and method
JPH10214337A (en) * 1997-01-28 1998-08-11 Namco Ltd Picture forming device
JP2000331195A (en) * 1999-05-19 2000-11-30 Nec Corp Three-dimensional display method and device and recording medium stored with three-dimensional display program

Also Published As

Publication number Publication date
JP2007164557A (en) 2007-06-28

Similar Documents

Publication Publication Date Title
JP4717622B2 (en) Program, information recording medium, and image generation system
US7479961B2 (en) Program, information storage medium, and image generation system
JP4728721B2 (en) Program, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP2007140842A (en) Program, information storage medium, and image generation system
JP3748451B1 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP2009169471A (en) Program, information storage medium, and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4229317B2 (en) Image generation system, program, and information storage medium
JP2011215724A (en) Program, information storage medium, and image generation system
JP4754385B2 (en) Program, information recording medium, and image generation system
JP4592087B2 (en) Image generation system, program, and information storage medium
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2010231364A (en) Image generation system, program and information recording medium
JP2010033253A (en) Program, information storage medium, and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2006252291A (en) Program, information storage medium and image generation system
JP4680670B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110330

R150 Certificate of patent or registration of utility model

Ref document number: 4717622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250