JP2009301309A - Image processing program, image processor, and image control method - Google Patents

Image processing program, image processor, and image control method Download PDF

Info

Publication number
JP2009301309A
JP2009301309A JP2008154825A JP2008154825A JP2009301309A JP 2009301309 A JP2009301309 A JP 2009301309A JP 2008154825 A JP2008154825 A JP 2008154825A JP 2008154825 A JP2008154825 A JP 2008154825A JP 2009301309 A JP2009301309 A JP 2009301309A
Authority
JP
Japan
Prior art keywords
polygon
image
reflected
virtual camera
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008154825A
Other languages
Japanese (ja)
Other versions
JP4714763B2 (en
Inventor
Shigeki Hayashi
茂樹 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2008154825A priority Critical patent/JP4714763B2/en
Publication of JP2009301309A publication Critical patent/JP2009301309A/en
Application granted granted Critical
Publication of JP4714763B2 publication Critical patent/JP4714763B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display a video to be projected on an object surface at an image display part with expressions with reality. <P>SOLUTION: This image processing program includes extracting at least one portion of texture data TG for a projection image based on the position of a virtual camera C and a gazing point PG0 of the virtual camera C. Then, the extracted texture data for the projection image are projected to a polygon P2 for the projection image. Thus, a polygon model PM2 for the projection image inside a polygon model PM1 for an object is generated. Then, the polygon model PM2 for the projection image inside the polygon model PM1 for the object is photographed by the virtual camera C from the outside of the polygon model PM1 for the object through the transparent section of the polygon model PM1 for the object. Then, the object and the image projected on the object surface are displayed at an image display part 3. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理プログラム、特に、オブジェクトを画像表示部に表示するためのデータを処理する画像処理プログラムに関する。また、この画像処理プログラムを実行可能な画像処理装置、およびこの画像処理プログラムに基づいてコンピュータにより制御される画像制御方法に関する。   The present invention relates to an image processing program, and more particularly to an image processing program for processing data for displaying an object on an image display unit. The present invention also relates to an image processing apparatus capable of executing the image processing program, and an image control method controlled by a computer based on the image processing program.

従来から、オブジェクトをモニタに表示するための様々な表示技術が提案されている。特に、近年では、コンピュータの性能の向上に伴い、できるだけリアリティのあるオブジェクトをモニタに表示する試みがなされるようになってきた。   Conventionally, various display techniques for displaying an object on a monitor have been proposed. In particular, in recent years, with the improvement of computer performance, attempts have been made to display as realistic objects as possible on a monitor.

たとえば、シミュレーションゲームや対戦ゲーム等において、建物のようなオブジェクトをモニタに表示する場合、建物の質感を向上したり建物の窓に映る景色を表現したりすることにより、リアリティのある建物が再現されていた(非特許文献1を参照)。   For example, in a simulation game or a battle game, when an object like a building is displayed on a monitor, a realistic building is reproduced by improving the texture of the building or expressing the scenery reflected in the building window. (See Non-Patent Document 1).

ここで、建物の質感を向上する例としては、たとえば、テクスチャの解像度を高くしたりポリゴン数を増やしたりする方法がある。また、建物の窓に映る景色を表現する例としては、たとえば、建物の前の景色用の画像を建物の窓に貼り付ける方法がある。このように、建物の質感を向上したり建物の窓に映る景色を表現したりすることによって、リアリティのある建物が、モニタに表示され再現されていた。
プロ野球スピリッツ3、コナミデジタルエンタテインメント、PS2版、2006年4月6日
Here, as an example of improving the texture of a building, for example, there is a method of increasing the resolution of the texture or increasing the number of polygons. Moreover, as an example of expressing the scenery reflected in the building window, for example, there is a method of pasting an image for the scenery in front of the building on the building window. In this way, by improving the texture of the building or expressing the scenery reflected in the building window, a realistic building was displayed and reproduced on the monitor.
Professional baseball spirits 3, Konami Digital Entertainment, PS2 version, April 6, 2006

従来のゲームでは、建物のようなオブジェクトをモニタに表示する場合、建物の質感を向上したり建物の窓に映る景色を表現したりすることにより、リアリティのある建物を再現していた。ところで、近年、都市部等では、壁面のほぼ全面をガラス張りとすることによって、外部の景色や他の建物が壁面全体に映りこむようなビルや建築物が見られる。このようなビルをゲーム等の仮想空間上に再現する場合は、建物の窓に映る景色を表現しない場合または単に一つの窓に外部の景色を映す場合と比較すると、よりリアリティのある建物を表示することができる。しかしながら、従来のゲームでは、このような壁面全体に外部の景色が反映され得るビルや建物を再現する場合であっても、建物の前の景色を単に建物の窓や壁面に対応する箇所に貼り付けているだけなので、カメラの位置が移動して建物を見る角度が変わっても、建物の窓や壁面に映る景色が変化しないという問題点があった。また、カメラの位置が移動して建物を見る角度が変わったときの視差の影響を、建物の窓に映る景色に反映することが難しいという問題点があった。さらに、建物の外壁の反射や建物の窓の反射等を、適切に再現することができないという問題点もあった。   In a conventional game, when an object such as a building is displayed on a monitor, a realistic building is reproduced by improving the texture of the building or expressing the scenery reflected in the building window. By the way, in recent years, in urban areas and the like, buildings and buildings in which external scenery and other buildings are reflected on the entire wall surface can be seen by glazing almost the entire wall surface. When such a building is reproduced in a virtual space such as a game, a more realistic building is displayed compared to the case where the scenery reflected in the building window is not expressed or the external scenery is simply reflected in one window. can do. However, in the conventional game, even when reproducing a building or building that can reflect the outside scenery on the entire wall surface, the scenery in front of the building is simply pasted on the place corresponding to the window or wall surface of the building. Since the camera was moved and the angle of viewing the building changed, there was a problem that the scenery reflected on the windows and walls of the building did not change. In addition, there is a problem in that it is difficult to reflect the influence of parallax when the position of the camera moves and the angle at which the building is viewed changes in the scenery reflected in the window of the building. Furthermore, there has been a problem that the reflection of the outer wall of the building and the reflection of the window of the building cannot be reproduced properly.

本発明は、このような問題に鑑みてなされたものであり、本発明の目的は、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することにある。   The present invention has been made in view of such problems, and an object of the present invention is to display an image reflected on the surface of an object on an image display unit in a realistic expression.

請求項1に係る画像処理プログラムは、オブジェクトを画像表示部に表示するためのデータを処理するためのものである。この画像処理プログラムでは、以下の機能が実現される。
(1)オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納機能。
(2)オブジェクト表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納機能。
(3)オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置機能。
(4)オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、映り込み画像用のポリゴンをオブジェクト用のポリゴンの内部に配置する第2ポリゴン配置機能。
(5)オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置機能。
(6)仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置機能。
(7)仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定機能。
(8)オブジェクト用のテクスチャデータをオブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成機能。
(9)抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成機能。
(10)オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、オブジェクトとオブジェクト表面に映る画像とを画像表示部に表示する画像表示機能。
An image processing program according to claim 1 is for processing data for displaying an object on an image display unit. In this image processing program, the following functions are realized.
(1) A first texture storage function for storing texture data for an object in the storage unit.
(2) A second texture storage function for storing the texture data for the reflected image corresponding to the image that can virtually appear on the object surface in the storage unit.
(3) A first polygon placement function for placing the object polygon in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the object polygon.
(4) By causing the control unit to recognize coordinate data for defining the arrangement position of the polygon for the reflected image inside the polygon for the object, the polygon for the reflected image is arranged inside the polygon for the object. Second polygon placement function.
(5) A camera placement function for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera outside the polygon for the object.
(6) A gaze point arrangement function for arranging the gaze point of the virtual camera in the virtual space by causing the control unit to recognize coordinate data corresponding to the gaze point of the virtual camera.
(7) Based on the position of the virtual camera and the position of the gazing point of the virtual camera, by causing the control unit to execute a process of extracting at least a part of the texture data for the reflected image, the image displayed on the object surface Texture determination function that determines the texture.
(8) A first polygon generation function for generating a polygon model for an object that is at least partially transparent by causing the control unit to execute a process of projecting the texture data for the object onto the object polygon.
(9) A second polygon generation function for generating a polygon model for a reflected image by causing the control unit to execute a process of projecting the extracted texture data for the reflected image onto the polygon for the reflected image.
(10) The control unit executes a process of photographing the polygon model for the reflected image inside the polygon model for the object with the virtual camera from the outside of the polygon model for the object through the transparent part of the polygon model for the object. An image display function for displaying an object and an image reflected on the object surface on the image display unit.

この画像処理プログラムでは、第1テクスチャ格納機能において、オブジェクト用のテクスチャデータが、記憶部に格納される。第2テクスチャ格納機能においては、オブジェクト表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータが、記憶部に格納される。   In this image processing program, texture data for an object is stored in the storage unit in the first texture storage function. In the second texture storage function, the texture data for the reflected image corresponding to the image that can virtually appear on the object surface is stored in the storage unit.

第1ポリゴン配置機能においては、オブジェクト用のポリゴンの配置位置を規定するための座標データが、制御部に認識される。これにより、オブジェクト用のポリゴンが、仮想空間に配置される。第2ポリゴン配置機能においては、オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データが、制御部に認識される。これにより、映り込み画像用のポリゴンが、オブジェクト用のポリゴンの内部に配置される。カメラ配置機能においては、オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データが、制御部に認識される。これにより、仮想カメラが、仮想空間に配置される。注視点配置機能においては、仮想カメラの注視点に対応する座標データが、制御部に認識される。これにより、仮想カメラの注視点が、仮想空間に配置される。   In the first polygon arrangement function, coordinate data for defining the arrangement position of the polygon for the object is recognized by the control unit. Thereby, the polygon for the object is arranged in the virtual space. In the second polygon arrangement function, the coordinate data for defining the arrangement position of the polygon for the reflected image inside the polygon for the object is recognized by the control unit. As a result, the polygon for the reflected image is arranged inside the polygon for the object. In the camera placement function, coordinate data for defining the placement position of the virtual camera outside the polygon for the object is recognized by the control unit. Thereby, the virtual camera is arranged in the virtual space. In the gazing point arrangement function, coordinate data corresponding to the gazing point of the virtual camera is recognized by the control unit. Thereby, the gazing point of the virtual camera is arranged in the virtual space.

テクスチャ決定機能においては、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理が、制御部により実行される。これにより、オブジェクト表面に映る画像のテクスチャが、決定される。第1ポリゴン生成機能においては、オブジェクト用のテクスチャデータをオブジェクト用のポリゴンに投影する処理が、制御部により実行される。これにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルが、生成される。第2ポリゴン生成機能においては、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理が、制御部により実行される。これにより、映り込み画像用のポリゴンモデルが、生成される。   In the texture determination function, processing for extracting at least part of the texture data for the reflected image is executed by the control unit based on the position of the virtual camera and the position of the gazing point of the virtual camera. Thereby, the texture of the image reflected on the object surface is determined. In the first polygon generation function, a process of projecting object texture data onto an object polygon is executed by the control unit. Thereby, a polygon model for an object at least partially transparent is generated. In the second polygon generation function, a process of projecting the extracted reflected image texture data onto the reflected image polygon is executed by the control unit. Thereby, a polygon model for a reflected image is generated.

画像表示機能においては、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理が、制御部により実行される。これにより、オブジェクトとオブジェクト表面に映る画像とが、画像表示部に表示される。   In the image display function, the process of photographing the polygon model for the reflected image inside the polygon model for the object with the virtual camera from the outside of the polygon model for the object through the transparent portion of the polygon model for the object, It is executed by the control unit. Thereby, the object and the image reflected on the object surface are displayed on the image display unit.

この場合、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部が、抽出される。そして、抽出された映り込み画像用のテクスチャデータが、映り込み画像用のポリゴンに投影される。このようにして、オブジェクト表面に仮想的に映りうる画像からオブジェクト表面に映る画像の部分のテクスチャが決定され、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルが、生成される。そして、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルが、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影される。すると、オブジェクトとオブジェクト表面に映る画像とが、画像表示部に表示される。   In this case, at least a part of the texture data for the reflected image is extracted based on the position of the virtual camera and the position of the gazing point of the virtual camera. Then, the extracted texture data for the reflected image is projected onto the polygon for the reflected image. In this way, the texture of the portion of the image reflected on the object surface is determined from the image that can virtually appear on the object surface, and the polygon model for the reflected image inside the polygon model for the object is generated. Then, the polygon model for the reflected image inside the polygon model for the object is photographed by the virtual camera from the outside of the polygon model for the object through the transparent portion of the polygon model for the object. Then, the object and the image reflected on the object surface are displayed on the image display unit.

このように、請求項1に係る発明では、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影することにより、仮想カメラがオブジェクトを撮影する位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。   Thus, according to the first aspect of the present invention, the polygon model for the reflected image arranged inside the polygon model for the object is passed through the transparent portion of the polygon model for the object and the outside of the polygon model for the object. Since the image is captured by the virtual camera, different images (images reflected on the object surface) can be displayed on the image display unit depending on the position where the virtual camera captures the object.

ここで、上記のポリゴンモデルの透明な部分とは、ゲーム空間上においては、建物の窓やガラス等の鏡面からなる壁面等に相当する。つまり、内部処理的には、上記の通りポリゴンモデルの透明な部分を通して、その中の映り込み画像用のポリゴンモデルを仮想カメラから見ているのであるが、ゲーム空間上では、ポリゴンモデルの透明な部分を建物の窓や壁面に対応させて表現している。このために、その内部の映り込み画像用のポリゴンモデルが、あたかも建物の窓や壁面に映る外部の景色であるかのように、ゲームのプレイヤからは観察される。以上のことから、請求項1に係る発明では、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することができる。   Here, the transparent part of the polygon model corresponds to a wall surface made of a mirror surface such as a building window or glass in the game space. That is, in terms of internal processing, the polygon model for the reflected image is viewed from the virtual camera through the transparent part of the polygon model as described above, but in the game space, the polygon model is transparent. The part is expressed in correspondence with the windows and walls of the building. For this reason, the polygon model for the internal reflection image is observed by the game player as if it were an external scene reflected on the window or wall of the building. As described above, according to the first aspect of the present invention, an image reflected on the object surface can be displayed on the image display unit with a realistic expression.

さらに、請求項1によれば、建物の窓や壁面に映る画像が、移動する仮想カメラの視点(ゲーム内におけるキャラクタから見た視点等)に応じて変化する演出を、非常に低い処理負荷で実現できる。すなわち、単純に、従来の周知技術で仮想カメラの移動に伴って変化する建物の窓や壁面に映る画像を表現しようとした場合には、まず、仮想カメラの位置(座標)と建物を見る角度とから、反射画像を求めることになるが、その際、建物周囲の景色のうち、どの部分がどのように建物表面に反射するかを計算し、さらにその反射画像を建物表面に表示する作業が必要であるためにCPUには大きな負荷がかかる。加えて、仮想カメラは移動しているので、その移動に伴い、1フレーム毎に上記計算を繰り返し行う必要があり、CPUには膨大な負荷がかかるため、例えば一般にゲームに使用されるCPUでこの手法を採用するのは現実的ではない。この点、請求項1に係る手法によれば、上記のような膨大な計算は不要であり、CPUに加わる負荷を低く抑えながら、建物表面等に映り込む画像の変化を容易に実現することができる。   Furthermore, according to the first aspect, an effect in which an image reflected on a window or a wall of a building changes according to the viewpoint of the moving virtual camera (the viewpoint viewed from the character in the game) with a very low processing load. realizable. That is, when trying to express an image reflected on the window or wall of a building that changes with the movement of the virtual camera using the conventional well-known technology, first, the position (coordinates) of the virtual camera and the angle at which the building is viewed Therefore, it is necessary to calculate which part of the scenery around the building is reflected on the building surface and to display the reflected image on the building surface. The CPU is heavily loaded because it is necessary. In addition, since the virtual camera is moving, it is necessary to repeat the above calculation for each frame along with the movement, and the CPU is subjected to a huge load. Adopting a method is not practical. In this regard, according to the method according to claim 1, the enormous calculation as described above is unnecessary, and it is possible to easily realize the change of the image reflected on the building surface or the like while keeping the load applied to the CPU low. it can.

請求項2に係る画像処理プログラムでは、請求項1に記載の画像処理プログラムにおいて、オブジェクト用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令が制御部から発行された場合、移動後の仮想カメラの位置を示す座標データが、制御部に認識される。これにより、仮想カメラが仮想空間に配置される。また、移動後の仮想カメラの位置および仮想カメラの注視点の位置に応じて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理が、制御部により実行される。これにより、オブジェクト表面に映る画像のテクスチャが決定される。前者の機能は、カメラ配置機能において実現され、後者の機能は、テクスチャ決定機能において実現される。   In the image processing program according to claim 2, in the image processing program according to claim 1, when a camera movement command for moving the virtual camera outside the object polygon is issued from the control unit, Coordinate data indicating the position of the virtual camera is recognized by the control unit. Thereby, the virtual camera is arranged in the virtual space. In addition, processing for extracting at least a part of the texture data for the reflected image is executed by the control unit in accordance with the position of the virtual camera after movement and the position of the gazing point of the virtual camera. Thereby, the texture of the image reflected on the object surface is determined. The former function is realized in the camera placement function, and the latter function is realized in the texture determination function.

この場合、オブジェクト用のポリゴンの外部において、仮想カメラが移動させられる。そして、移動後の仮想カメラの位置に応じて、映り込み画像用のテクスチャデータの少なくとも一部が、抽出される。このように、請求項2に係る発明では、仮想カメラが移動したとしても、移動後の仮想カメラの位置から撮影を行うことにより、仮想カメラの位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。また、仮想カメラの位置に応じて異なる視差を、画像表示部に表示される画像において表現することができる。以上のことから、請求項2に係る発明では、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することができる。   In this case, the virtual camera is moved outside the object polygon. Then, at least a part of the texture data for the reflected image is extracted according to the position of the virtual camera after the movement. In this way, in the invention according to claim 2, even if the virtual camera moves, by taking an image from the position of the virtual camera after the movement, different images (images reflected on the object surface) depending on the position of the virtual camera. Can be displayed on the image display unit. Also, different parallax depending on the position of the virtual camera can be expressed in the image displayed on the image display unit. As described above, in the invention according to claim 2, an image reflected on the object surface can be displayed on the image display unit with a realistic expression.

請求項3に係る画像処理プログラムは、請求項1又は2に記載の画像処理プログラムにおいて、以下の機能をさらに実現させるためのプログラムである。
(11)オブジェクトのテクスチャデータの透明度を制御部に認識させることにより、オブジェクト表面に映る画像の映り込み度を設定する映り込み度設定機能。
An image processing program according to claim 3 is a program for further realizing the following functions in the image processing program according to claim 1 or 2.
(11) A reflection degree setting function for setting a reflection degree of an image reflected on the object surface by causing the control unit to recognize the transparency of the texture data of the object.

この画像処理プログラムでは、映り込み度設定機能において、オブジェクトのテクスチャデータの透明度が、制御部に認識される。これにより、オブジェクト表面に映る画像の映り込み度が設定される。   In this image processing program, the transparency of the texture data of the object is recognized by the control unit in the reflection degree setting function. Thereby, the reflection degree of the image shown on the object surface is set.

この場合、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルは、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影されるので、オブジェクト用のポリゴンモデルの透明な部分のテクスチャデータの透明度を制御部に認識させることにより、オブジェクト表面に映る画像の映り込みの程度を設定することができる。これにより、ゲーム空間内の例えばビルの窓部の汚れやくすみ、くもり等に起因する外部景色の映り込みの程度を変えることができる。つまり、窓部が汚れているような場合には外部の景色がきれいに映り込まない、といった演出を行うことができる。もし、窓部が複数あるビルの場合には、例えばその一枚だけを汚しておく、即ち、オブジェクト用のポリゴンモデルの透明な部分を複数設けた状態で、且つその一枚の透明度のみを低くするといった処理を行うことで、ゲーム空間上の建物に対して、見た目上の完全さを崩し、あえて現実世界の不完全さを加味することでよりリアリティに富む演出を行うことができる。このように、請求項3に係る発明では、オブジェクト表面に映る画像を、よりリアリティのある表現で、画像表示部に表示することができる。   In this case, the polygon model for the reflected image inside the polygon model for the object is photographed by the virtual camera from the outside of the polygon model for the object through the transparent portion of the polygon model for the object. By causing the control unit to recognize the transparency of the texture data of the transparent part of the polygon model, it is possible to set the degree of reflection of the image shown on the object surface. As a result, it is possible to change the degree of reflection of the external scenery caused by, for example, dirt, dullness, cloudiness, or the like in a building window in the game space. In other words, when the window is dirty, it is possible to produce an effect that the external scenery is not reflected beautifully. If the building has multiple windows, for example, only one of them will be soiled, that is, a state where a plurality of transparent parts of the polygon model for the object are provided, and only the transparency of that one sheet is lowered. By performing such processing, it is possible to produce a more realistic effect by destroying the visual perfection of the building in the game space and adding the imperfection of the real world. Thus, in the invention according to claim 3, the image reflected on the object surface can be displayed on the image display unit with a more realistic expression.

請求項4に係る画像処理プログラムは、請求項1から3のいずれかに記載の画像処理プログラムにおいて、以下の機能をさらに実現させるためのプログラムである。
(12)オブジェクト用のポリゴンの外部において光源の配置位置を規定するための座標データを、制御部に認識させることにより、光源を仮想空間に配置する光源配置機能。
(13)仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、オブジェクトのテクスチャデータの反射率を設定する処理を、制御部に実行させることにより、オブジェクト表面に映る画像に反射効果を付加する反射効果付加機能。
An image processing program according to claim 4 is a program for further realizing the following functions in the image processing program according to any one of claims 1 to 3.
(12) A light source arrangement function for arranging the light source in the virtual space by causing the control unit to recognize coordinate data for defining the arrangement position of the light source outside the polygon for the object.
(13) An image reflected on the object surface by causing the control unit to execute processing for setting the reflectance of the texture data of the object according to the position of the virtual camera, the position of the gazing point of the virtual camera, and the position of the light source Reflective effect adding function to add reflective effect to

この画像処理プログラムでは、光源配置機能において、オブジェクト用のポリゴンの外部において光源の配置位置を規定するための座標データが、制御部に認識される。これにより、光源が仮想空間に配置される。反射効果付加機能においては、仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、オブジェクトのテクスチャデータの反射率を設定する処理が、制御部により実行される。これにより、オブジェクト表面に映る画像に反射効果が付加される。   In this image processing program, in the light source arrangement function, coordinate data for defining the arrangement position of the light source outside the polygon for the object is recognized by the control unit. Thereby, a light source is arrange | positioned in virtual space. In the reflection effect addition function, a process of setting the reflectance of the texture data of the object according to the position of the virtual camera, the position of the gazing point of the virtual camera, and the position of the light source is executed by the control unit. Thereby, a reflection effect is added to the image reflected on the object surface.

この場合、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルは、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影されるので、仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、オブジェクトのテクスチャデータの反射率を制御部に設定させることにより、オブジェクト表面に映る画像に反射効果を付加することができる。このように、請求項4に係る発明では、オブジェクト表面に映る画像を、よりリアリティのある表現で、画像表示部に表示することができる。   In this case, the polygon model for the reflected image inside the polygon model for the object is photographed by the virtual camera from the outside of the polygon model for the object through the transparent portion of the polygon model for the object. By causing the control unit to set the reflectance of the texture data of the object according to the position, the position of the gazing point of the virtual camera, and the position of the light source, it is possible to add a reflection effect to the image reflected on the object surface. Thus, in the invention according to claim 4, an image reflected on the object surface can be displayed on the image display unit with a more realistic expression.

請求項5に係る画像処理プログラムでは、請求項1から4のいずれかに記載の画像処理プログラムにおいて、仮想カメラの位置を示す座標データおよび仮想カメラの注視点を示す座標データに基づいて、仮想カメラの視線角度を算出する処理が、制御部により実行される。そして、映り込み画像用のテクスチャデータが示す画像における、視線角度に対応する座標データが、制御部に認識される。これにより、視線角度に対応する座標データが示す位置を基準とした、オブジェクト表面に仮想的に映りうる画像からオブジェクト表面に映る画像のテクスチャが、抽出される。この機能は、テクスチャ決定機能において実現される。   The image processing program according to claim 5 is the image processing program according to any one of claims 1 to 4, wherein the virtual camera is based on the coordinate data indicating the position of the virtual camera and the coordinate data indicating the gazing point of the virtual camera. A process of calculating the line-of-sight angle is executed by the control unit. Then, coordinate data corresponding to the line-of-sight angle in the image indicated by the texture data for the reflected image is recognized by the control unit. As a result, the texture of the image reflected on the object surface is extracted from the image that can virtually appear on the object surface with reference to the position indicated by the coordinate data corresponding to the line-of-sight angle. This function is realized in the texture determination function.

この場合、仮想カメラの位置を示す座標データおよび仮想カメラの注視点を示す座標データに基づいて、仮想カメラの視線角度が算出される。そして、映り込み画像用のテクスチャデータが示す画像における、視線角度に対応する位置が決定される。すると、この位置を基準とした、オブジェクト表面に映る画像が、オブジェクト表面に仮想的に映りうる画像から抽出される。   In this case, the line-of-sight angle of the virtual camera is calculated based on the coordinate data indicating the position of the virtual camera and the coordinate data indicating the gazing point of the virtual camera. Then, a position corresponding to the line-of-sight angle in the image indicated by the texture data for the reflected image is determined. Then, an image reflected on the object surface with this position as a reference is extracted from an image that can virtually appear on the object surface.

このように、請求項5に係る発明では、仮想カメラの視線角度に応じて、オブジェクト表面に映る画像を、オブジェクト表面に仮想的に映りうる画像から抽出することができる。このため、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影すると、仮想カメラがオブジェクトを撮影する位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。すなわち、請求項5に係る発明では、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することができる。   As described above, according to the fifth aspect of the present invention, an image reflected on the object surface can be extracted from an image that can be virtually reflected on the object surface in accordance with the viewing angle of the virtual camera. For this reason, when the polygon model for the reflected image arranged inside the polygon model for the object is photographed by the virtual camera from the outside of the polygon model for the object through the transparent portion of the polygon model for the object, the virtual camera Different images (images reflected on the object surface) can be displayed on the image display unit depending on the position where the object is photographed. That is, according to the fifth aspect of the present invention, an image reflected on the object surface can be displayed on the image display unit with a realistic expression.

請求項6に係る画像処理プログラムでは、請求項5に記載の画像処理プログラムにおいて、仮想カメラの位置を示す座標データに基づいて、仮想カメラの位置とオブジェクトとの距離を算出する処理が、制御部によりさらに実行される。そして、この距離に対応する、オブジェクト表面に映る画像の範囲が、制御部に認識される。これにより、視線角度に対応する座標データが示す位置を基準として、オブジェクト表面に仮想的に映りうる画像におけるオブジェクト表面に映る画像の範囲のテクスチャが抽出される。   In the image processing program according to claim 6, in the image processing program according to claim 5, the process of calculating the distance between the position of the virtual camera and the object based on the coordinate data indicating the position of the virtual camera includes: Is further executed. Then, the range of the image reflected on the object surface corresponding to this distance is recognized by the control unit. As a result, the texture in the range of the image shown on the object surface in the image that can virtually appear on the object surface is extracted with reference to the position indicated by the coordinate data corresponding to the line-of-sight angle.

この場合、仮想カメラの位置を示す座標データに基づいて、仮想カメラの位置とオブジェクトとの距離が算出される。そして、オブジェクト表面に仮想的に映りうる画像における視線角度に対応する位置を基準として、算出された距離に対応する範囲が、オブジェクト表面に仮想的に映りうる画像において決定される。すなわち、仮想カメラの視線角度に応じて、オブジェクト表面に仮想的に映りうる画像の抽出位置を決定し、仮想カメラの位置とオブジェクトとの距離に応じて、オブジェクト表面に映る画像の範囲が、決定される。   In this case, the distance between the position of the virtual camera and the object is calculated based on the coordinate data indicating the position of the virtual camera. Then, a range corresponding to the calculated distance is determined in the image that can virtually appear on the object surface with reference to the position corresponding to the line-of-sight angle in the image that can virtually appear on the object surface. In other words, the extraction position of an image that can virtually appear on the object surface is determined according to the viewing angle of the virtual camera, and the range of the image reflected on the object surface is determined according to the distance between the virtual camera position and the object. Is done.

これにより、請求項6に係る発明では、オブジェクト表面に仮想的に映りうる画像のテクスチャから、オブジェクト表面に映る画像のテクスチャを、抽出することができる。このため、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影すると、仮想カメラがオブジェクトを撮影する位置に応じて大きさの異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。すなわち、請求項6に係る発明では、オブジェクト表面に映る画像を、よりリアリティのある表現で、画像表示部に表示することができる。   Thereby, in the invention which concerns on Claim 6, the texture of the image reflected on the object surface can be extracted from the texture of the image which can be reflected virtually on the object surface. For this reason, when the polygon model for the reflected image arranged inside the polygon model for the object is photographed by the virtual camera from the outside of the polygon model for the object through the transparent portion of the polygon model for the object, the virtual camera Can display images of different sizes (images reflected on the object surface) on the image display unit depending on the position where the object is photographed. That is, in the invention according to claim 6, an image reflected on the object surface can be displayed on the image display unit with a more realistic expression.

請求項7に係る画像処理装置は、オブジェクトを画像表示部に表示するためのデータを処理可能な画像処理装置である。   An image processing apparatus according to a seventh aspect is an image processing apparatus capable of processing data for displaying an object on an image display unit.

この画像処理装置は、
オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納手段と、
オブジェクト表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納手段と、
オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置手段と、
オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、映り込み画像用のポリゴンをオブジェクト用のポリゴンの内部に配置する第2ポリゴン配置手段と、
オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置手段と、
仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置手段と、
仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定手段と、
オブジェクト用のテクスチャデータをオブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成手段と、
抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成手段と、
オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、オブジェクトとオブジェクト表面に映る画像とを画像表示部に表示する画像表示手段と、
を備えている。
This image processing device
First texture storage means for storing texture data for the object in the storage unit;
Second texture storage means for storing texture data for a reflected image corresponding to an image that can be virtually reflected on the object surface in a storage unit;
First polygon arrangement means for arranging the polygon for the object in the virtual space by causing the control unit to recognize the coordinate data for defining the arrangement position of the polygon for the object;
Secondly, the image data polygon is arranged inside the object polygon by causing the control unit to recognize coordinate data for defining the arrangement position of the image image polygon inside the object polygon. Polygon placement means;
Camera placement means for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera outside the polygon for the object;
Gaze point arrangement means for arranging the gaze point of the virtual camera in the virtual space by causing the control unit to recognize coordinate data corresponding to the gaze point of the virtual camera;
Based on the position of the virtual camera and the position of the gazing point of the virtual camera, the texture of the image reflected on the object surface is determined by causing the control unit to execute processing to extract at least part of the texture data for the reflected image. Texture determining means to perform,
First polygon generating means for generating a polygon model for an object that is at least partially transparent by causing the control unit to execute a process of projecting texture data for the object onto the polygon for the object;
Second polygon generating means for generating a polygon model for a reflected image by causing the control unit to execute a process of projecting the extracted texture data for the reflected image onto the polygon for the reflected image;
By causing the control unit to execute a process of photographing the polygon model for the reflected image inside the polygon model for the object from the outside of the polygon model for the object through the transparent part of the polygon model for the object. Image display means for displaying the object and the image reflected on the object surface on the image display unit;
It has.

請求項8に係る画像制御方法は、オブジェクトを画像表示部に表示するためのデータをコンピュータにより制御する画像制御方法である。   An image control method according to an eighth aspect is an image control method in which data for displaying an object on an image display unit is controlled by a computer.

この画像制御方法は、
オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納ステップと、
オブジェクト表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納ステップと、
オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置ステップと、
オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、映り込み画像用のポリゴンをオブジェクト用のポリゴンの内部に配置する第2ポリゴン配置ステップと、
オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置ステップと、
仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置ステップと、
仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定ステップと、
オブジェクト用のテクスチャデータをオブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成ステップと、
抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成ステップと、
オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、オブジェクトとオブジェクト表面に映る画像とを画像表示部に表示する画像表示ステップと、
を備えている。
This image control method
A first texture storing step of storing texture data for the object in the storage unit;
A second texture storage step of storing texture data for a reflected image corresponding to an image that can be virtually reflected on the object surface in a storage unit;
A first polygon placement step for placing the object polygon in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the object polygon;
Secondly, the image data polygon is arranged inside the object polygon by causing the control unit to recognize coordinate data for defining the arrangement position of the image image polygon inside the object polygon. Polygon placement step;
A camera placement step for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera outside the polygon for the object;
A gazing point arrangement step of arranging the gazing point of the virtual camera in the virtual space by causing the control unit to recognize coordinate data corresponding to the gazing point of the virtual camera;
Based on the position of the virtual camera and the position of the gazing point of the virtual camera, the texture of the image reflected on the object surface is determined by causing the control unit to execute processing to extract at least part of the texture data for the reflected image. A texture determining step,
A first polygon generation step of generating a polygon model for an object that is at least partially transparent by causing the control unit to execute a process of projecting the texture data for the object onto the polygon for the object;
A second polygon generation step of generating a polygon model for the reflected image by causing the control unit to execute a process of projecting the extracted texture data for the reflected image onto the polygon for the reflected image;
By causing the control unit to execute a process of photographing the polygon model for the reflected image inside the polygon model for the object from the outside of the polygon model for the object through the transparent part of the polygon model for the object. An image display step for displaying an object and an image reflected on the object surface on the image display unit;
It has.

本発明では、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影することにより、仮想カメラがオブジェクトを撮影する位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。すなわち、本発明では、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することができる。   In the present invention, the polygon model for the reflected image arranged inside the polygon model for the object is photographed by a virtual camera from the outside of the polygon model for the object through the transparent portion of the polygon model for the object. Different images (images reflected on the surface of the object) can be displayed on the image display unit depending on the position where the virtual camera captures the object. That is, in the present invention, an image reflected on the object surface can be displayed on the image display unit with a realistic expression.

〔ゲーム装置の構成と動作〕
図1は、本発明の一実施形態によるゲーム装置の基本構成を示している。ここでは、ビデオゲーム装置の一例として、家庭用ビデオゲーム装置をとりあげて説明を行うこととする。家庭用ビデオゲーム装置は、家庭用ゲーム機本体および家庭用テレビジョンを備える。家庭用ゲーム機本体には、記録媒体10が装填可能となっており、記録媒体10からゲームデータが適宜読み出されてゲームが実行される。このようにして実行されるゲーム内容が家庭用テレビジョンに表示される。
[Configuration and operation of game device]
FIG. 1 shows a basic configuration of a game device according to an embodiment of the present invention. Here, a home video game device will be described as an example of the video game device. The home video game apparatus includes a home game machine body and a home television. The home game machine body can be loaded with a recording medium 10, and game data is read from the recording medium 10 as appropriate to execute the game. The contents of the game executed in this way are displayed on the home television.

家庭用ビデオゲーム装置のゲームシステムは、制御部1と、記憶部2と、画像表示部3と、音声出力部4と、操作入力部5とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音声出力部4および操作入力部5は、家庭用ビデオゲーム装置の家庭用ゲーム機本体に含まれており、画像表示部3は家庭用テレビジョンに含まれている。   The game system of the home video game apparatus includes a control unit 1, a storage unit 2, an image display unit 3, an audio output unit 4, and an operation input unit 5, which are connected via a bus 6. Is done. The bus 6 includes an address bus, a data bus, a control bus, and the like. Here, the control unit 1, the storage unit 2, the audio output unit 4, and the operation input unit 5 are included in the home game machine body of the home video game apparatus, and the image display unit 3 is included in the home television. It is.

制御部1は、主に、ゲームプログラムに基づいてゲーム全体の進行を制御するために設けられている。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、画像および音声データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12に書き込む処理を行っている。   The control unit 1 is provided mainly for controlling the progress of the entire game based on the game program. The control unit 1 includes, for example, a CPU (Central Processing Unit) 7, a signal processor 8, and an image processor 9. The CPU 7, the signal processor 8, and the image processor 9 are connected to each other via the bus 6. The CPU 7 interprets instructions from the game program and performs various data processing and control. For example, the CPU 7 instructs the signal processor 8 to supply image data to the image processor. The signal processor 8 mainly performs calculation in the three-dimensional space, position conversion calculation from the three-dimensional space to the pseudo three-dimensional space, light source calculation processing, and image and audio data generation processing. ing. The image processor 9 mainly performs a process of writing image data to be drawn into the RAM 12 based on the calculation result and the processing result of the signal processor 8.

記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納しておくために設けられている。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、RAM(Random Access Memory)12とから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とRAM12とはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音声データ並びに各種プログラムデータからなるゲームデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやゲームデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれており、このカード型メモリは、主に、ゲームを中断するときに中断時点での各種ゲームパラメータを保存するために用いられる。RAM12は、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12には、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。   The storage unit 2 is provided mainly for storing program data and various data used in the program data. The storage unit 2 includes, for example, a recording medium 10, an interface circuit 11, and a RAM (Random Access Memory) 12. An interface circuit 11 is connected to the recording medium 10. The interface circuit 11 and the RAM 12 are connected via the bus 6. The recording medium 10 is for recording operation system program data, image data, audio data, game data including various program data, and the like. The recording medium 10 is, for example, a ROM (Read Only Memory) cassette, an optical disk, a flexible disk, or the like, and stores operating system program data, game data, and the like. The recording medium 10 also includes a card type memory, and this card type memory is mainly used for storing various game parameters at the time of interruption when the game is interrupted. The RAM 12 is used for temporarily storing various data read from the recording medium 10 and temporarily recording the processing results from the control unit 1. The RAM 12 stores various data and address data indicating the storage position of the various data, and can be read / written by designating an arbitrary address.

画像表示部3は、主に、画像処理プロセッサ9によってRAM12に書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、テレビジョンモニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。テレビジョンモニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がテレビジョンモニタ20に画像として出力される。   The image display unit 3 is provided mainly for outputting image data written in the RAM 12 by the image processor 9 or image data read from the recording medium 10 as an image. The image display unit 3 includes, for example, a television monitor 20, an interface circuit 21, and a D / A converter (Digital-To-Analog converter) 22. A D / A converter 22 is connected to the television monitor 20, and an interface circuit 21 is connected to the D / A converter 22. The bus 6 is connected to the interface circuit 21. Here, the image data is supplied to the D / A converter 22 via the interface circuit 21, where it is converted into an analog image signal. The analog image signal is output as an image to the television monitor 20.

ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータを書き込む。このようにして、各ポリゴンにテクスチャが貼り付けられた物体つまり各種キャラクタを表現することができる。   Here, the image data includes, for example, polygon data and texture data. Polygon data is the coordinate data of vertices constituting a polygon. The texture data is for setting a texture on the polygon, and is composed of texture instruction data and texture color data. The texture instruction data is data for associating polygons and textures, and the texture color data is data for designating the texture color. Here, the polygon data and the texture data are associated with the polygon address data indicating the storage position of each data and the texture address data. In such image data, the signal processor 8 coordinates the polygon data in the three-dimensional space indicated by the polygon address data (three-dimensional polygon data) based on the movement amount data and the rotation amount data of the screen itself (viewpoint). Conversion and perspective projection conversion are performed, and the data is replaced with polygon data (two-dimensional polygon data) in a two-dimensional space. Then, a polygon outline is constituted by a plurality of two-dimensional polygon data, and texture data indicated by the texture address data is written in an internal area of the polygon. In this way, an object in which a texture is pasted on each polygon, that is, various characters can be expressed.

音声出力部4は、主に、記録媒体10から読み出される音声データを音声として出力するために設けられている。音声出力部4は、たとえば、スピーカー13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカー13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音声データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音声信号に変換される。このアナログ音声信号が増幅回路14によって増幅され、スピーカー13から音声として出力される。音声データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音声をスピーカー13から出力することができる。PCMデータの場合、RAM12においてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音声をスピーカー13から出力することができる。   The audio output unit 4 is provided mainly for outputting audio data read from the recording medium 10 as audio. The audio output unit 4 includes, for example, a speaker 13, an amplifier circuit 14, a D / A converter 15, and an interface circuit 16. An amplifier circuit 14 is connected to the speaker 13, a D / A converter 15 is connected to the amplifier circuit 14, and an interface circuit 16 is connected to the D / A converter 15. The bus 6 is connected to the interface circuit 16. Here, the audio data is supplied to the D / A converter 15 via the interface circuit 16, where it is converted into an analog audio signal. The analog audio signal is amplified by the amplifier circuit 14 and output from the speaker 13 as audio. The audio data includes, for example, ADPCM (Adaptive Differential Pulse Code Modulation) data and PCM (Pulse Code Modulation) data. In the case of ADPCM data, sound can be output from the speaker 13 by the same processing method as described above. In the case of PCM data, by converting the PCM data into ADPCM data in the RAM 12, the sound can be output from the speaker 13 by the same processing method as described above.

操作入力部5は、主に、コントローラ17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。コントローラ17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。   The operation input unit 5 mainly includes a controller 17, an operation information interface circuit 18, and an interface circuit 19. An operation information interface circuit 18 is connected to the controller 17, and an interface circuit 19 is connected to the operation information interface circuit 18. The bus 6 is connected to the interface circuit 19.

コントローラ17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。コントローラ17には、第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、上方向キー17U、下方向キー17D、左方向キー17L、右方向キー17R、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1、R2ボタン17R2、スタートボタン17e、セレクトボタン17f、左スティック17SL及び右スティック17SRが設けられている。   The controller 17 is an operation device used by the player to input various operation commands, and sends an operation signal according to the operation of the player to the CPU 7. The controller 17 includes a first button 17a, a second button 17b, a third button 17c, a fourth button 17d, an up key 17U, a down key 17D, a left key 17L, a right key 17R, and an L1 button 17L1, L2. A button 17L2, an R1 button 17R1, an R2 button 17R2, a start button 17e, a select button 17f, a left stick 17SL and a right stick 17SR are provided.

上方向キー17U、下方向キー17D、左方向キー17L及び右方向キー17Rは、例えば、キャラクタやカーソルをテレビジョンモニタ20の画面上で上下左右に移動させるコマンドをCPU7に与えるために使用される。   The up direction key 17U, the down direction key 17D, the left direction key 17L, and the right direction key 17R are used, for example, to give the CPU 7 a command for moving a character or cursor up, down, left, or right on the screen of the television monitor 20. .

スタートボタン17eは、記録媒体10からゲームプログラムをロードするようにCPU7に指示するときなどに使用される。   The start button 17e is used when instructing the CPU 7 to load a game program from the recording medium 10.

セレクトボタン17fは、記録媒体10からロードされたゲームプログラムに対して、各種選択をCPU7に指示するときなどに使用される。   The select button 17f is used when instructing the CPU 7 to make various selections for the game program loaded from the recording medium 10.

左スティック17SL及び右スティック17SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは、直立したスティックを有している。このスティックは、支点を中心として直立位置から前後左右を含む360°方向に亘って、傾倒可能な構成になっている。左スティック17SL及び右スティック17SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とするx座標及びy座標の値を、操作信号として操作情報インターフェース回路18とインターフェース回路19とを介してCPU7に送出する。   The left stick 17SL and the right stick 17SR are stick type controllers having substantially the same configuration as a so-called joystick. This stick type controller has an upright stick. The stick is configured to be tiltable from an upright position around the fulcrum in a 360 ° direction including front, rear, left and right. The left stick 17SL and the right stick 17SR pass through the operation information interface circuit 18 and the interface circuit 19 with the values of the x-coordinate and the y-coordinate having the upright position as the origin as operation signals according to the tilt direction and tilt angle of the stick. To the CPU 7.

第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1及びR2ボタン17R2には、記録媒体10からロードされるゲームプログラムに応じて種々の機能が割り振られている。   The first button 17a, the second button 17b, the third button 17c, the fourth button 17d, the L1 button 17L1, the L2 button 17L2, the R1 button 17R1, and the R2 button 17R2 correspond to the game program loaded from the recording medium 10. Various functions are allocated.

なお、左スティック17SL及び右スティック17SRを除くコントローラ17の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると中立位置に復帰してオフになるオンオフスイッチになっている。   Each button and each key of the controller 17 except for the left stick 17SL and the right stick 17SR are turned on when pressed from the neutral position by an external pressing force, and return to the neutral position when the pressing force is released. It is an on / off switch that turns off.

以上のような構成からなる家庭用ビデオゲーム装置の概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされゲームシステム1に電源が投入されると、CPU7が、記録媒体10に記憶されているオペレーティングシステムに基づいて、記録媒体10から画像データ、音声データ、およびプログラムデータを読み出す。読み出された画像データ、音声データ、およびプログラムデータの一部若しくは全部は、RAM12に格納される。そして、CPU7が、RAM12に格納されたプログラムデータに基づいて、RAM12に格納された画像データや音声データにコマンドを発行する。   The schematic operation of the home video game apparatus having the above configuration will be described below. When a power switch (not shown) is turned on and the game system 1 is turned on, the CPU 7 reads image data, audio data, and a program from the recording medium 10 based on the operating system stored in the recording medium 10. Read data. Some or all of the read image data, audio data, and program data are stored in the RAM 12. Then, the CPU 7 issues a command to the image data and sound data stored in the RAM 12 based on the program data stored in the RAM 12.

画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12への書き込み処理などを行う。そして、RAM12に書き込まれた画像データが、インターフェース回路13を介してD/Aコンバータ17に供給される。ここで、画像データがD/Aコンバータ17でアナログ映像信号に変換される。そして、画像データはテレビジョンモニタ20に供給され画像として表示される。   In the case of image data, based on a command from the CPU 7, first, the signal processor 8 performs character position calculation and light source calculation in a three-dimensional space. Next, the image processor 9 performs a process of writing image data to be drawn into the RAM 12 based on the calculation result of the signal processor 8. Then, the image data written in the RAM 12 is supplied to the D / A converter 17 via the interface circuit 13. Here, the image data is converted into an analog video signal by the D / A converter 17. The image data is supplied to the television monitor 20 and displayed as an image.

音声データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音声データの生成および加工処理を行う。ここでは、音声データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音声データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音声データがアナログ音声信号に変換される。そして、音声データは増幅回路14を介してスピーカー13から音声として出力される。   In the case of audio data, first, the signal processor 8 generates and processes audio data based on a command from the CPU 7. Here, processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition is performed on the audio data, for example. Next, the audio data is output from the signal processor 8 and supplied to the D / A converter 15 via the interface circuit 16. Here, the audio data is converted into an analog audio signal. The audio data is output as audio from the speaker 13 via the amplifier circuit 14.

〔ゲーム装置における各種処理の説明〕
本ゲーム機において実行されるゲームは、たとえば野球ゲームである。本ゲーム機において実行される野球ゲームでは、オブジェクトたとえば建物をテレビジョンモニタ20に表示可能になっている。図2は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。
[Description of various processes in game device]
The game executed in this game machine is, for example, a baseball game. In a baseball game executed on this game machine, an object such as a building can be displayed on the television monitor 20. FIG. 2 is a functional block diagram for explaining functions that play a major role in the present invention.

第1テクスチャ格納手段50は、建物用のテクスチャデータを、RAM12に格納する機能を備えている。この手段では、建物用のテクスチャデータが、RAM12に格納される。ここで用いられる建物用のテクスチャデータは、建物の表面のテクスチャを表現するためのデータである。このテクスチャデータは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   The first texture storage means 50 has a function of storing building texture data in the RAM 12. With this means, building texture data is stored in the RAM 12. The building texture data used here is data for expressing the texture of the building surface. This texture data is loaded and stored from the recording medium 10 to the RAM 12 together with the baseball game program when the baseball game program is loaded from the recording medium 10 to the RAM 12.

第2テクスチャ格納手段51は、建物表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータを、RAM12に格納する機能を備えている。この手段では、建物表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータが、RAM12に格納される。ここで用いられる映り込み画像用のテクスチャデータは、建物側から、建物の前方に位置する建物や物体等を撮影することにより生成されるデータである。すなわち、このテクスチャデータは、建物表面に映りうる景色(建物や物体等を含む)を撮影することにより生成されるデータである。また、このテクスチャデータは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   The second texture storage means 51 has a function of storing, in the RAM 12, texture data for a reflected image corresponding to an image that can virtually appear on the building surface. In this means, the texture data for the reflected image corresponding to the image that can virtually appear on the building surface is stored in the RAM 12. The texture data for the reflected image used here is data generated by photographing a building or an object located in front of the building from the building side. That is, the texture data is data generated by photographing a landscape (including buildings and objects) that can be reflected on the building surface. The texture data is loaded and stored from the recording medium 10 to the RAM 12 together with the baseball game program when the baseball game program is loaded from the recording medium 10 to the RAM 12.

第1ポリゴン配置手段52は、建物用のポリゴンの配置位置を規定するための座標データをCPU7に認識させることにより、建物用のポリゴンを仮想空間に配置する機能を備えている。この手段では、建物用のポリゴンの配置位置を規定するための座標データをCPU7に認識させることにより、建物用のポリゴンが仮想空間に配置される。   The first polygon placement means 52 has a function of placing the building polygon in the virtual space by causing the CPU 7 to recognize coordinate data for defining the placement position of the building polygon. With this means, the building polygon is arranged in the virtual space by causing the CPU 7 to recognize coordinate data for defining the arrangement position of the building polygon.

ここでは、建物用のポリゴンの配置位置は、ゲームプログラムにおいて予め規定されている。この建物用のポリゴンの配置位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   Here, the layout position of the building polygon is defined in advance in the game program. When the baseball game program is loaded from the recording medium 10 to the RAM 12, the coordinate data for defining the layout position of the polygon for the building is loaded from the recording medium 10 to the RAM 12 and stored together with the baseball game program.

第2ポリゴン配置手段53は、建物用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データをCPU7に認識させることにより、映り込み画像用のポリゴンを建物用のポリゴンの内部に配置する機能を備えている。この手段は、建物用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データをCPU7に認識させることにより、映り込み画像用のポリゴンが建物用のポリゴンの内部に配置される。   The second polygon arrangement means 53 causes the CPU 7 to recognize coordinate data for defining the arrangement position of the polygon for the reflected image inside the polygon for the building, thereby converting the polygon for the reflected image into the polygon for the building. It has the function to arrange inside. This means makes the CPU 7 recognize the coordinate data for defining the arrangement position of the polygon for the reflected image inside the polygon for the building, so that the polygon for the reflected image is arranged inside the polygon for the building. Is done.

ここでは、映り込み画像用のポリゴンの配置位置は、ゲームプログラムにおいて予め規定されている。具体的には、建物用のポリゴンの内部における所定の位置が、映り込み画像用のポリゴンの配置位置として、ゲームプログラムにおいて予め規定されている。この映り込み画像用のポリゴンの配置位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   Here, the arrangement position of the polygon for the reflected image is defined in advance in the game program. Specifically, a predetermined position inside the building polygon is defined in advance in the game program as the arrangement position of the polygon for the reflected image. The coordinate data for defining the arrangement position of the polygon for the reflected image is loaded and stored from the recording medium 10 to the RAM 12 together with the baseball game program when the baseball game program is loaded from the recording medium 10 to the RAM 12. The

光源配置手段54は、建物用のポリゴンの外部において光源の配置位置を規定するための座標データを、CPU7に認識させることにより、光源を仮想空間に配置する機能を備えている。この手段では、建物用のポリゴンの外部において光源の配置位置を規定するための座標データを、CPU7に認識させることにより、光源が仮想空間に配置される。   The light source arrangement means 54 has a function of arranging the light source in the virtual space by causing the CPU 7 to recognize coordinate data for defining the arrangement position of the light source outside the building polygon. In this means, the CPU 7 recognizes coordinate data for defining the arrangement position of the light source outside the building polygon, thereby arranging the light source in the virtual space.

ここでは、光源の配置位置は、ゲームプログラムにおいて予め規定されている。具体的には、建物用のポリゴンの外部の所定の位置が、光源の配置位置として、ゲームプログラムにおいて予め規定されている。この光源の配置位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   Here, the arrangement position of the light source is defined in advance in the game program. Specifically, a predetermined position outside the building polygon is defined in advance in the game program as the light source arrangement position. When the baseball game program is loaded from the recording medium 10 into the RAM 12, the coordinate data for defining the light source arrangement position is loaded from the recording medium 10 into the RAM 12 and stored together with the baseball game program.

なお、ここでは、光源が移動しない場合の例が示されるが、光源が移動するようにしても良い。たとえば、時間の経過に応じて光源を移動する場合、各時刻に対応する光源の配置位置が、ゲームプログラムにおいて予め規定されることになる。具体的には、各時刻に対応する光源の配置位置は、時刻をパラメータとして光源の配置位置を規定する方程式に基づいて決定することができる。この場合、光源が移動すると、移動後の光源の配置位置を規定するための座標データが、時刻ごとに、CPU7に認識される。ここで用いられる方程式は、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   Here, an example in which the light source does not move is shown, but the light source may be moved. For example, when the light source is moved over time, the arrangement position of the light source corresponding to each time is defined in advance in the game program. Specifically, the arrangement position of the light source corresponding to each time can be determined based on an equation that defines the arrangement position of the light source using the time as a parameter. In this case, when the light source moves, the coordinate data for defining the arrangement position of the light source after the movement is recognized by the CPU 7 for each time. The equations used here are loaded and stored from the recording medium 10 to the RAM 12 together with the baseball game program when the baseball game program is loaded from the recording medium 10 to the RAM 12.

カメラ配置手段55は、建物用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、CPU7に認識させることにより、仮想カメラを仮想空間に配置する機能を備えている。   The camera placement unit 55 has a function of placing the virtual camera in the virtual space by causing the CPU 7 to recognize coordinate data for defining the placement position of the virtual camera outside the building polygon.

この手段では、建物用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、CPU7に認識させることにより、仮想カメラが仮想空間に配置される。   With this means, the virtual camera is arranged in the virtual space by causing the CPU 7 to recognize the coordinate data for defining the arrangement position of the virtual camera outside the building polygon.

詳細には、この手段では、建物用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令がCPU7から発行された場合に、移動後の仮想カメラの位置を示す座標データが、CPU7に認識される。これにより、仮想カメラが仮想空間に配置される。   Specifically, in this means, when the CPU 7 issues a camera movement command for moving the virtual camera outside the building polygon, the coordinate data indicating the position of the virtual camera after the movement is recognized by the CPU 7. Is done. Thereby, the virtual camera is arranged in the virtual space.

ここでは、まず、建物用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令がCPU7から発行されたか否かが、判別される。そして、建物用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令がCPU7から発行された場合に、移動後の仮想カメラの位置を示す座標データが、CPU7に認識される。一方で、建物用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令がCPU7から発行されていない場合には、現在の仮想カメラの位置を示す座標データが、CPU7に認識される。このようにして、仮想カメラが仮想空間に定義され配置される。   Here, first, it is determined whether or not a camera movement command for moving the virtual camera is issued from the CPU 7 outside the building polygon. When a camera movement command for moving the virtual camera outside the building polygon is issued from the CPU 7, the coordinate data indicating the position of the virtual camera after the movement is recognized by the CPU 7. On the other hand, when the CPU 7 has not issued a camera movement command for moving the virtual camera outside the building polygon, the CPU 7 recognizes the coordinate data indicating the current virtual camera position. In this way, the virtual camera is defined and arranged in the virtual space.

注視点配置手段56は、仮想カメラの注視点に対応する座標データを、CPU7に認識させることにより、仮想カメラの注視点を仮想空間に配置する機能を備えている。この手段では、仮想カメラの注視点に対応する座標データを、CPU7に認識させることにより、仮想カメラの注視点が仮想空間に配置される。   The gaze point arrangement means 56 has a function of arranging the gaze point of the virtual camera in the virtual space by causing the CPU 7 to recognize coordinate data corresponding to the gaze point of the virtual camera. In this means, the CPU 7 recognizes coordinate data corresponding to the gazing point of the virtual camera, so that the gazing point of the virtual camera is arranged in the virtual space.

ここでは、仮想カメラの注視点は、建物用のポリゴンの内部に配置される。たとえば、仮想カメラの注視点は、映り込み画像用のポリゴン上に配置される。映り込み画像用のポリゴン上に配置される仮想カメラの注視点の位置は、ゲームプログラムにおいて予め規定されている。この注視点の位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   Here, the gazing point of the virtual camera is arranged inside the building polygon. For example, the gazing point of the virtual camera is arranged on the polygon for the reflected image. The position of the gazing point of the virtual camera arranged on the polygon for the reflected image is defined in advance in the game program. The coordinate data for defining the position of the gazing point is loaded and stored from the recording medium 10 to the RAM 12 together with the baseball game program when the baseball game program is loaded from the recording medium 10 to the RAM 12.

なお、ここでは、注視点が移動しない場合の例が示されるが、注視点が移動するようにしても良い。すなわち、注視点を移動することにより、仮想カメラの視線方向を変更するようにしても良い。たとえば、コントローラ17からの入力信号の認識および注視点移動命令の発行の少なくともいずれか一方に基づいて、注視点を移動するようにしても良い。   Here, an example in which the gazing point does not move is shown, but the gazing point may be moved. That is, the line-of-sight direction of the virtual camera may be changed by moving the gazing point. For example, the gazing point may be moved based on at least one of recognition of an input signal from the controller 17 and issuance of a gazing point movement command.

映り込み度設設定手段57は、建物のテクスチャデータの透明度をCPU7に認識させることにより、建物表面に映る画像の映り込み度を設定する機能を備えている。この手段では、建物のテクスチャデータの透明度をCPU7に認識させることにより、建物表面に映る画像の映り込み度が設定される。   The reflection degree setting means 57 has a function of setting the reflection degree of an image reflected on the building surface by causing the CPU 7 to recognize the transparency of the texture data of the building. In this means, the CPU 7 recognizes the transparency of the texture data of the building to set the reflection degree of the image reflected on the building surface.

ここでは、建物のテクスチャデータの透明度が、CPU7に認識される。たとえば、建物の壁面に設けられる窓のテクスチャデータの透明度、および窓を除いた建物の壁面のテクスチャデータの透明度が、CPU7に認識される。これにより、建物表面に映る画像の映り込み度が設定される。   Here, the transparency of the texture data of the building is recognized by the CPU 7. For example, the CPU 7 recognizes the transparency of the texture data of the windows provided on the wall surface of the building and the transparency of the texture data of the wall surfaces of the building excluding the windows. Thereby, the reflection degree of the image reflected on the building surface is set.

なお、テクスチャデータと透明度との対応関係は、ゲームプログラムにおいて予め規定されている。たとえば、テクスチャデータと透明度との対応関係を示すテーブルは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   Note that the correspondence between texture data and transparency is defined in advance in the game program. For example, when the baseball game program is loaded from the recording medium 10 to the RAM 12, the table indicating the correspondence relationship between the texture data and the transparency is loaded from the recording medium 10 to the RAM 12 and stored together with the baseball game program.

反射効果付加手段58は、仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、建物のテクスチャデータの反射率を設定する処理を、CPU7に実行させることにより、建物表面に映る画像に反射効果を付加する機能を備えている。この手段では、仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、建物のテクスチャデータの反射率を設定する処理を、CPU7に実行させることにより、建物表面に映る画像に反射効果が付加される。   The reflection effect adding means 58 causes the CPU 7 to execute processing for setting the reflectance of the texture data of the building in accordance with the position of the virtual camera, the position of the gazing point of the virtual camera, and the position of the light source, so that the building surface It has a function to add a reflection effect to the image shown on the screen. In this means, the image reflected on the building surface is obtained by causing the CPU 7 to execute processing for setting the reflectance of the texture data of the building in accordance with the position of the virtual camera, the position of the gazing point of the virtual camera, and the position of the light source. A reflection effect is added to the.

ここでは、仮想カメラの位置と仮想カメラの注視点とを結ぶ直線(第1直線)と、第1直線が建物表面と交わる交点と光源とを結ぶ直線(第2直線)とがなす角度(反射角度)を算出する処理が、CPU7により実行される。そして、この反射角度に応じて、建物のテクスチャデータの反射率が設定される。なお、仮想カメラの位置と反射率との対応関係は、ゲームプログラムにおいて予め規定されている。   Here, an angle (reflection) formed by a straight line (first straight line) connecting the position of the virtual camera and the gazing point of the virtual camera and a straight line (second straight line) connecting the intersection where the first straight line intersects the building surface and the light source. The CPU 7 executes a process for calculating the angle. And according to this reflection angle, the reflectance of the texture data of a building is set. Note that the correspondence relationship between the position of the virtual camera and the reflectance is defined in advance in the game program.

テクスチャ決定手段59は、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、CPU7に実行させることにより、建物表面に映る画像のテクスチャを決定する機能を備えている。この手段では、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、CPU7に実行させることにより、建物表面に映る画像のテクスチャが決定される。また、この手段では、仮想カメラが移動した場合、移動後の仮想カメラの位置および仮想カメラの注視点の位置に応じて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、CPU7に実行させることにより、建物表面に映る画像のテクスチャが決定される。   The texture determination means 59 is reflected on the building surface by causing the CPU 7 to execute a process of extracting at least a part of the texture data for the reflected image based on the position of the virtual camera and the position of the gazing point of the virtual camera. It has a function to determine the texture of the image. In this means, by causing the CPU 7 to execute processing for extracting at least a part of the texture data for the reflected image based on the position of the virtual camera and the position of the gazing point of the virtual camera, the image of the image reflected on the surface of the building is displayed. The texture is determined. In this means, when the virtual camera moves, the CPU 7 performs a process of extracting at least a part of the texture data for the reflected image according to the position of the virtual camera after the movement and the position of the gazing point of the virtual camera. As a result, the texture of the image reflected on the building surface is determined.

詳細には、この手段では、仮想カメラの位置を示す座標データおよび仮想カメラの注視点を示す座標データに基づいて、仮想カメラの視線角度を算出する処理が、CPU7により実行される。そして、映り込み画像用のテクスチャデータが示す画像における、視線角度に対応する座標データが、CPU7に認識される。これにより、視線角度に対応する座標データが示す位置を基準として、建物表面に映る画像のテクスチャが抽出される。また、この手段では、仮想カメラの位置を示す座標データに基づいて、仮想カメラの位置と建物との距離を算出する処理が、CPU7によりさらに実行される。そして、この距離に対応する、建物表面に映る画像の範囲が、CPU7に認識される。これにより、視線角度に対応する座標データが示す位置を基準として、建物表面に映る画像の範囲のテクスチャが抽出される。   Specifically, in this means, the CPU 7 executes a process of calculating the viewing angle of the virtual camera based on the coordinate data indicating the position of the virtual camera and the coordinate data indicating the gazing point of the virtual camera. Then, the CPU 7 recognizes coordinate data corresponding to the line-of-sight angle in the image indicated by the texture data for the reflected image. Thus, the texture of the image shown on the building surface is extracted with reference to the position indicated by the coordinate data corresponding to the line-of-sight angle. In this means, the CPU 7 further executes a process of calculating the distance between the position of the virtual camera and the building based on the coordinate data indicating the position of the virtual camera. And the range of the image reflected on the building surface corresponding to this distance is recognized by the CPU 7. Thereby, the texture of the range of the image reflected on the building surface is extracted with reference to the position indicated by the coordinate data corresponding to the line-of-sight angle.

ここでは、仮想カメラの位置と仮想カメラの注視点とを結ぶ直線(上述した第1直線)と、仮想カメラの視線方向の角度を規定するために用いられる基準点と仮想カメラの注視点とを結ぶ直線(第3直線)とがなす角度(仮想カメラの視線角度)が、CPU7により算出される。また、仮想カメラと建物表面との距離(カメラ建物間距離)が、CPU7により算出される。すると、視線角度に対応する位置の座標データ、すなわち、建物表面に映り込む画像上における、視線角度に対応する位置(建物表面に映り込む画像上の視線対応位置)の座標データが、CPU7により検出され認識される。すると、ここでCPU7に認識された、仮想カメラの視線角度に対応する座標データが示す位置を基準として、カメラ建物間距離に対応する範囲の画像、すなわち建物表面に映り込む画像内の部分画像が、CPU7により設定され認識される。これにより、建物表面に映る部分画像のテクスチャが抽出される。   Here, the straight line connecting the position of the virtual camera and the gazing point of the virtual camera (the first straight line described above), the reference point used to define the angle of the sight line direction of the virtual camera, and the gazing point of the virtual camera are The angle formed by the connecting straight line (third straight line) (the viewing angle of the virtual camera) is calculated by the CPU 7. Further, the CPU 7 calculates the distance between the virtual camera and the building surface (the distance between the camera buildings). Then, the coordinate data of the position corresponding to the line-of-sight angle, that is, the coordinate data of the position corresponding to the line-of-sight angle on the image reflected on the building surface (the line-of-sight corresponding position on the image reflected on the building surface) is detected by the CPU 7. Is recognized. Then, on the basis of the position indicated by the coordinate data corresponding to the viewing angle of the virtual camera recognized by the CPU 7 here, an image in a range corresponding to the distance between the camera buildings, that is, a partial image in the image reflected on the building surface is obtained. , Set and recognized by the CPU 7. Thereby, the texture of the partial image reflected on the building surface is extracted.

なお、仮想カメラの視線方向の角度を規定するために用いられる基準点は、たとえば、建物表面に垂直な方向の所定の位置に配置される。この位置は、ゲームプログラムにおいて予め規定されている。   Note that the reference point used for defining the angle of the visual line direction of the virtual camera is arranged at a predetermined position in a direction perpendicular to the building surface, for example. This position is defined in advance in the game program.

また、建物表面に映り込む画像上の視線対応位置を検出する処理は、映り込み画像用のテクスチャデータに基づいて、CPU7により実行される。たとえば、この処理は、視線角度と、建物表面に映り込む画像の内部の位置との対応関係を、ゲームプログラムにおいて予め規定しておくことにより、CPU7により実行される。   Further, the process of detecting the line-of-sight corresponding position on the image reflected on the building surface is executed by the CPU 7 based on the texture data for the reflected image. For example, this processing is executed by the CPU 7 by preliminarily defining a correspondence relationship between the line-of-sight angle and the position inside the image reflected on the building surface in the game program.

さらに、部分画像を規定するための範囲を設定する処理は、建物表面に映り込む画像において、カメラ建物間距離に対応する境界を、建物表面に映り込む画像の内部に設定することにより、実現される。たとえば、カメラ建物間距離と、境界を定義するためのデータとの対応関係は、ゲームプログラムにおいて予め規定されている。   Furthermore, the process of setting the range for defining the partial image is realized by setting the boundary corresponding to the distance between the camera buildings in the image reflected on the building surface inside the image reflected on the building surface. The For example, the correspondence between the camera building distance and the data for defining the boundary is defined in advance in the game program.

第1ポリゴン生成手段60は、建物用のテクスチャデータを建物用のポリゴンに投影する処理を、CPU7に実行させることにより、少なくとも一部が透明な建物用のポリゴンモデルを生成する機能を備えている。この手段では、建物用のテクスチャデータを建物用のポリゴンに投影する処理を、CPU7に実行させることにより、少なくとも一部が透明な建物用のポリゴンモデルが生成される。   The first polygon generating means 60 has a function of generating a building polygon model that is at least partially transparent by causing the CPU 7 to execute processing for projecting building texture data onto building polygons. . In this means, the processing of projecting the building texture data onto the building polygon is executed by the CPU 7 to generate a building polygon model that is at least partially transparent.

ここでは、建物用のテクスチャデータを建物用のポリゴンに投影する処理が、CPU7により実行される。これにより、少なくとも一部が透明な建物用のポリゴンモデルが生成される。たとえば、建物用のポリゴンの3次元座標を2次元座標系に対応づける処理(マッピング)が、CPU7により実行される。そして、建物用のテクスチャデータの座標を、建物用のポリゴンをマッピングした2次元座標系に対応づける処理が、CPU7により実行される。これにより、建物用のポリゴンモデルが生成される。また、ここでは、透明度の値に応じて、少なくとも一部が透明な建物用のポリゴンモデルが生成される。   Here, the process of projecting the building texture data onto the building polygon is executed by the CPU 7. As a result, a polygon model for a building that is at least partially transparent is generated. For example, the CPU 7 executes a process (mapping) for associating the three-dimensional coordinates of a building polygon with a two-dimensional coordinate system. Then, the CPU 7 executes a process of associating the coordinates of the building texture data with the two-dimensional coordinate system in which the building polygons are mapped. Thereby, the polygon model for buildings is generated. Here, a polygon model for a building that is at least partially transparent is generated according to the transparency value.

第2ポリゴン生成手段61は、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、CPU7に実行させることにより、映り込み画像用のポリゴンモデルを生成する機能を備えている。この手段では、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、CPU7に実行させることにより、映り込み画像用のポリゴンモデルが生成される。   The second polygon generation unit 61 has a function of generating a polygon model for a reflected image by causing the CPU 7 to execute a process of projecting the extracted texture data for the reflected image onto the polygon for the reflected image. I have. In this means, the CPU 7 executes a process of projecting the extracted texture data for the reflected image onto the polygon for the reflected image, thereby generating a polygon model for the reflected image.

ここでは、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理が、CPU7により実行される。これにより、映り込み画像用のポリゴンモデルが生成される。たとえば、映り込み画像用のポリゴンの3次元座標を2次元座標系に対応づける処理(マッピング)が、CPU7により実行される。そして、抽出された映り込み画像用のテクスチャデータの座標を、映り込み画像用のポリゴンをマッピングした2次元座標に対応づける処理が、CPU7により実行される。これにより、映り込み画像用のポリゴンモデルが生成される。   Here, the CPU 7 executes processing for projecting the extracted texture data for the reflected image onto the polygon for the reflected image. Thereby, a polygon model for a reflected image is generated. For example, the CPU 7 executes processing (mapping) for associating the three-dimensional coordinates of the polygon for the reflected image with the two-dimensional coordinate system. Then, the CPU 7 executes processing for associating the coordinates of the extracted texture data for the reflected image with the two-dimensional coordinates obtained by mapping the polygon for the reflected image. Thereby, a polygon model for a reflected image is generated.

画像表示手段62は、建物用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、建物用のポリゴンモデルの透明な部分を通して、建物用のポリゴンモデルの外部から仮想カメラにより撮影する処理をCPU7に実行させることにより、建物と建物表面に映る画像とをテレビジョンモニタ20に表示する機能を備えている。この手段では、建物用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、建物用のポリゴンモデルの透明な部分を通して、建物用のポリゴンモデルの外部から仮想カメラにより撮影する処理をCPU7に実行させることにより、建物と建物表面に映る画像とがテレビジョンモニタ20に表示される。   The image display means 62 performs processing for photographing the polygon model for the reflected image inside the building polygon model with a virtual camera from the outside of the building polygon model through the transparent portion of the building polygon model. By executing the function, the television monitor 20 has a function of displaying the building and the image reflected on the building surface. In this means, the CPU 7 executes a process for photographing the polygon model for the reflected image inside the building polygon model through the transparent part of the building polygon model from the outside of the building polygon model with the virtual camera. By doing so, the building and the image reflected on the building surface are displayed on the television monitor 20.

ここでは、仮想カメラに対する撮影命令をCPU7に発行させることにより、仮想カメラに写る画像が、テレビジョンモニタ20に表示される。たとえば、仮想カメラの注視点が、建物用のポリゴンの内部に配置される場合、撮影命令がCPU7から発行されると、建物用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルが、建物用のポリゴンモデルの透明な部分を通して、建物用のポリゴンモデルの外部から仮想カメラにより撮影される。すると、建物の画像と、建物表面に映る画像(建物表面に映り込む画像)とが、テレビジョンモニタ20に表示される。   Here, by causing the CPU 7 to issue a shooting command for the virtual camera, an image captured by the virtual camera is displayed on the television monitor 20. For example, when the gazing point of the virtual camera is arranged inside a building polygon, when a shooting command is issued from the CPU 7, the polygon model for the reflected image inside the building polygon model is changed to the building-use polygon model. The image is taken by a virtual camera from the outside of the building polygon model through the transparent part of the polygon model. Then, an image of the building and an image reflected on the building surface (an image reflected on the building surface) are displayed on the television monitor 20.

〔野球ゲームにおける映像表示システムの説明〕
次に、野球ゲームにおける映像表示システムの具体的な内容について説明する。また、図8および図9に示すフローについても同時に説明する。なお、図8は野球ゲームの全体概要を説明するためのフローであり、図9は上記システムを説明するためのフローである。
[Description of video display system in baseball game]
Next, specific contents of the video display system in the baseball game will be described. The flow shown in FIGS. 8 and 9 will also be described at the same time. FIG. 8 is a flow for explaining the overall outline of the baseball game, and FIG. 9 is a flow for explaining the system.

以下では、まず野球ゲームの全体概要を説明し、次に上記システムの内容を説明する。   In the following, the overall outline of the baseball game will be described first, and then the contents of the system will be described.

まず、ゲーム機の電源が投入されゲーム機が起動されると、野球ゲームプログラムが、記録媒体10からRAM12にロードされ格納される。このときには、野球ゲームを実行する上で必要となる各種の基本ゲームデータも、同時に、記録媒体10からRAM12にロードされ格納される(S1)。   First, when the game machine is turned on and the game machine is activated, the baseball game program is loaded from the recording medium 10 into the RAM 12 and stored. At this time, various basic game data necessary for executing the baseball game are simultaneously loaded from the recording medium 10 into the RAM 12 and stored (S1).

たとえば、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータが含まれている。そして、この3次元ゲーム空間用の各種の画像に関するデータ、たとえば、スタジアム用の画像データ、選手キャラクタ用の画像データ、および各種のオブジェクトの画像データ等が、CPU7に認識される。また、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータを3次元ゲーム空間に配置するための位置座標データが含まれている。また、基本ゲームデータには、上記システムで用いられるデータも、含まれている。   For example, the basic game data includes data related to various images for a three-dimensional game space. The CPU 7 recognizes data related to various images for the three-dimensional game space, such as stadium image data, player character image data, and various object image data. Further, the basic game data includes position coordinate data for arranging data related to various images for the three-dimensional game space in the three-dimensional game space. The basic game data also includes data used in the above system.

続いて、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて、CPU7により実行される(S2)。すると、野球ゲームの起動画面がテレビジョンモニタ20に表示される。すると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。ここでは、たとえば、野球ゲームのプレイモードを選択するためのモード選択画面が、テレビジョンモニタ20に表示される(図示しない)。このモード選択画面において、プレイヤがコントローラ17を操作することにより、プレイモードが決定される(S3)。プレイモードには、たとえば、12球団の中から好きなチームを選択して1試合の対戦を楽しむ対戦モード、12球団の中から好きなチームを選択してペナントレースを戦うペナントモード、プレイヤが監督の立場でチームの選手キャラクタを育成する育成モード、およりプレイヤがある1人の選手キャラクタの立場になって野球ゲームを体感する成長体感モード等が、用意されている。   Subsequently, the baseball game program stored in the RAM 12 is executed by the CPU 7 based on the basic game data (S2). Then, the start screen of the baseball game is displayed on the television monitor 20. Then, various setting screens for executing the baseball game are displayed on the television monitor 20. Here, for example, a mode selection screen for selecting a play mode of the baseball game is displayed on the television monitor 20 (not shown). In the mode selection screen, the player operates the controller 17 to determine the play mode (S3). The play mode includes, for example, a battle mode in which a favorite team is selected from 12 teams to enjoy a match, a pennant mode in which a favorite team is selected from the 12 teams and a pennant race is played, and the player supervises A training mode for training the player characters of the team from the standpoint of the player, a growth experience mode for experiencing the baseball game from the standpoint of one player character with the Oyori player, and the like are prepared.

続いて、モード選択画面で選択されたプレイモードにおいて、各種のイベントが、CPU7により実行される(S4)。ここで実行される各種のイベントには、たとえば、AIプログラム(Artificial Intelligence Program)に基づいてCPU7により自動制御されるイベントや、コントローラ17からの入力信号に基づいてプレイヤにより手動制御されるイベントのようなイベントがある。また、選手キャラクタの制御には、AIプログラムに基づいて選手キャラクタに命令を自動的に指示する自動制御や、コントローラ17からの入力信号に基づいて選手キャラクタに命令を直接的に指示する手動制御等がある。このように、本野球ゲームでは、コントローラ17からの指示やAIプログラムからの指示に応じて、イベントが制御されたり、選手キャラクタに命令が指示されたりするようになっている。   Subsequently, various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4). The various events executed here are, for example, events automatically controlled by the CPU 7 based on an AI program (Artificial Intelligence Program), and events manually controlled by the player based on an input signal from the controller 17. There is a special event. The player character is controlled by automatic control for automatically instructing the player character based on the AI program, manual control for directly instructing the player character based on an input signal from the controller 17, or the like. There is. Thus, in this baseball game, an event is controlled or an instruction is instructed to the player character in accordance with an instruction from the controller 17 or an instruction from the AI program.

続いて、選択されたプレイモードが終了したか否かが、CPU7により判断される(S5)。具体的には、プレイモードが終了したことを示す命令が発行されたか否かが、CPU7により判断される。そして、プレイモードが終了したことを示す命令が発行されたとCPU7により判断された場合(S5でYes)、ゲーム継続用のデータをRAM12に格納する処理が、CPU7により実行される。そして、ゲーム継続用のデータがRAM12に格納されると、この野球ゲームを終了するか否かを選択する選択画面が、テレビジョンモニタ20に表示される(S6)。そして、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの終了を示す項目が選択されると(S6でYes)、野球ゲームを終了するための処理がCPU7により実行される(S7)。一方で、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの継続を示す項目が選択されると(S6でNo)、ステップ3(S3)のモード選択画面が、テレビジョンモニタ20に再表示される。   Subsequently, the CPU 7 determines whether or not the selected play mode is finished (S5). Specifically, the CPU 7 determines whether or not a command indicating that the play mode has ended is issued. If the CPU 7 determines that an instruction indicating that the play mode has ended has been issued (Yes in S5), the CPU 7 executes a process of storing the game continuation data in the RAM 12. When the game continuation data is stored in the RAM 12, a selection screen for selecting whether or not to end the baseball game is displayed on the television monitor 20 (S6). When an item indicating the end of the baseball game is selected by operating the controller 17 on the selection screen (Yes in S6), the CPU 7 executes a process for ending the baseball game ( S7). On the other hand, when an item indicating continuation of the baseball game is selected by operating the controller 17 on the selection screen (No in S6), the mode selection screen in Step 3 (S3) is displayed on the television monitor. 20 is displayed again.

なお、プレイモードが終了するための命令が発行されたとCPU7に判断されない限り(S5でNo)、モード選択画面で選択されたプレイモードにおいて、各種のイベントがCPU7により実行される(S4)。   Unless the CPU 7 determines that an instruction for ending the play mode has been issued (No in S5), various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4).

次に、映像表示システムの詳細を説明する。   Next, details of the video display system will be described.

本実施形態では、対戦モードが選択されたときに、映像表示システムが機能する場合の例が示される。たとえば、対戦モードにおいて試合イベントが実行されているときに、打者キャラクタによりホームランが放たれると、スタンドと、スタンドに飛び込むボールと、場外の建物と、場外の建物の表面に映る景色や建物等とが、テレビジョンモニタ20に表示される。ここで、場外の建物、および場外の建物の表面に映る景色や建物等を、テレビジョンモニタ20に表示する場合に、映像表示システムが用いられる。   In the present embodiment, an example in which the video display system functions when the battle mode is selected is shown. For example, when a home run is released by a batter character while a match event is being executed in the battle mode, the stand, the ball jumping into the stand, the off-site building, the scenery reflected on the surface of the off-site building, etc. Is displayed on the television monitor 20. Here, a video display system is used when an off-site building and a scenery or a building reflected on the surface of the off-site building are displayed on the television monitor 20.

以下では、1つの建物に注目して、この建物、およびこの建物の表面に映る景色や建物等を、映像表示システムを用いてテレビジョンモニタ20に表示する場合の例が示される。   In the following, an example in which one building is focused on, and this building and the scenery or building reflected on the surface of the building are displayed on the television monitor 20 using the video display system is shown.

映像表示システムでは、野球ゲームプログラムが、たとえば、記録媒体10からRAM12にロードされたときに、建物の表面のテクスチャに対応するテクスチャデータ、すなわち建物用のテクスチャデータが、RAM12に格納される(S101)。図3には、建物のある一面を見た場合の図が示されている。この建物の表面(外壁および屋上)のテクスチャに対応するテクスチャデータが、RAM12に格納される。また、このときには、この建物の表面に映りうる景色や建物等のテクスチャに対応する映り込み画像用のテクスチャデータが、RAM12に格納される(S102)。   In the video display system, for example, when a baseball game program is loaded from the recording medium 10 to the RAM 12, texture data corresponding to the texture of the building surface, that is, texture data for the building is stored in the RAM 12 (S101). ). FIG. 3 shows a view when one side of the building is seen. Texture data corresponding to the texture of the building surface (outer wall and rooftop) is stored in the RAM 12. At this time, the texture data for the reflected image corresponding to the texture that can be reflected on the surface of the building or the texture of the building is stored in the RAM 12 (S102).

映り込み画像用のテクスチャデータは、建物の表面に映りうる景色や建物等のテクスチャに対応するデータである。ここでは、図3に示すように、後述する映り込み画像用のポリゴンP2の重心位置PG0(後述する仮想カメラの注視点PG0)から、建物の壁面の外側の景色や建物等を見た場合の画像データが、映り込み画像用のテクスチャに対応する映り込み画像用のテクスチャデータTGとして用いられる。具体的には、映り込み画像用のテクスチャデータTGは、後述する仮想カメラの注視点PG0を撮影位置として、少なくとも建物の外面を撮影可能な画角GAを用いて、建物の外面の外側に位置する景色や建物等を撮影することにより生成されるデータである。   The texture data for the reflected image is data corresponding to the scenery or the texture of the building that can be reflected on the surface of the building. Here, as shown in FIG. 3, when a scenery or a building outside the wall of the building is viewed from the center of gravity position PG0 (a virtual camera gazing point PG0 described later) of a polygon P2 for a reflected image described later. The image data is used as the texture data TG for the reflected image corresponding to the texture for the reflected image. Specifically, the texture data TG for the reflected image is located outside the outer surface of the building using the angle of view GA that can capture at least the outer surface of the building with a gazing point PG0 of a virtual camera described later as the shooting position. This is data generated by photographing a scene or a building to be photographed.

続いて、建物用のポリゴンP1が、3次元ゲーム空間に配置される(S103)。ここでは、RAM12に格納された建物用のポリゴンP1の位置座標データが、CPU7に認識される。そして、この位置座標データが示す位置に、建物用のポリゴンP1を配置する命令が、CPU7から発行される。すると、建物用のポリゴンP1が、3次元ゲーム空間に配置される。   Subsequently, the building polygon P1 is arranged in the three-dimensional game space (S103). Here, the position coordinate data of the building polygon P1 stored in the RAM 12 is recognized by the CPU 7. Then, the CPU 7 issues a command for placing the building polygon P1 at the position indicated by the position coordinate data. Then, the building polygon P1 is arranged in the three-dimensional game space.

なお、「建物用のポリゴン」という文言は、三角形や四角形等のポリゴン(各要素)という意味で用いられる場合と、三角形や四角形等のポリゴン(各要素)を組み合わせて建物(六面体)を形成するポリゴン集合体という意味で用いられる場合とがある。   The term “polygon for building” is used to mean a polygon (each element) such as a triangle or a quadrangle, and a polygon (each element) such as a triangle or a quadrangle to form a building (hexahedron). Sometimes used to mean polygon aggregate.

続いて、映り込み画像用のポリゴンP2が、3次元ゲーム空間に配置される(S104)。ここでは、RAM12に格納された映り込み画像用のポリゴンP2の位置座標データが、CPU7に認識される。映り込み画像用のポリゴンP2の位置座標データが示す位置は、建物用のポリゴンP1の内部における所定の位置である。そして、この位置座標データが示す位置に、映り込み画像用のポリゴンP2を配置する命令が、CPU7から発行される。すると、映り込み画像用のポリゴンP2が、建物用のポリゴンP1の内部において、3次元ゲーム空間に配置される。   Subsequently, the polygon P2 for the reflected image is arranged in the three-dimensional game space (S104). Here, the position coordinate data of the polygon P2 for the reflected image stored in the RAM 12 is recognized by the CPU 7. The position indicated by the position coordinate data of the polygon P2 for the reflected image is a predetermined position inside the building polygon P1. Then, the CPU 7 issues a command for placing the reflected image polygon P2 at the position indicated by the position coordinate data. Then, the reflection image polygon P2 is arranged in the three-dimensional game space inside the building polygon P1.

なお、「映り込み画像用のポリゴン」という文言は、三角形や四角形等のポリゴン(各要素)という意味で用いられる場合と、三角形や四角形等のポリゴン(各要素)を組み合わせて平面を形成するポリゴン集合体という意味で用いられる場合とがある。   Note that the term “polygon for a reflected image” is used to mean a polygon (each element) such as a triangle or a quadrangle, and a polygon that forms a plane by combining a polygon (each element) such as a triangle or a quadrangle. Sometimes used to mean aggregate.

続いて、光源Lが、図4に示すように、3次元ゲーム空間に設定される(S105)。ここでは、RAM12に格納された光源Lの位置座標データが、CPU7に認識される。そして、この位置座標データが示す位置に、光源Lを配置する命令が、CPU7から発行される。すると、光源Lが、3次元ゲーム空間に配置される。   Subsequently, the light source L is set in the three-dimensional game space as shown in FIG. 4 (S105). Here, the position coordinate data of the light source L stored in the RAM 12 is recognized by the CPU 7. Then, a command for placing the light source L at the position indicated by the position coordinate data is issued from the CPU 7. Then, the light source L is arranged in the three-dimensional game space.

続いて、仮想カメラCが、図3および図4に示すように、3次元ゲーム空間に配置される(S106)。ここでは、RAM12に格納された仮想カメラCの初期位置を示す位置座標データが、CPU7に認識される。そして、この位置座標データが示す位置に、仮想カメラCを配置する命令が、CPU7から発行される。すると、仮想カメラCが、3次元ゲーム空間の初期位置に配置される。   Subsequently, the virtual camera C is arranged in the three-dimensional game space as shown in FIGS. 3 and 4 (S106). Here, the position coordinate data indicating the initial position of the virtual camera C stored in the RAM 12 is recognized by the CPU 7. Then, the CPU 7 issues a command to place the virtual camera C at the position indicated by the position coordinate data. Then, the virtual camera C is arranged at the initial position in the three-dimensional game space.

続いて、仮想カメラCの注視点PG0が、図3および図4に示すように、3次元ゲーム空間に配置される(S107)。ここでは、仮想カメラCの注視点PG0は、映り込み画像用のポリゴンP2上に配置される。具体的には、仮想カメラCの注視点PG0は、映り込み画像用のポリゴンP2の重心位置PG0に配置される。この映り込み画像用のポリゴンP2の重心位置PG0を示す位置座標データは、RAM12に格納されている。この位置座標データがCPU7に認識されると、この位置座標データが示す位置に、注視点PG0を配置する命令がCPU7から発行される。すると、注視点PG0が、3次元ゲーム空間に配置される。   Subsequently, the gazing point PG0 of the virtual camera C is arranged in the three-dimensional game space as shown in FIGS. 3 and 4 (S107). Here, the gazing point PG0 of the virtual camera C is arranged on the polygon P2 for the reflected image. Specifically, the gazing point PG0 of the virtual camera C is arranged at the gravity center position PG0 of the polygon P2 for the reflected image. The position coordinate data indicating the gravity center position PG0 of the polygon P2 for the reflected image is stored in the RAM 12. When the position coordinate data is recognized by the CPU 7, the CPU 7 issues a command for placing the gazing point PG0 at the position indicated by the position coordinate data. Then, the gazing point PG0 is arranged in the three-dimensional game space.

続いて、建物用のポリゴンP1の外部において仮想カメラCを移動するためのカメラ移動命令がCPU7から発行されたか否かが、判別される(S108)。そして、建物用のポリゴンP1の外部において仮想カメラCを移動するためのカメラ移動命令がCPU7から発行された場合(S108でYes)、移動後の仮想カメラCの位置を示す座標データが、CPU7に認識される(S109)。一方で、建物用のポリゴンP1の外部において仮想カメラCを移動するためのカメラ移動命令がCPU7から発行されていない場合(S108でNo)、現在の仮想カメラCの位置を示す座標データが、CPU7に認識される(S110)。このようにして、仮想カメラCが仮想空間に定義され配置される。   Subsequently, it is determined whether or not a camera movement command for moving the virtual camera C is issued from the CPU 7 outside the building polygon P1 (S108). When a camera movement command for moving the virtual camera C outside the building polygon P1 is issued from the CPU 7 (Yes in S108), coordinate data indicating the position of the virtual camera C after the movement is sent to the CPU 7. Recognized (S109). On the other hand, when the camera movement command for moving the virtual camera C is not issued from the CPU 7 outside the building polygon P1 (No in S108), the coordinate data indicating the current position of the virtual camera C is the CPU 7. (S110). In this way, the virtual camera C is defined and arranged in the virtual space.

続いて、建物表面の透明度Wに対応する、建物のテクスチャデータの透明度が、CPU7に認識される(S111)。ここでは、RAM12に格納された、建物の壁面に設けられる窓のテクスチャデータの透明度W1、および窓を除いた建物の壁面のテクスチャデータの透明度W2が、CPU7に認識される。これにより、建物表面に映る画像の映り込み度が設定される。   Subsequently, the transparency of the texture data of the building corresponding to the transparency W of the building surface is recognized by the CPU 7 (S111). Here, the CPU 7 recognizes the transparency W1 of the texture data of the window provided on the wall surface of the building and the transparency W2 of the texture data of the wall surface of the building excluding the window stored in the RAM 12. Thereby, the reflection degree of the image reflected on the building surface is set.

具体的には、ここでは、透明度Wが0%のときが不透明で、透明度Wが100%のときが透明であると定義されている。そして、RAM12に格納された、建物の壁面に設けられる窓のテクスチャデータの透明度W1が、たとえば100%であり、窓を除いた建物の壁面のテクスチャデータの透明度W2が、たとえば0%であった場合、建物の壁面の窓に映る景色や建物等だけを、テレビジョンモニタ20に表示することができる。   Specifically, it is defined here that the transparency is 0% when the transparency W is 0%, and the transparency is when the transparency W is 100%. And the transparency W1 of the texture data of the window provided on the wall surface of the building stored in the RAM 12 is, for example, 100%, and the transparency W2 of the texture data of the wall surface of the building excluding the window is, for example, 0%. In this case, only the scenery or the building reflected on the window on the wall of the building can be displayed on the television monitor 20.

また、RAM12に格納された、建物の壁面に設けられる窓のテクスチャデータの透明度W1が、たとえば100%であり、窓を除いた建物の壁面のテクスチャデータの透明度W2が、たとえば100%であった場合、建物の壁面全体に映る画像を、テレビジョンモニタ20に表示することができる。   Further, the transparency W1 of the texture data of the window provided on the wall surface of the building stored in the RAM 12 is, for example, 100%, and the transparency W2 of the texture data of the wall surface of the building excluding the window is, for example, 100%. In this case, an image reflected on the entire wall surface of the building can be displayed on the television monitor 20.

このように、RAM12に格納するテクスチャデータの透明度Wの値に応じて、建物表面に映る映像を、様々な映り込みの程度で、テレビジョンモニタ20に表示することができる。以下では、建物の壁面に設けられる窓のテクスチャデータの透明度W1が、100%であり、窓を除いた建物の壁面のテクスチャデータの透明度W2が、50%である場合の例を一例として、説明を行う。   As described above, according to the value of the transparency W of the texture data stored in the RAM 12, an image reflected on the building surface can be displayed on the television monitor 20 with various degrees of reflection. In the following, as an example, the transparency W1 of the texture data of the window provided on the wall surface of the building is 100%, and the transparency W2 of the texture data of the wall surface of the building excluding the window is 50%. I do.

続いて、仮想カメラCの位置、仮想カメラCの注視点PG0の位置、および光源Lの位置に応じて、建物のテクスチャデータの反射率Hを設定する処理を、CPU7に実行させることにより、反射効果の設定が実行される(S112)。ここでは、図4に示すように、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1(第1直線)と、第1直線が建物表面と交わる交点Kと光源Lとを結ぶ直線LS2(第2直線)とがなす角度α(反射角度)を算出する処理が、CPU7により実行される。そして、この反射角度αに応じて、建物のテクスチャデータの反射率Hが設定される。   Subsequently, by causing the CPU 7 to execute a process of setting the reflectance H of the texture data of the building according to the position of the virtual camera C, the position of the gazing point PG0 of the virtual camera C, and the position of the light source L, the reflection is performed. The effect is set (S112). Here, as shown in FIG. 4, a straight line LS1 (first straight line) connecting the position of the virtual camera C and the gazing point PG0 of the virtual camera C, and an intersection K and a light source L where the first straight line intersects the building surface are obtained. The CPU 7 executes processing for calculating an angle α (reflection angle) formed by the connecting straight line LS2 (second straight line). And according to this reflection angle (alpha), the reflectance H of the texture data of a building is set.

具体的には、まず、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1が建物表面と交わる交点Kが、CPU7により算出される。そして、この交点Kから光源Lに向かうベクトルA<A>が、CPU7により算出される。また、この交点Kから仮想カメラCの位置に向かうベクトルB<B>が、CPU7により算出される。次に、ベクトルA<A>とベクトルB<B>との内積を求める式(cosα=(<A>・<B>)/(|<A>||<B>|))に基づいて、ベクトルA<A>とベクトルB<B>とがなす角度すなわち反射角度αが、CPU7により算出される。このようにして、第1直線LS1と第2直線LS2とがなす角度(反射角度α)が、CPU7により算出される。   Specifically, first, the CPU 7 calculates an intersection point K at which a straight line LS1 connecting the position of the virtual camera C and the gazing point PG0 of the virtual camera C intersects the building surface. Then, a vector A <A> from the intersection K toward the light source L is calculated by the CPU 7. Also, the CPU 7 calculates a vector B <B> from the intersection K toward the position of the virtual camera C. Next, based on the expression (cosα = (<A> · <B>) / (| <A> || <B> |)) for calculating the inner product of the vector A <A> and the vector B <B>, The angle formed by the vector A <A> and the vector B <B>, that is, the reflection angle α is calculated by the CPU 7. In this way, the angle formed by the first straight line LS1 and the second straight line LS2 (reflection angle α) is calculated by the CPU 7.

なお、図4に示したベクトルA<A>およびベクトルB<B>は、図を見やすくするために、単位ベクトルで表示している。   Note that the vector A <A> and the vector B <B> shown in FIG. 4 are displayed as unit vectors in order to make the drawing easier to see.

この反射角度αに応じて、建物のテクスチャデータの反射率Hが設定される。ここでは、反射率Hが100%のときが完全反射で、反射率Hが0%のときが無反射であると定義されている。たとえば、図5に示すように、反射角度αが80度以上100以下の場合、反射率Hが、たとえば100%に設定される。そして、反射角度αが、90度から180度、又は90度から0度に向かうにつれて、反射率Hが小さくなるように設定される。これにより、仮想カメラCの位置に応じて、建物壁面で反射した光の眩しさを変更することができる。   In accordance with the reflection angle α, the reflectance H of the texture data of the building is set. Here, it is defined that complete reflection is obtained when the reflectance H is 100% and non-reflection when the reflectance H is 0%. For example, as shown in FIG. 5, when the reflection angle α is not less than 80 degrees and not more than 100, the reflectance H is set to 100%, for example. Then, the reflectance H is set so as to decrease as the reflection angle α increases from 90 degrees to 180 degrees, or from 90 degrees to 0 degrees. Thereby, according to the position of the virtual camera C, the glare of the light reflected on the building wall surface can be changed.

なお、反射角度αと反射率Hとの対応関係は、ゲームプログラムにおいて予め規定されている。たとえば、反射角度αと反射率Hとの対応関係を示すテーブルは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   The correspondence relationship between the reflection angle α and the reflectance H is defined in advance in the game program. For example, a table indicating the correspondence relationship between the reflection angle α and the reflectance H is loaded and stored from the recording medium 10 to the RAM 12 together with the baseball game program when the baseball game program is loaded from the recording medium 10 to the RAM 12. .

続いて、仮想カメラCの位置および仮想カメラCの注視点PG0の位置に基づいて、映り込み画像用のテクスチャデータTGの少なくとも一部を抽出する処理を、CPU7に実行させることにより、建物表面に映る画像のテクスチャが決定される(S113)。   Subsequently, based on the position of the virtual camera C and the position of the gazing point PG0 of the virtual camera C, the CPU 7 executes a process for extracting at least a part of the texture data TG for the reflected image, so that The texture of the image shown is determined (S113).

ここでは、図6に示すように、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1(上記の第1直線)と、仮想カメラCの視線方向の角度を規定するために用いられる基準点Bと仮想カメラCの注視点PG0とを結ぶ直線LS3(第3直線)とがなす角度β(仮想カメラCの視線角度β)が、CPU7により算出される。   Here, as shown in FIG. 6, in order to define the angle of the line of sight direction of the virtual camera C and the straight line LS1 (the first straight line) connecting the position of the virtual camera C and the gazing point PG0 of the virtual camera C. The CPU 7 calculates an angle β (line-of-sight angle β of the virtual camera C) formed by a straight line LS3 (third line) connecting the reference point B used and the gazing point PG0 of the virtual camera C.

なお、仮想カメラCの視線方向の角度を規定するために用いられる基準点Bは、たとえば、仮想カメラCの注視点PG0を基準として、平面状の映り込み画像用のポリゴンP2に垂直な方向の所定の位置に配置される。この位置は、ゲームプログラムにおいて予め規定されている。   The reference point B used to define the angle of the visual line direction of the virtual camera C is, for example, in the direction perpendicular to the planar reflected image polygon P2 with reference to the gazing point PG0 of the virtual camera C. It is arranged at a predetermined position. This position is defined in advance in the game program.

具体的には、仮想カメラCの注視点PG0から仮想カメラCの位置に向かうベクトルC<C>と、仮想カメラCの注視点PG0から基準点Bに向かうベクトルD<D>との内積を求める式(cosβ=(<C>・<D>)/(|<C>||<D>|))に基づいて、ベクトルC<C>とベクトルD<D>とがなす角度すなわち視線角度βが、CPU7により算出される。このようにして、第1直線LS1と第3直線LS3とがなす角度(視線角度β)が、CPU7により算出される。   Specifically, an inner product of a vector C <C> from the gazing point PG0 of the virtual camera C toward the position of the virtual camera C and a vector D <D> from the gazing point PG0 of the virtual camera C toward the reference point B is obtained. Based on the equation (cosβ = (<C> · <D>) / (| <C> || <D> |)), the angle formed by the vector C <C> and the vector D <D>, that is, the line-of-sight angle β Is calculated by the CPU 7. In this way, the angle (line-of-sight angle β) formed by the first straight line LS1 and the third straight line LS3 is calculated by the CPU 7.

また、図3および図6に示すように、仮想カメラCと建物表面との距離BC(カメラ建物間距離)が、CPU7により算出される。具体的には、仮想カメラCから建物表面又は建物表面の延長面に下ろした垂線の長さを算出する処理を、CPU7に実行させることにより、カメラ建物間距離BCが設定される。   Further, as shown in FIGS. 3 and 6, the distance BC (distance between camera buildings) between the virtual camera C and the building surface is calculated by the CPU 7. Specifically, the camera building distance BC is set by causing the CPU 7 to execute a process of calculating the length of the perpendicular line drawn from the virtual camera C to the building surface or the extended surface of the building surface.

すると、建物表面に映り込む画像上における、視線角度βに対応する位置TS(建物表面に映り込む画像上の視線対応位置)の座標データが、CPU7により検出され認識される。ここでは、建物表面に映り込む画像上の視線対応位置TSの座標データは、次のようにして、CPU7により検出される。   Then, the coordinate data of the position TS corresponding to the line-of-sight angle β on the image reflected on the building surface (the line-of-sight corresponding position on the image reflected on the building surface) is detected and recognized by the CPU 7. Here, the coordinate data of the line-of-sight corresponding position TS on the image reflected on the building surface is detected by the CPU 7 as follows.

たとえば、図3に示すように、映り込み画像用のテクスチャデータTGに対応する画像(建物表面に映り込む画像)における、四隅T1,T2,T3,T4の位置および重心の位置T0が、CPU7に認識される。具体的には、建物表面に映り込む画像の四隅それぞれの位置座標データT1(0,0),T2(0,1),T3(1,1),T4(1,0)、および重心の位置座標データT0(0.5,0.5)が、CPU7に認識される。   For example, as shown in FIG. 3, the positions of the four corners T1, T2, T3, and T4 and the position of the center of gravity T0 in the image corresponding to the texture data TG for the reflected image (image reflected on the building surface) are stored in the CPU 7. Be recognized. Specifically, the position coordinate data T1 (0, 0), T2 (0, 1), T3 (1, 1), T4 (1, 0) of each of the four corners of the image reflected on the building surface, and the position of the center of gravity The coordinate data T0 (0.5, 0.5) is recognized by the CPU 7.

視線角度βが0度である場合、重心の位置座標データT0(0.5,0.5)が、この視線角度βに対応する、建物表面に映り込む画像上の視線対応位置TSの座標データとして、CPU7に認識される。この視線角度βが0度である場合の、建物表面に映り込む画像上の視線対応位置TS(=T0)が、基準となる。   When the line-of-sight angle β is 0 degree, the coordinate data of the line-of-sight corresponding position TS on the image that the position coordinate data T0 (0.5, 0.5) of the center of gravity corresponds to the line-of-sight angle β is reflected on the building surface. As recognized by the CPU 7. When the line-of-sight angle β is 0 degree, the line-of-sight corresponding position TS (= T0) on the image reflected on the building surface is a reference.

ここで、図6に示すように、映り込み画像用のポリゴンP2の重心位置PG0を原点として、水平方向をx座標、垂直方向をy座標とし、仮想カメラCの注視点PG0から基準点Bに向かうベクトルD<D>の方向を、z方向と定義する。この座標系において、視線角度βをxz平面に投影した角度βxz(図3を参照)に応じて、建物表面に映り込む画像上の視線対応位置TSのx座標が設定される。また、視線角度βをyz平面に投影した角度βyz(図示しない)に応じて、建物表面に映り込む画像上の視線対応位置TSのy座標が設定される。   Here, as shown in FIG. 6, the center of gravity PG0 of the polygon P2 for the reflected image is the origin, the horizontal direction is the x coordinate, the vertical direction is the y coordinate, and the gazing point PG0 of the virtual camera C is set to the reference point B. The direction of the going vector D <D> is defined as the z direction. In this coordinate system, the x coordinate of the line-of-sight corresponding position TS on the image reflected on the building surface is set according to the angle βxz (see FIG. 3) obtained by projecting the line-of-sight angle β onto the xz plane. Further, the y coordinate of the line-of-sight corresponding position TS on the image reflected on the building surface is set according to the angle βyz (not shown) obtained by projecting the line-of-sight angle β onto the yz plane.

具体的には、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1が、仮想カメラC側の建物表面の幅方向の境界と交わるときの角度βxz_max(図3を参照)を算出する処理が、CPU7により実行される。また、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1が、仮想カメラC側の建物表面の高さ方向の境界と交わるときの角度βyz_max(図示しない)を算出する処理が、CPU7により実行される。そして、視線角度βをxz平面に投影した角度βxzを、角度βxz_maxで除算する処理(βxz/βxz_max)が、CPU7により実行される。また、視線角度βをyz平面に投影した角度βyzを、角度βyz_maxで除算する処理(βyz/βyz_max)が、CPU7により実行される。   Specifically, an angle βxz_max (see FIG. 3) when the straight line LS1 connecting the position of the virtual camera C and the gazing point PG0 of the virtual camera C intersects the boundary in the width direction of the building surface on the virtual camera C side. The calculation process is executed by the CPU 7. Also, a process of calculating an angle βyz_max (not shown) when the straight line LS1 connecting the position of the virtual camera C and the gazing point PG0 of the virtual camera C intersects the boundary in the height direction of the building surface on the virtual camera C side. , Executed by the CPU 7. Then, the CPU 7 executes a process (βxz / βxz_max) for dividing the angle βxz obtained by projecting the line-of-sight angle β on the xz plane by the angle βxz_max. Further, the CPU 7 executes a process (βyz / βyz_max) for dividing the angle βyz obtained by projecting the line-of-sight angle β on the yz plane by the angle βyz_max.

そして、建物表面に映り込む画像上の視線対応位置TS(=T0)を基準とした、除算結果である「(βxz/βxz_max,βyz/βyz_max)」の位置が、視線角度βに対応する位置TS(建物表面に映り込む画像上の視線対応位置)の座標データとして、CPU7に認識される。   Then, the position “(βxz / βxz_max, βyz / βyz_max)”, which is the division result with reference to the line-of-sight position TS (= T0) on the image reflected on the building surface, is the position TS corresponding to the line-of-sight angle β. It is recognized by the CPU 7 as coordinate data of (the line-of-sight corresponding position on the image reflected on the building surface).

このようにして、視線角度βに対応する位置TS(建物表面に映り込む画像上の視線対応位置)がCPU7に認識されると、この位置TSを基準として、カメラ建物間距離BCに対応する画像の抽出範囲、すなわち建物表面に映り込む画像内の部分画像の範囲が、CPU7により設定され認識される。このようにして、映り込み画像用のテクスチャデータTGの少なくとも一部が、CPU7により抽出される。   In this way, when the position TS corresponding to the line-of-sight angle β (the line-of-sight corresponding position on the image reflected on the building surface) is recognized by the CPU 7, the image corresponding to the camera building distance BC with the position TS as a reference. The CPU 7 sets and recognizes the extraction range, i.e., the range of the partial image in the image reflected on the building surface. In this way, at least a part of the texture data TG for the reflected image is extracted by the CPU 7.

ここでは、たとえば、カメラ建物間距離BCが建物の幅方向の長さと等しい場合に、建物表面に映る画像が等倍になるように、カメラ建物間距離BCと、画像を抽出する範囲(境界)を定義するためのデータとが対応付けられている。そして、カメラ建物間距離BCが仮想カメラC側の建物表面に近づくにつれて、建物表面に映り込む画像内から抽出される画像の範囲が小さくなるように、カメラ建物間距離BCと、画像を抽出する範囲(境界)を定義するためのデータとが対応付けられている。一方で、カメラ建物間距離BCが仮想カメラC側の建物表面から遠ざかるにつれて、建物表面に映り込む画像内から抽出される画像の範囲が大きくなるように、カメラ建物間距離BCと、画像を抽出する範囲(境界)を定義するためのデータとが対応付けられている。   Here, for example, when the camera building distance BC is equal to the length of the building in the width direction, the camera building distance BC and the range (boundary) where the image is extracted so that the image reflected on the building surface is the same size. Is associated with the data for defining. Then, as the camera building distance BC approaches the building surface on the virtual camera C side, the camera building distance BC and the image are extracted so that the range of the image extracted from the image reflected on the building surface becomes smaller. Data for defining a range (boundary) is associated. On the other hand, the camera building distance BC and the image are extracted so that the range of the image extracted from the image reflected on the building surface increases as the camera building distance BC moves away from the building surface on the virtual camera C side. Is associated with data for defining a range (boundary) to be performed.

なお、ここでは、画像を抽出する範囲(境界)を定義するためのデータ、すなわち建物表面に映り込む画像内の部分画像の範囲を定義するためのデータは、四隅の座標データになっている。すなわち、カメラ建物間距離BCが算出されると、視線角度βに対応する位置TSを示すx座標データおよびy座標データそれぞれに、カメラ建物間距離BCに対応する4つの所定の値を加算する処理が、CPU7により実行される。これにより、視線角度βに対応する位置TSを基準とした、四隅の座標データTS1,TS2,TS3,TS4(図3を参照)が、求められる。建物表面に映り込む画像内の部分画像の範囲を定義するための、これら四隅の座標データTS1,TS2,TS3,TS4(図3を参照)をCPU7に認識させることにより、建物表面に映り込む画像内の部分画像の範囲を規定することができ、建物表面に映り込む画像内の部分画像を抽出することができる。   Here, the data for defining the range (boundary) for extracting the image, that is, the data for defining the range of the partial image in the image reflected on the building surface is the coordinate data of the four corners. That is, when the camera building distance BC is calculated, four predetermined values corresponding to the camera building distance BC are added to each of the x coordinate data and the y coordinate data indicating the position TS corresponding to the line-of-sight angle β. Is executed by the CPU 7. Thereby, the coordinate data TS1, TS2, TS3, TS4 (see FIG. 3) at the four corners with respect to the position TS corresponding to the line-of-sight angle β is obtained. An image reflected on the building surface by causing the CPU 7 to recognize the coordinate data TS1, TS2, TS3, TS4 (see FIG. 3) of these four corners for defining the range of the partial image in the image reflected on the building surface. The range of the partial image can be defined, and the partial image in the image reflected on the building surface can be extracted.

続いて、建物用のテクスチャデータを建物用のポリゴンP1に投影する処理が、CPU7により実行される(S114)。たとえば、建物用のポリゴンP1の3次元座標を2次元座標系に対応づける処理(マッピング)が、CPU7により実行される。そして、建物用のテクスチャデータの座標を、建物用のポリゴンP1をマッピングした2次元座標系に対応づける処理が、CPU7により実行される。これにより、建物用のポリゴンモデルPM1が生成される。ここで生成される建物用のポリゴンモデルPM1は、透明度Wの値に応じて、少なくとも一部が透明性を有している。たとえば、この建物用のポリゴンモデルPM1では、壁面の窓は、100%の透明度W1に対応する透明性を有し、窓を除いた建物の壁面は、50%の透明度W2に対応する透明性を有している。   Subsequently, a process of projecting the building texture data onto the building polygon P1 is executed by the CPU 7 (S114). For example, the CPU 7 executes processing (mapping) for associating the three-dimensional coordinates of the building polygon P1 with the two-dimensional coordinate system. The CPU 7 executes a process of associating the coordinates of the building texture data with the two-dimensional coordinate system in which the building polygon P1 is mapped. Thereby, the polygon model PM1 for buildings is generated. The building polygon model PM1 generated here is at least partially transparent depending on the value of the transparency W. For example, in this building polygon model PM1, the window on the wall surface has transparency corresponding to 100% transparency W1, and the wall surface of the building excluding the window has transparency corresponding to 50% transparency W2. Have.

続いて、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンP2に投影する処理が、CPU7により実行される(S115)。たとえば、映り込み画像用のポリゴンP2の3次元座標を2次元座標系に対応づける処理(マッピング)が、CPU7により実行される。そして、抽出された映り込み画像用のテクスチャデータの座標を、映り込み画像用のポリゴンP2をマッピングした2次元座標に対応づける処理が、CPU7により実行される。これにより、映り込み画像用のポリゴンモデルPM2が生成される。   Subsequently, the CPU 7 executes a process of projecting the extracted reflected image texture data onto the reflected image polygon P2 (S115). For example, the CPU 7 executes processing (mapping) for associating the three-dimensional coordinates of the polygon P2 for the reflected image with the two-dimensional coordinate system. Then, the CPU 7 executes a process of associating the coordinates of the extracted texture data for the reflected image with the two-dimensional coordinates obtained by mapping the polygon P2 for the reflected image. Thereby, the polygon model PM2 for the reflected image is generated.

続いて、建物用のポリゴンモデルPM1の内部の映り込み画像用のポリゴンモデルPM2を、建物用のポリゴンモデルPM1の壁面全体を通して、建物用のポリゴンモデルPM1の外部から仮想カメラCにより撮影する処理をCPU7に実行させることにより、図7に示すように、建物と建物表面に映る映像とがテレビジョンモニタ20に表示される(S116)。   Subsequently, a process of photographing the polygon model PM2 for a reflected image inside the building polygon model PM1 through the entire wall surface of the building polygon model PM1 by the virtual camera C from the outside of the building polygon model PM1. By causing the CPU 7 to execute it, as shown in FIG. 7, the building and the video image shown on the building surface are displayed on the television monitor 20 (S116).

なお、図7では、建物表面に映る映像を破線にて示している。また、建物表面に映る映像をテレビジョンモニタ20に表示するためのポリゴンモデルPM2は、図6に示すポリゴンP2の位置に形成されている。   In addition, in FIG. 7, the image | video reflected on the building surface is shown with the broken line. Further, a polygon model PM2 for displaying an image reflected on the building surface on the television monitor 20 is formed at the position of the polygon P2 shown in FIG.

具体的には、仮想カメラCに対する撮影命令をCPU7に発行させることにより、仮想カメラCに写る画像が、テレビジョンモニタ20に表示される。たとえば、仮想カメラCの注視点PG0が、建物用のポリゴンP1の内部に配置される場合、撮影命令がCPU7から発行されると、建物用のポリゴンモデルPM1の内部の映り込み画像用のポリゴンモデルPM2が、建物用のポリゴンモデルPM1の壁面全体を通して、建物用のポリゴンモデルPM1の外部から仮想カメラCにより撮影される。すると、建物の画像と、建物表面に映る画像(建物表面に映り込む画像)とが、テレビジョンモニタ20に表示される。   Specifically, by causing the CPU 7 to issue a shooting command for the virtual camera C, an image captured by the virtual camera C is displayed on the television monitor 20. For example, when the gazing point PG0 of the virtual camera C is arranged inside the building polygon P1, when a shooting command is issued from the CPU 7, the polygon model for the reflected image inside the building polygon model PM1 is displayed. PM2 is photographed by the virtual camera C from the outside of the building polygon model PM1 through the entire wall surface of the building polygon model PM1. Then, an image of the building and an image reflected on the building surface (an image reflected on the building surface) are displayed on the television monitor 20.

なお、上述した映像表示システムの説明において、ステップ101(S101)の処理およびステップ102(S102)の処理は、ステップ1(S1)において実行される。また、ステップ103(S103)からステップ116(S116)までの処理は、ステップ4(S4)において実行される。すなわち、プレイモードが終了したことを示す命令がCPU7から発行されるまでの間において(S5でYesになるまでの間において)、建物がテレビジョンモニタ20に表示されるときには、このステップ103(S103)からステップ116(S116)までの処理が実行される。   In the above description of the video display system, the process of step 101 (S101) and the process of step 102 (S102) are executed in step 1 (S1). The processing from step 103 (S103) to step 116 (S116) is executed in step 4 (S4). That is, when a building is displayed on the television monitor 20 until a command indicating that the play mode has ended is issued from the CPU 7 (until Yes in S5), this step 103 (S103). ) To step 116 (S116).

上記のように、本実施形態では、建物用のポリゴンモデルPM1の内部に配置された映り込み画像用のポリゴンモデルPM2を、建物用のポリゴンモデルPM1の外部から仮想カメラCにより撮影することにより、仮想カメラCが建物を撮影する位置に応じて、建物表面に異なる映像を、描画することができる。また、仮想カメラCが建物を撮影する位置に応じて異なる視差を、テレビジョンモニタ20に表示される映像において表現することができる。このように、建物表面に映る画像を、リアリティのある表現で、テレビジョンモニタ20に表示することができる。   As described above, in the present embodiment, the polygon model PM2 for the reflected image arranged inside the building polygon model PM1 is photographed by the virtual camera C from the outside of the building polygon model PM1, Different images can be drawn on the building surface according to the position where the virtual camera C captures the building. Also, different parallaxes can be expressed in the video displayed on the television monitor 20 depending on the position where the virtual camera C captures the building. In this way, an image reflected on the building surface can be displayed on the television monitor 20 with a realistic expression.

〔他の実施形態〕
(a )前記実施形態では、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影することにより、仮想カメラがオブジェクトを撮影する位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示するものである。ここで、映り込み画像用のポリゴンモデルをオブジェクト用のポリゴンモデルの透明な部分から奥行き方向に複数、互いに離間させて配置するようにしてもよい。例えば、透明な部分の内側に車のポリゴンモデルを配置し、さらにその奥に家のポリゴンモデルを配置し、さらにその奥に森を含む背景のポリゴンモデルを配置するようにする。この場合には、仮想カメラの位置や移動によって、家の一部がその前に位置する車によって遮られて見えたり、全く遮られることなく全体像が見えたりすることになる。同時に、背景の森がその前に位置する車や家によって遮られる部分が変化することになる。つまり、複数の互いに離間したポリゴンモデルによって外部の写り込み景色を構成することで、一枚からなるポリゴンモデルで外部の写り込み景色を構成する場合に比べ、奥行き感のあるより立体的な現実に近い画像表現を行うことができる。
[Other Embodiments]
(A) In the above embodiment, the polygon model for the reflected image arranged inside the polygon model for the object is passed through the transparent portion of the polygon model for the object by the virtual camera from the outside of the polygon model for the object. By photographing, a different image (image reflected on the object surface) is displayed on the image display unit depending on the position where the virtual camera captures the object. Here, a plurality of reflected image polygon models may be arranged apart from each other in the depth direction from the transparent portion of the object polygon model. For example, a car polygon model is arranged inside a transparent part, a house polygon model is arranged behind the car, and a background polygon model including a forest is arranged further inside. In this case, depending on the position and movement of the virtual camera, a part of the house can be seen blocked by a car located in front of it or the whole image can be seen without being blocked at all. At the same time, the area where the background forest is blocked by the car or house in front of it changes. In other words, by constructing an external reflection scene with a plurality of polygon models that are spaced apart from each other, a more three-dimensional reality with a sense of depth is achieved than when an external reflection scene is configured with a single polygon model. Close image representation can be performed.

(b)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての家庭用ビデオゲーム装置を用いた場合の例を示したが、ゲーム装置は、前記実施形態に限定されず、モニタが別体に構成されたゲーム装置、モニタが一体に構成されたゲーム装置、ゲームプログラムを実行することによってゲーム装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。   (B) In the above embodiment, an example in which a home video game apparatus as an example of a computer to which a game program can be applied has been used has been described. However, the game apparatus is not limited to the above embodiment, and a monitor is separately provided. The present invention can be similarly applied to a game device configured in a body, a game device in which a monitor is integrated, a personal computer functioning as a game device by executing a game program, a workstation, and the like.

(c)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。   (C) The present invention includes a program for executing the above-described game and a computer-readable recording medium on which the program is recorded. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.

本発明の一実施形態によるビデオゲーム装置の基本構成図。1 is a basic configuration diagram of a video game apparatus according to an embodiment of the present invention. 前記ビデオゲーム装置の一例としての機能ブロック図。The functional block diagram as an example of the said video game device. 3次元ゲーム空間における、建物用のポリゴン、映り込み画像用のポリゴン、および仮想カメラ等の配置位置を説明するための図。The figure for demonstrating the arrangement position of the polygon for buildings, the polygon for a reflected image, a virtual camera, etc. in a three-dimensional game space. 3次元ゲーム空間における、仮想カメラの位置、注視点の位置、および光源の位置を示す図。The figure which shows the position of a virtual camera, the position of a gazing point, and the position of a light source in a three-dimensional game space. 反射角度と反射率との対応関係を示す図。The figure which shows the correspondence of a reflection angle and a reflectance. 視線角度を算出方法を説明するための図。The figure for demonstrating the calculation method of a gaze angle. モニタに表示される建物と建物表面に映る映像とを示す図(モニタに表示される部分のポリゴンモデルを示す図)。The figure which shows the building displayed on a monitor, and the image | video reflected on the building surface (the figure which shows the polygon model of the part displayed on a monitor). 野球ゲームの全体概要を示すフロー。Flow showing the overall outline of the baseball game. 映像表示システムを説明するためのフローチャート。The flowchart for demonstrating a video display system.

符号の説明Explanation of symbols

1 制御部
3 画像表示部
7 CPU
12 RAM
17 コントローラ
20 テレビジョンモニタ
50 第1テクスチャ格納手段
51 第2テクスチャ格納手段
52 第1ポリゴン配置手段
53 第2ポリゴン配置手段
54 光源配置手段
55 カメラ配置手段
56 注視点配置手段
57 映り込み度設定手段
58 反射効果付加手段
59 テクスチャ決定手段
60 第1ポリゴン生成手段
61 第2ポリゴン生成手段
62 画像表示手段
C 仮想カメラ
BC カメラ建物間距離
PG0 注視点
P1 建物用のポリゴン
PM1 建物用のポリゴンモデル
P2 映り込み画像用のポリゴン
PM2 映り込み画像用のポリゴンモデル
TG 映り込み画像用のテクスチャデータ
L 光源
α 反射角度
β 視線角度
H 反射率


1 control unit 3 image display unit 7 CPU
12 RAM
17 controller 20 television monitor 50 first texture storage means 51 second texture storage means 52 first polygon placement means 53 second polygon placement means 54 light source placement means 55 camera placement means 56 gazing point placement means 57 reflection level setting means 58 Reflection effect adding means 59 Texture determining means 60 First polygon generating means 61 Second polygon generating means 62 Image display means C Virtual camera BC Camera inter-building distance PG0 Gaze point P1 Building polygon PM1 Building polygon model P2 Reflected image Polygon for PM2 Polygon model for reflection image TG Texture data for reflection image L Light source α Reflection angle β Gaze angle H Reflectance


Claims (8)

オブジェクトを画像表示部に表示するためのデータを処理可能なコンピュータに、
オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納機能と、
オブジェクト表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納機能と、
オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置機能と、
前記オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記映り込み画像用のポリゴンを前記オブジェクト用のポリゴンの内部に配置する第2ポリゴン配置機能と、
前記オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置機能と、
仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置機能と、
仮想カメラの位置および仮想カメラの注視点の位置に基づいて、前記映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、前記オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定機能と、
前記オブジェクト用のテクスチャデータを前記オブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成機能と、
抽出された前記映り込み画像用のテクスチャデータを前記映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成機能と、
前記オブジェクト用のポリゴンモデルの内部の前記映り込み画像用のポリゴンモデルを、前記オブジェクト用のポリゴンモデルの透明な部分を通して、前記オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、前記オブジェクトと前記オブジェクト表面に映る画像とを画像表示部に表示する画像表示機能と、
を実現させるための画像処理プログラム。
To a computer that can process data for displaying objects on the image display,
A first texture storage function for storing texture data for an object in a storage unit;
A second texture storage function for storing the texture data for the reflected image corresponding to the image that can virtually appear on the object surface in the storage unit;
A first polygon placement function for placing the object polygon in a virtual space by causing the control unit to recognize coordinate data for defining the placement position of the object polygon;
The polygon for the reflected image is placed inside the polygon for the object by causing the control unit to recognize coordinate data for defining the arrangement position of the polygon for the reflected image inside the polygon for the object. A second polygon placement function,
A camera placement function for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera outside the polygon for the object;
A gaze point arrangement function for arranging the gaze point of the virtual camera in the virtual space by causing the control unit to recognize coordinate data corresponding to the gaze point of the virtual camera;
Based on the position of the virtual camera and the position of the gazing point of the virtual camera, the control unit executes a process of extracting at least a part of the texture data for the reflected image, whereby the texture of the image reflected on the object surface Texture decision function to decide,
A first polygon generation function for generating a polygon model for an object that is at least partially transparent by causing the control unit to execute a process of projecting the texture data for the object onto the polygon for the object;
A second polygon generation function for generating a polygon model for a reflected image by causing the control unit to execute a process of projecting the extracted texture data for the reflected image onto the polygon for the reflected image;
The control unit performs processing for photographing the polygon model for the reflected image inside the polygon model for the object from the outside of the polygon model for the object through a transparent portion of the polygon model for the object. An image display function for displaying the object and an image reflected on the surface of the object on an image display unit,
An image processing program for realizing
前記カメラ配置機能では、前記オブジェクト用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令が制御部から発行された場合、移動後の仮想カメラの位置を示す座標データを、制御部に認識させることにより、仮想カメラが仮想空間に配置され、
前記テクスチャ決定機能では、移動後の仮想カメラの位置および仮想カメラの注視点の位置に応じて、前記映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、前記オブジェクト表面に映る画像のテクスチャが決定される、
請求項1に記載の画像処理プログラム。
In the camera arrangement function, when a camera movement command for moving the virtual camera outside the polygon for the object is issued from the control unit, the control unit recognizes coordinate data indicating the position of the virtual camera after the movement. By placing the virtual camera in the virtual space,
In the texture determination function, by causing the control unit to execute a process of extracting at least part of the texture data for the reflected image according to the position of the virtual camera after movement and the position of the gazing point of the virtual camera. A texture of an image reflected on the object surface is determined;
The image processing program according to claim 1.
前記コンピュータに、
前記オブジェクトのテクスチャデータの透明度を制御部に認識させることにより、前記オブジェクト表面に映る画像の映り込み度を設定する映り込み度設定機能と、
をさらに実現させるための請求項1又は2に記載の画像処理プログラム。
In the computer,
A reflection degree setting function for setting a reflection degree of an image reflected on the object surface by causing the control unit to recognize the transparency of the texture data of the object;
The image processing program according to claim 1 or 2 for further realizing the above.
前記コンピュータに、
前記オブジェクト用のポリゴンの外部において光源の配置位置を規定するための座標データを、制御部に認識させることにより、光源を仮想空間に配置する光源配置機能と、
仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、前記オブジェクトのテクスチャデータの反射率を設定する処理を、制御部に実行させることにより、前記オブジェクト表面に映る画像に反射効果を付加する反射効果付加機能と、
をさらに実現させるための請求項1から3のいずれかに記載の画像処理プログラム。
In the computer,
A light source arrangement function for arranging the light source in a virtual space by causing the control unit to recognize coordinate data for defining the arrangement position of the light source outside the polygon for the object;
By causing the control unit to execute processing for setting the reflectance of the texture data of the object according to the position of the virtual camera, the position of the gazing point of the virtual camera, and the position of the light source, the image reflected on the object surface is displayed. A reflection effect adding function for adding a reflection effect;
The image processing program according to claim 1, for further realizing the above.
前記テクスチャ決定機能では、仮想カメラの位置を示す座標データおよび仮想カメラの注視点を示す座標データに基づいて、仮想カメラの視線角度を算出する処理を制御部に実行させ、前記映り込み画像用のテクスチャデータが示す画像における、前記視線角度に対応する座標データを、制御部に認識させることにより、前記視線角度に対応する座標データが示す位置を基準として、前記オブジェクト表面に映る画像のテクスチャが抽出される、
請求項1から4のいずれかに記載の画像処理プログラム。
In the texture determination function, based on the coordinate data indicating the position of the virtual camera and the coordinate data indicating the gazing point of the virtual camera, the control unit executes a process of calculating the gaze angle of the virtual camera, and for the reflected image By causing the control unit to recognize the coordinate data corresponding to the line-of-sight angle in the image indicated by the texture data, the texture of the image reflected on the object surface is extracted based on the position indicated by the coordinate data corresponding to the line-of-sight angle. To be
The image processing program according to claim 1.
前記テクスチャ決定機能では、仮想カメラの位置を示す座標データに基づいて、仮想カメラの位置と前記オブジェクトとの距離を算出する処理を、制御部にさらに実行させ、前記距離に対応する、オブジェクト表面に映る画像の範囲を、制御部に認識させることにより、前記視線角度に対応する座標データが示す位置を基準として、前記オブジェクト表面に映る画像の範囲のテクスチャが抽出される、
請求項5に記載の画像処理プログラム。
In the texture determination function, based on the coordinate data indicating the position of the virtual camera, a process for calculating the distance between the position of the virtual camera and the object is further executed by the control unit, and the object surface corresponding to the distance is calculated. By causing the control unit to recognize the range of the image shown, the texture of the range of the image shown on the object surface is extracted with reference to the position indicated by the coordinate data corresponding to the line-of-sight angle.
The image processing program according to claim 5.
オブジェクトを画像表示部に表示するためのデータを処理可能な画像処理装置であって、
オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納手段と、
オブジェクト表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納手段と、
オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置手段と、
前記オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記映り込み画像用のポリゴンを前記オブジェクト用のポリゴンの内部に配置する第2ポリゴン配置手段と、
前記オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置手段と、
仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置手段と、
仮想カメラの位置および仮想カメラの注視点の位置に基づいて、前記映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、前記オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定手段と、
前記オブジェクト用のテクスチャデータを前記オブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成手段と、
抽出された前記映り込み画像用のテクスチャデータを前記映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成手段と、
前記オブジェクト用のポリゴンモデルの内部の前記映り込み画像用のポリゴンモデルを、前記オブジェクト用のポリゴンモデルの透明な部分を通して、前記オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、前記オブジェクトと前記オブジェクト表面に映る画像とを画像表示部に表示する画像表示手段と、
を備える画像処理装置。
An image processing apparatus capable of processing data for displaying an object on an image display unit,
First texture storage means for storing texture data for the object in the storage unit;
Second texture storage means for storing texture data for a reflected image corresponding to an image that can be virtually reflected on the object surface in a storage unit;
First polygon placement means for placing the object polygon in a virtual space by causing the control unit to recognize coordinate data for defining the placement position of the object polygon;
The polygon for the reflected image is placed inside the polygon for the object by causing the control unit to recognize coordinate data for defining the arrangement position of the polygon for the reflected image inside the polygon for the object. Second polygon placement means for
Camera placement means for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera outside the polygon for the object;
Gaze point arrangement means for arranging the gaze point of the virtual camera in the virtual space by causing the control unit to recognize coordinate data corresponding to the gaze point of the virtual camera;
Based on the position of the virtual camera and the position of the gazing point of the virtual camera, the control unit executes a process of extracting at least a part of the texture data for the reflected image, whereby the texture of the image reflected on the object surface Texture determining means for determining
First polygon generating means for generating a polygon model for an object that is at least partially transparent by causing the control unit to execute a process of projecting the texture data for the object onto the polygon for the object;
Second polygon generating means for generating a polygon model for a reflected image by causing the control unit to execute a process of projecting the extracted texture data for the reflected image onto the polygon for the reflected image;
The control unit performs processing for photographing the polygon model for the reflected image inside the polygon model for the object from the outside of the polygon model for the object through a transparent portion of the polygon model for the object. Image display means for displaying the object and an image reflected on the surface of the object on an image display unit,
An image processing apparatus comprising:
オブジェクトを画像表示部に表示するためのデータをコンピュータにより制御する画像制御方法であって、
オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納ステップと、
オブジェクト表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納ステップと、
オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置ステップと、
前記オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記映り込み画像用のポリゴンを前記オブジェクト用のポリゴンの内部に配置する第2ポリゴン配置ステップと、
前記オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置ステップと、
仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置ステップと、
仮想カメラの位置および仮想カメラの注視点の位置に基づいて、前記映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、前記オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定ステップと、
前記オブジェクト用のテクスチャデータを前記オブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成ステップと、
抽出された前記映り込み画像用のテクスチャデータを前記映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成ステップと、
前記オブジェクト用のポリゴンモデルの内部の前記映り込み画像用のポリゴンモデルを、前記オブジェクト用のポリゴンモデルの透明な部分を通して、前記オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、前記オブジェクトと前記オブジェクト表面に映る画像とを画像表示部に表示する画像表示ステップと、
を備える画像制御方法。


An image control method for controlling data for displaying an object on an image display unit by a computer,
A first texture storing step of storing texture data for the object in the storage unit;
A second texture storage step of storing texture data for a reflected image corresponding to an image that can be virtually reflected on the object surface in a storage unit;
A first polygon placement step of placing the object polygon in a virtual space by causing the control unit to recognize coordinate data for defining the placement position of the object polygon;
The polygon for the reflected image is placed inside the polygon for the object by causing the control unit to recognize coordinate data for defining the arrangement position of the polygon for the reflected image inside the polygon for the object. A second polygon placement step,
A camera placement step for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera outside the polygon for the object;
A gazing point arrangement step of arranging the gazing point of the virtual camera in the virtual space by causing the control unit to recognize coordinate data corresponding to the gazing point of the virtual camera;
Based on the position of the virtual camera and the position of the gazing point of the virtual camera, the control unit executes a process of extracting at least a part of the texture data for the reflected image, whereby the texture of the image reflected on the object surface Determining a texture; and
A first polygon generation step of generating a polygon model for an object that is at least partially transparent by causing the control unit to execute a process of projecting the texture data for the object onto the polygon for the object;
A second polygon generation step of generating a polygon model for the reflected image by causing the control unit to execute a process of projecting the extracted texture data for the reflected image onto the polygon for the reflected image;
The control unit performs processing for photographing the polygon model for the reflected image inside the polygon model for the object from the outside of the polygon model for the object through a transparent portion of the polygon model for the object. An image display step for displaying the object and an image reflected on the surface of the object on an image display unit,
An image control method comprising:


JP2008154825A 2008-06-13 2008-06-13 Image processing program, image processing apparatus, and image control method Active JP4714763B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008154825A JP4714763B2 (en) 2008-06-13 2008-06-13 Image processing program, image processing apparatus, and image control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008154825A JP4714763B2 (en) 2008-06-13 2008-06-13 Image processing program, image processing apparatus, and image control method

Publications (2)

Publication Number Publication Date
JP2009301309A true JP2009301309A (en) 2009-12-24
JP4714763B2 JP4714763B2 (en) 2011-06-29

Family

ID=41548132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008154825A Active JP4714763B2 (en) 2008-06-13 2008-06-13 Image processing program, image processing apparatus, and image control method

Country Status (1)

Country Link
JP (1) JP4714763B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349075B2 (en) 2012-10-24 2016-05-24 Samsung Electronics Co., Ltd. Image processing apparatus and method for detecting transparent object in image
CN110246211A (en) * 2018-03-07 2019-09-17 Zf 腓德烈斯哈芬股份公司 For monitoring the visualization viewing system of vehicle interior
KR102285339B1 (en) * 2020-02-17 2021-08-02 한국기술교육대학교 산학협력단 3d virtual image output method using augmented reality based interface
CN116067283A (en) * 2023-04-03 2023-05-05 成都飞机工业(集团)有限责任公司 Deep cavity measurement method, device, equipment and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271999A (en) * 1994-03-31 1995-10-20 Oki Electric Ind Co Ltd Outputting method for three-dimensional topography
JP2003067771A (en) * 2001-08-24 2003-03-07 Konami Co Ltd Three-dimensional image processing program, three- dimensional image processing method and video game device
JP2004171251A (en) * 2002-11-20 2004-06-17 Hitachi Ltd Image generation device
JP2008003870A (en) * 2006-06-22 2008-01-10 Samii Kk Image generating method and device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271999A (en) * 1994-03-31 1995-10-20 Oki Electric Ind Co Ltd Outputting method for three-dimensional topography
JP2003067771A (en) * 2001-08-24 2003-03-07 Konami Co Ltd Three-dimensional image processing program, three- dimensional image processing method and video game device
JP2004171251A (en) * 2002-11-20 2004-06-17 Hitachi Ltd Image generation device
JP2008003870A (en) * 2006-06-22 2008-01-10 Samii Kk Image generating method and device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349075B2 (en) 2012-10-24 2016-05-24 Samsung Electronics Co., Ltd. Image processing apparatus and method for detecting transparent object in image
US10204287B2 (en) 2012-10-24 2019-02-12 Samsung Electronics Co., Ltd. Image processing apparatus and method for detecting transparent object in image
CN110246211A (en) * 2018-03-07 2019-09-17 Zf 腓德烈斯哈芬股份公司 For monitoring the visualization viewing system of vehicle interior
KR102285339B1 (en) * 2020-02-17 2021-08-02 한국기술교육대학교 산학협력단 3d virtual image output method using augmented reality based interface
CN116067283A (en) * 2023-04-03 2023-05-05 成都飞机工业(集团)有限责任公司 Deep cavity measurement method, device, equipment and medium
CN116067283B (en) * 2023-04-03 2023-08-04 成都飞机工业(集团)有限责任公司 Deep cavity measurement method, device, equipment and medium

Also Published As

Publication number Publication date
JP4714763B2 (en) 2011-06-29

Similar Documents

Publication Publication Date Title
JP4177381B2 (en) Image generation method, image generation apparatus, and image generation program
JP3877077B2 (en) Game device and image processing program
JP5706241B2 (en) Image generation program, image generation apparatus, image generation system, and image generation method
JP3668019B2 (en) Recording medium, image processing apparatus, and image processing method
US8259112B2 (en) Image generating apparatus, method of generating image, program, and recording medium
JP5822655B2 (en) GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
US7697015B2 (en) Storage medium and game device storing image generating program
JP2009237680A (en) Program, information storage medium, and image generation system
JP4761528B2 (en) GAME PROGRAM AND GAME DEVICE
JP3625184B2 (en) 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
US20110306420A1 (en) Image generation system, image generation method, and information storage medium
JP4343207B2 (en) Game device and image processing program
JP2013094303A (en) Game processing system, game processing method, game processing apparatus, and game processing program
JP4714763B2 (en) Image processing program, image processing apparatus, and image control method
JP5843217B2 (en) GAME PROGRAM, GAME DEVICE, AND RECORDING MEDIUM CONTAINING GAME PROGRAM
JP2009273865A (en) Game program, game machine, and game control method
JP5237312B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP3602835B2 (en) VIDEO GAME DEVICE, ITS CONTROL METHOD, AND GAME PROGRAM
JP2009129167A (en) Program, information storage medium, and image generation system
US20050068313A1 (en) Game software and game machine
JP4447000B2 (en) Image generation system, program, and information storage medium
JP4572245B2 (en) Image processing program, image processing apparatus, and image processing control method
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP5149956B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP2000268193A (en) Image creating device, image creating method, readable recording medium in which image creation program is recorded and video game device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

R150 Certificate of patent or registration of utility model

Ref document number: 4714763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250