JP2008027064A - Program, information recording medium, and image forming system - Google Patents

Program, information recording medium, and image forming system Download PDF

Info

Publication number
JP2008027064A
JP2008027064A JP2006197238A JP2006197238A JP2008027064A JP 2008027064 A JP2008027064 A JP 2008027064A JP 2006197238 A JP2006197238 A JP 2006197238A JP 2006197238 A JP2006197238 A JP 2006197238A JP 2008027064 A JP2008027064 A JP 2008027064A
Authority
JP
Japan
Prior art keywords
image
virtual camera
unit
storage
object space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006197238A
Other languages
Japanese (ja)
Inventor
Shigeki Toyama
茂樹 遠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2006197238A priority Critical patent/JP2008027064A/en
Publication of JP2008027064A publication Critical patent/JP2008027064A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To allow a player view or observe the virtual change of situation at an arbitrary position in object space. <P>SOLUTION: An image at an arbitrary position of the object space is drawn via first virtual camera control processing, and is virtually recognized by an operator, and, when an image of the scene the operator likes or an impressive scene is displayed for example, position data according to the position of the virtual camera at that time is stored as position data for second virtual camera control processing. The scene or the like the operator likes is further drawn and displayed as the image via the second virtual camera control processing based on the stored position data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、プログラム、情報記録媒体および画像生成システムに関する。   The present invention relates to a program, an information recording medium, and an image generation system.

近年、仮想的な3次元空間(以下、「オブジェクト空間」という。)に配置設定されたキャラクタなどのオブジェクトを、仮想カメラ(所与の視点)から見た画像を生成する画像生成システムが実用化されている。このような画像生成システムは、仮想現実を体験させることができるものとしてゲームシステム等、様々なシステムにて用いられている。   In recent years, an image generation system for generating an image of an object such as a character placed and set in a virtual three-dimensional space (hereinafter referred to as “object space”) viewed from a virtual camera (given viewpoint) has been put into practical use. Has been. Such an image generation system is used in various systems such as a game system as a virtual reality experience.

例えばこのような画像生成システム(ゲームシステム)として、操作者が物語に登場するキャラクタの行動を指定することによって、その物語を進行させていくロールプレイングゲームを実行するものがある。このロールプレイングゲームでは、物語の中でキャラクタ(以下、「プレーヤキャラクタ」という。)を移動させ、謎解き、宝物の発見、敵との戦闘など種々のイベントを発生させる。そして、移動中の風景や、イベントの様子などの画像を描画してこれを表示することにより、プレーヤに種々の疑似体験を提供する。   For example, as such an image generation system (game system), there is one that executes a role-playing game in which an operator designates an action of a character appearing in a story and advances the story. In this role-playing game, a character (hereinafter referred to as “player character”) is moved in a story to generate various events such as solving a mystery, finding a treasure, and fighting an enemy. Then, by drawing and displaying an image such as a moving scenery or a state of an event, various pseudo experiences are provided to the player.

そしてこのようなロールプレイングゲームを実行する画像生成システムには、ゲーム実行中に表示した画像を、記念写真のようにして保存する機能を有するものがある。例えば、プレーヤの操作に従ってオブジェクト空間内の任意の位置における画像データを取得し、アルバム写真という形式にて閲覧可能に保存することができるようになっている(例えば、特許文献1)。
特開2003−117239号公報
Some image generation systems that execute such role-playing games have a function of saving an image displayed during the game execution like a souvenir picture. For example, image data at an arbitrary position in the object space can be acquired in accordance with the operation of the player, and can be stored so as to be viewable in the form of an album photo (for example, Patent Document 1).
JP 2003-117239 A

しかしながら従来の画像生成システムは、ゲーム実行中において描画した画像を保存し、保存した画像をそのまま表示させるものであり、ある場面(シーン)又は景色をその状況を保持しつつ記憶するだけであった。   However, the conventional image generation system saves the image drawn during the game execution, displays the saved image as it is, and only stores a scene (scene) or scenery while maintaining the situation. .

本発明は以上のような課題に鑑みてなされたものであり、その目的とするところは、オブジェクト空間における任意の位置における仮想的な状況の変化をプレーヤに観賞又は観察させることにより、新たな興味を喚起することができる画像生成システム、プログラムおよび情報記録媒体を提供することにある。   The present invention has been made in view of the problems as described above. The object of the present invention is to make a new interest by allowing a player to watch or observe a change in a virtual situation at an arbitrary position in the object space. It is an object to provide an image generation system, a program, and an information recording medium.

(1)上記の課題を解決するために、本発明は、
オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、
前記オブジェクト空間内にオブジェクトを設定するオブジェクト空間設定部と、
第1の操作入力に応じて前記仮想カメラの位置を制御する第1の仮想カメラ制御処理を行う仮想カメラ制御部と、
前記オブジェクト空間を前記仮想カメラから見た画像を描画する描画部と、
第2の操作入力に応じて前記仮想カメラの位置に応じた位置データを記憶部に保存させる保存制御部と、
を含み、
前記仮想カメラ制御部が、
前記位置データに基づいて前記仮想カメラの位置を制御する第2の仮想カメラ制御処理を更に行うことを特徴とする画像生成システムに関係する。
(1) In order to solve the above problems, the present invention provides:
An image generation system for generating an image visible from a virtual camera in an object space,
An object space setting unit for setting an object in the object space;
A virtual camera control unit that performs a first virtual camera control process for controlling the position of the virtual camera in response to a first operation input;
A drawing unit for drawing an image of the object space viewed from the virtual camera;
A storage control unit that stores in the storage unit position data corresponding to the position of the virtual camera in response to a second operation input;
Including
The virtual camera control unit is
The present invention relates to an image generation system further performing a second virtual camera control process for controlling the position of the virtual camera based on the position data.

また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータに読み取り可能な情報記憶媒体であって、当該プログラムを記録した記憶媒体に関係する。   The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores the program.

本発明によれば、操作者からの第1の操作入力に応じて仮想カメラの位置が制御される第1の仮想カメラ制御処理と、制御データに基づいて仮想カメラが制御される第2の仮想カメラ制御処理とを行う。ここで本発明では第1の仮想カメラ制御処理において、操作者からの第1の操作入力に応じて仮想カメラの位置を変化させ、第2の操作入力に応じて仮想カメラの位置に応じた位置データを保存させる。そして本発明では、第2の仮想カメラ制御処理が行われる場合に、保存させた位置データに基づいて第2の仮想カメラ制御処理における仮想カメラの位置を制御し、当該位置における仮想カメラから見た画像を描画する。   According to the present invention, the first virtual camera control process in which the position of the virtual camera is controlled in accordance with the first operation input from the operator, and the second virtual in which the virtual camera is controlled based on the control data. Perform camera control processing. Here, in the present invention, in the first virtual camera control process, the position of the virtual camera is changed according to the first operation input from the operator, and the position according to the position of the virtual camera according to the second operation input. Save the data. In the present invention, when the second virtual camera control process is performed, the position of the virtual camera in the second virtual camera control process is controlled based on the stored position data, and viewed from the virtual camera at the position. Draw an image.

これにより本発明によれば、第1の仮想カメラ制御処理を介してオブジェクト空間の任意の位置における画像を描画してこれを操作者に視認させつつ、例えば操作者が気に入った風景や、印象的な場面の画像が表示された場合に、そのときの仮想カメラの位置に応じた位置データを第2の仮想カメラ制御処理用の位置データとして保存することができる。そして操作者からの第1の操作入力に応じて仮想カメラの位置が変化しても、保存させた位置データに基づく第2の仮想カメラ制御処理を介して、操作者が気に入った風景等を改めて描画して画像として表示させることができる。   Thus, according to the present invention, an image at an arbitrary position in the object space is drawn via the first virtual camera control process and the operator visually recognizes the image. When an image of a particular scene is displayed, position data corresponding to the position of the virtual camera at that time can be stored as position data for the second virtual camera control process. Even if the position of the virtual camera changes in response to the first operation input from the operator, the scenery that the operator likes is revisited through the second virtual camera control process based on the stored position data. It can be drawn and displayed as an image.

このように本発明によれば、一度描画した画像そのものを保存しておくのではなく、位置データを保存しておき、改めて位置データに基づく画像を描画する。従って本発明によれば、保存しておくデータ容量を大幅に削減することができるとともに、改めて画像を描画するので第2の仮想カメラ制御処理を介して描画する画像を動画像として表示させることができる。更に本発明によれば、第2の仮想カメラ制御処理を介して描画する画像を、対応する第1の仮想カメラ制御処理を介して描画した画像とほぼ同様の構成の画像としつつも、状況を変化させた画像とすることができる。   As described above, according to the present invention, the image data once drawn is not saved, but the position data is saved and the image based on the position data is drawn again. Therefore, according to the present invention, the amount of data to be stored can be greatly reduced, and an image is drawn again, so that the image drawn through the second virtual camera control process can be displayed as a moving image. it can. Further, according to the present invention, the image drawn through the second virtual camera control process is an image having a configuration similar to that of the image drawn through the corresponding first virtual camera control process. The image can be changed.

こうして本発明によれば、操作者が指定したオブジェクト空間の任意の位置における仮想的な状況の変化を操作者に観賞又は観察させるという、新たな興味を喚起する画像生成システムを提供することができる。   Thus, according to the present invention, it is possible to provide an image generation system that arouses a new interest, in which the operator can watch or observe a change in a virtual situation at an arbitrary position in the object space designated by the operator. .

(2)また本発明は、
前記第2の仮想カメラ制御処理における仮想カメラから見たオブジェクト空間の状況パラメータを設定するパラメータ設定部を更に含み、
前記描画部が、
前記第2の仮想カメラ制御処理が行われる場合に、前記状況パラメータに応じた画像を描画するようにしてもよい。
(2) The present invention also provides:
A parameter setting unit for setting a status parameter of the object space viewed from the virtual camera in the second virtual camera control process;
The drawing unit
When the second virtual camera control process is performed, an image corresponding to the situation parameter may be drawn.

本発明によれば、オブジェクト空間における任意の位置における時間的変化、天候の変化、イベント発生の有無などの各種の状況の変化を状況パラメータによって設定し、状況パラメータに応じた画像を描画することができる。従って本発明によれば、状況パラメータを変化させることにより、オブジェクト空間の任意の位置における仮想的な状況の変化を操作者に観賞又は観察させることができる。   According to the present invention, it is possible to set changes in various situations such as temporal changes at arbitrary positions in the object space, changes in weather, whether or not an event has occurred, using the situation parameters, and render an image according to the situation parameters. it can. Therefore, according to the present invention, by changing the situation parameter, it is possible to allow the operator to view or observe the virtual situation change at an arbitrary position in the object space.

(3)また本発明は、
前記オブジェクト空間設定部が、
前記第2の仮想カメラ制御処理が行われる場合に、前記第2の仮想カメラ制御処理における仮想カメラの位置に応じて前記オブジェクト空間に特殊オブジェクトを設定するようにしてもよい。
(3) The present invention also provides:
The object space setting unit
When the second virtual camera control process is performed, a special object may be set in the object space according to the position of the virtual camera in the second virtual camera control process.

本発明によれば、例えば、第1の仮想カメラ制御処理を介して描画した画像においては存在しなかった特殊オブジェクトを、第2の仮想カメラ制御処理を介して描画する画像において存在させることができる。これにより本発明によれば、例えばオブジェクト空間内に適宜発生する小動物などの移動体オブジェクトを特殊オブジェクトとして設定することにより、オブジェクト空間の任意の位置における仮想的な状況の変化を操作者に観賞又は観察させることができる。   According to the present invention, for example, a special object that did not exist in the image drawn through the first virtual camera control process can be present in the image drawn through the second virtual camera control process. . Thus, according to the present invention, for example, by setting a moving object such as a small animal that occurs appropriately in the object space as a special object, a change in a virtual situation at an arbitrary position in the object space can be viewed or Can be observed.

(4)また本発明は、
前記第1の操作入力に応じて、移動体オブジェクトの移動を制御する移動処理部を更に含み、
前記仮想カメラ制御部が、
前記第1の仮想カメラ制御処理において、前記移動体オブジェクトの位置に応じて前記仮想カメラの位置の制御を行うようにしてもよい。
(4) The present invention also provides:
A movement processing unit for controlling movement of the moving object in response to the first operation input;
The virtual camera control unit is
In the first virtual camera control process, the position of the virtual camera may be controlled according to the position of the moving object.

本発明によれば、操作者からの第1の操作入力に応じて移動体オブジェクトを移動させ、例えば移動体オブジェクトに追従するように仮想カメラの制御を行う。従って本発明によれば、操作者が操作する移動体オブジェクトの移動に関連付けて、第2の仮想カメラ制御処理用の位置データを保存させることができる。   According to the present invention, the moving object is moved according to the first operation input from the operator, and the virtual camera is controlled so as to follow the moving object, for example. Therefore, according to the present invention, the position data for the second virtual camera control process can be stored in association with the movement of the moving object operated by the operator.

(5)また本発明は、
前記位置データを外部装置に送信する通信制御部を更に含むようにしてもよい。
(5) The present invention also provides:
You may make it further contain the communication control part which transmits the said position data to an external device.

本発明によれば、位置データを外部装置に送信することにより、本発明の画像生成システムと同様の機能を有する別の画像生成システムにおいても、第2の仮想カメラ制御処理を介して描画する画像を表示させることができる。従って本発明によれば、位置データという容量の小さなデータの送受信を行うことにより、1の操作者が指定したオブジェクト空間における任意の位置における仮想的な状況の変化を、他者にも観賞又は観察させることができる。   According to the present invention, an image rendered via the second virtual camera control process in another image generation system having the same function as the image generation system of the present invention by transmitting the position data to an external device. Can be displayed. Therefore, according to the present invention, a change in a virtual situation at an arbitrary position in an object space designated by one operator can be viewed or observed by another person by transmitting / receiving position data having a small capacity. Can be made.

(6)また本発明は、
前記保存制御部が、
前記位置データに関連づけて、当該位置データに応じた位置における前記仮想カメラから前記オブジェクト空間を見た画像を選択用画像として前記記憶部に保存させるようにしてもよい。
(6) The present invention also provides:
The storage control unit
In association with the position data, an image obtained by viewing the object space from the virtual camera at a position corresponding to the position data may be stored in the storage unit as a selection image.

本発明によれば、位置データに基づいて画像を描画する前に、当該位置データに基づいていかなる画像が描画されるかを選択用画像により操作者に認識させることができる。例えば保存させた位置データが複数ある場合に、各位置データに基づいて描画される画像を選択用画像によりサムネイル形式で表示させることができる。従って本発明によれば、操作者が所望する画像に対応する位置データを容易に特定させることができる。   According to the present invention, before the image is drawn based on the position data, the operator can recognize which image is drawn based on the position data by the selection image. For example, when there are a plurality of stored position data, an image drawn based on each position data can be displayed in a thumbnail format using a selection image. Therefore, according to the present invention, the position data corresponding to the image desired by the operator can be easily specified.

(7)また本発明は、
オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、
前記オブジェクト空間内にオブジェクトを設定するオブジェクト空間設定部と、
第1の操作入力に応じて、前記仮想カメラの位置を制御する仮想カメラ制御部と、
前記オブジェクト空間を前記仮想カメラから見た画像を描画する描画部と、
第2の操作入力に応じて、前記描画された画像に基づく保存用画像を記憶部に保存させる保存制御部と、
前記保存用画像の状況パラメータを設定するパラメータ設定部と、
前記オブジェクト空間を前記仮想カメラから見た画像と、前記保存用画像に基づく画像の少なくとも一方を表示部に表示させる表示制御部と、
を含み、
前記描画部が、
前記保存用画像に基づく画像が表示される場合に、前記状況パラメータに応じて前記保存用画像の色を変化させるようにしてもよい。
(7) The present invention also provides:
An image generation system for generating an image visible from a virtual camera in an object space,
An object space setting unit for setting an object in the object space;
A virtual camera control unit that controls the position of the virtual camera in response to a first operation input;
A drawing unit for drawing an image of the object space viewed from the virtual camera;
A storage control unit that stores a storage image based on the drawn image in a storage unit in response to a second operation input;
A parameter setting unit for setting status parameters of the image for storage;
A display control unit for displaying on the display unit at least one of an image obtained by viewing the object space from the virtual camera and an image based on the storage image;
Including
The drawing unit
When an image based on the storage image is displayed, the color of the storage image may be changed according to the situation parameter.

本発明によれば、仮想カメラ制御処理を介してオブジェクト空間の任意の位置における画像を描画してこれを操作者に視認させつつ、例えば操作者が気に入った風景や、印象的な場面の画像が表示された場合に、そのとき描画された画像に基づく保存用画像を保存することができる。よって、操作者からの第1の操作入力に応じて仮想カメラの位置が変化しても、保存用画像に基づく画像を表示部に表示させることにより、操作者が気に入った風景等を表示させることができる。そして本発明によれば、保存用画像に基づく画像を表示部に表示させる場合に、状況パラメータに応じて保存用画像の色を変化させる。   According to the present invention, an image at an arbitrary position in the object space is drawn via the virtual camera control process and the operator visually recognizes the image. When displayed, an image for storage based on the image drawn at that time can be stored. Therefore, even if the position of the virtual camera changes in response to the first operation input from the operator, an image based on the storage image is displayed on the display unit, thereby displaying a landscape or the like that the operator likes. Can do. According to the present invention, when an image based on the storage image is displayed on the display unit, the color of the storage image is changed according to the situation parameter.

例えば、保存用画像の一部又は全部の輝度、色度、色相、彩度、明度、透明度等などの描画色の属性を変化させるフィルタ処理など所定の画像処理を行うことにより、保存用画像を例えば昼の時間帯の画像から夜の時間帯の画像に変化させることができる。   For example, by performing predetermined image processing such as filter processing that changes the attributes of the drawing color such as brightness, chromaticity, hue, saturation, brightness, transparency, etc. of a part or all of the image for storage, the image for storage is For example, the image can be changed from an image in the daytime period to an image in the nighttime period.

従って本発明によれば、保存用画像に基づく画像を、仮想カメラ制御処理を介して描画した画像とほぼ同様の構成の画像としつつも、状況を変化させた画像とすることができる。こうして本発明によれば、操作者が指定したオブジェクト空間の任意の位置における仮想的な状況の変化を操作者に観賞又は観察させるという、新たな興味を喚起する画像生成システムを提供することができる。   Therefore, according to the present invention, the image based on the storage image can be an image having a changed state while being an image having substantially the same configuration as the image drawn through the virtual camera control process. Thus, according to the present invention, it is possible to provide an image generation system that arouses a new interest, in which the operator can watch or observe a change in a virtual situation at an arbitrary position in the object space designated by the operator. .

(8)また本発明は、
前記描画部が、
前記描画した画像の色を基準色に変化させた基準画像を描画し、
前記保存制御部が、
前記保存用画像として前記基準画像を前記記憶部に保存させるようにしてもよい。
(8) The present invention also provides:
The drawing unit
Draw a reference image in which the color of the drawn image is changed to a reference color,
The storage control unit
The reference image may be stored in the storage unit as the storage image.

本発明によれば、状況パラメータに応じて色を変化させる元画像となる保存用画像として、基準画像を保存させる。例えば、第2の操作入力が行われたときに描画した画像が夜の時間帯の画像であって全体的に色が濃い(黒に近い)画像であっても、色を変化させやすい即ち色が薄い(白に近い)基準画像に描画しなおして(変換して)、これを保存させる。従って本発明によれば、状況パラメータに応じて基準画像の色を容易に変化させることができ、かつ色を変化させても自然な配色の画像を保存用画像に基づく画像として表示部に表示させることができる。   According to the present invention, the reference image is stored as the storage image that is the original image whose color is changed according to the situation parameter. For example, even when the image drawn when the second operation input is performed is an image in the night time zone and the color is generally dark (close to black), the color is easily changed, that is, the color Is redrawn (converted) to a reference image that is light (close to white) and saved. Therefore, according to the present invention, the color of the reference image can be easily changed according to the situation parameter, and even if the color is changed, an image with a natural color scheme is displayed on the display unit as an image based on the storage image. be able to.

(9)また本発明は、
外部装置により保存された前記保存用画像を前記外部装置から受信する通信制御部を更に含み、
前記パラメータ設定部が、
前記受信した保存用画像の状況パラメータを設定し、
前記描画部が、
前記受信した保存用画像に基づく画像が表示される場合に、前記状況パラメータに応じて、前記保存用画像の色を変化させるようにしてもよい。
(9) The present invention also provides:
A communication control unit for receiving the image for storage stored by the external device from the external device;
The parameter setting unit
Set the status parameter of the received storage image,
The drawing unit
When an image based on the received storage image is displayed, the color of the storage image may be changed according to the situation parameter.

本発明によれば、本発明の画像生成システムと同様の機能を有する別の画像生成システムにおいて保存された保存用画像を受信して、受信した保存用画像の色を状況パラメータに応じて変化させた画像を表示させることができる。従って本発明によれば、1の操作者が指定したオブジェクト空間における任意の位置における仮想的な状況の変化を、他者にも観賞又は観察させることができる。   According to the present invention, a storage image stored in another image generation system having the same function as the image generation system of the present invention is received, and the color of the received storage image is changed according to the situation parameter. Displayed images. Therefore, according to the present invention, a change in a virtual situation at an arbitrary position in the object space designated by one operator can be viewed or observed by others.

以下、本発明に好適な実施の形態について図面を用いて説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態にて説明される構成の全てが、本発明の必須の構成要件であるとは限らない。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.概要
本実施形態の画像生成システムは、ロールプレイングゲームの実行中に、プレーヤの操作に応じてオブジェクト空間内を移動するプレーヤキャラクタに仮想カメラを追従させる第1の仮想カメラ制御処理と、予めプレーヤの操作に基づき記憶されたカメラ位置において仮想カメラを制御する第2の仮想カメラ制御処理と、を実行する。そしてこの画像生成システムは、プレーヤの操作に応じて第1の仮想カメラ制御処理及び第2の仮想カメラ制御処理の何れかを選択して、又は、切り替えて仮想カメラを制御する。
1. Outline The image generation system according to the present embodiment includes a first virtual camera control process for causing a player character that moves in an object space to follow a virtual camera in accordance with a player's operation during a role-playing game, And a second virtual camera control process for controlling the virtual camera at the stored camera position based on the operation. The image generation system controls the virtual camera by selecting or switching between the first virtual camera control process and the second virtual camera control process in accordance with the operation of the player.

ここで本実施形態の画像生成システムは、プレーヤの操作に応じてプレーヤキャラクタが移動し、任意のオブジェクト空間上の位置において描画された画像を、当該位置以外において観賞可能に又は観察可能にすることを希望した場合には、当該プレーヤの操作入力に応じて当該位置(以下、「観察/観賞地点」という。)を第2の仮想カメラ制御処理を行う位置として記憶するようになっている。   Here, the image generation system according to the present embodiment makes it possible for the player character to move according to the player's operation so that an image drawn at a position in an arbitrary object space can be viewed or observed at a position other than the position. Is desired, the position (hereinafter referred to as “observation / viewing point”) is stored as the position for performing the second virtual camera control process in accordance with the operation input of the player.

そして本実施形態の画像生成システムは、第1の仮想カメラ制御処理時又はプログラムゲーム開始時などの任意のタイミングにおいて、プレーヤによって或いは所定のプログラムに応じて位置データが選択されると、当該位置データに基づいて仮想カメラの位置を設定し、現在、過去又は未来のオブジェクト空間における観察/観賞地点の状況を描画する第2の仮想カメラ制御処理を行う。   When the position data is selected by the player or according to a predetermined program at any timing such as the first virtual camera control process or the start of the program game, the image generation system of the present embodiment The second virtual camera control process for setting the position of the virtual camera based on the above and drawing the state of the observation / viewing point in the current, past or future object space is performed.

従って本実施形態の画像生成システムは、プレーヤが希望するオブジェクト空間内における各地の現在の状況や仮想的な状況を、プレーヤキャラクタを当該地点まで移動させなくても観賞又は観察できるようになっている。   Accordingly, the image generation system according to the present embodiment can view or observe the current situation or virtual situation of each place in the object space desired by the player without moving the player character to the point. .

なお本実施形態では、位置データ及び位置選択用画像データを他のゲーム装置又はコンピュータ装置などの他の端末装置に送信できるようになっており、当該位置データ及び位置選択用データを受信した他の端末装置において、受信した位置データに基づいて第2の仮想カメラ制御処理を行うことができるようになっている。ただし、サーバ装置を用いてゲーム処理を行う場合には、勿論、サーバ装置に位置データ等を提供し、他の端末装置が当該位置データ等に基づいて第2の仮想カメラ制御処理を実行することができるようにしてもよい。   In the present embodiment, the position data and the position selection image data can be transmitted to another terminal device such as another game device or a computer device. In the terminal device, the second virtual camera control process can be performed based on the received position data. However, when the game process is performed using the server device, of course, the server device is provided with position data and the other terminal device executes the second virtual camera control process based on the position data or the like. You may be able to.

2.構成
次に、図1を用いて本実施形態における画像生成システム(ゲームシステム)の構成について説明する。図1は、本実施形態における画像生成システムの機能ブロック図の一例である。なお、本実施形態の画像生成システムは、図1の構成要素(各部)の一部を省略した構成としてもよい。
2. Configuration Next, the configuration of an image generation system (game system) in the present embodiment will be described with reference to FIG. FIG. 1 is an example of a functional block diagram of an image generation system in the present embodiment. Note that the image generation system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部171と、最終的な表示画像等が記憶されるフレームバッファ172と、オブジェクトの形状等オブジェクトに関するデータが記憶されるオブジェクトデータ記憶部173と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部174と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ176と、を含む。なお、これらの一部を省略する構成としてもよい。特に、本実施形態の記憶部170は、仮想カメラに関するデータが記憶されるカメラデータ記憶部177を有している。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 of this embodiment includes a main storage unit 171 used as a work area, a frame buffer 172 that stores a final display image, and an object that stores data related to the object such as the shape of the object. A data storage unit 173, a texture storage unit 174 that stores textures for each object data, and a Z buffer 176 that stores Z values during object image generation processing. Note that some of these may be omitted. In particular, the storage unit 170 of the present embodiment includes a camera data storage unit 177 that stores data related to the virtual camera.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

この情報記憶媒体180には、処理部100において本実施形態の種々の処理を行うためのプログラム(データ)が記憶されている。即ち、この情報記録媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶されている。   The information storage medium 180 stores a program (data) for the processing unit 100 to perform various processes of the present embodiment. That is, the information recording medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194には、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device.

通信部196は、外部装置(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with an external device (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or a communication ASIC, It can be realized by a program.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は、記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result calculation. Or a process for ending the game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

特に、本実施形態の処理部100は、オブジェクト空間設定部110と、移動・動作処理部112と、仮想カメラ制御部114と、保存制御部116と、パラメータ設定部118と、通信制御部119と、描画部120と、音生成部130と、を含む。なお、これらの一部を省略する構成としてもよい。   In particular, the processing unit 100 of the present embodiment includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a storage control unit 116, a parameter setting unit 118, and a communication control unit 119. A drawing unit 120 and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、移動体オブジェクト(キャラクタ、車、バイク、飛行機等)、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ち、オブジェクト設定部110は、ワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (polygons, free-form surfaces or subdivision surfaces) representing display objects such as moving objects (characters, cars, motorcycles, airplanes, etc.), buildings, trees, pillars, walls, maps (terrain). The object is configured to place and set in the object space. In other words, the object setting unit 110 determines the position and rotation angle (synonymous with direction and direction) of an object (model object) in the world coordinate system, and the rotation angle (X, Y, Z) is determined at that position (X, Y, Z). The object is arranged at a rotation angle around the Y and Z axes.

移動・動作処理部112は、移動体オブジェクト(キャラクタや車の他にキャラクタが使用する道具等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち、この移動・動作処理部112は、操作部160によりプレーヤが入力した操作データ、設定されたパラメータや属性又はプログラム(移動・動作アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of a moving object (a tool used by the character in addition to the character and the car). That is, the movement / motion processing unit 112 is based on the operation data input by the player through the operation unit 160, the set parameters and attributes, the program (movement / motion algorithm), various data (motion data), and the like. A process for moving the object in the object space or controlling the motion (motion, animation) of the moving object is performed.

具体的には、本実施形態の移動・動作処理部112は、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは毎フレーム固定としてもよいし、処理負荷に応じて可変としてもよい。   Specifically, the movement / motion processing unit 112 according to the present embodiment stores object movement information (position, rotation angle, speed, or acceleration) and movement information (position or rotation angle of each part object) for one frame. A simulation process is sequentially obtained every (for example, 1/60 seconds). Here, the frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. In this embodiment, the frame rate may be fixed every frame or may be variable according to the processing load.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

特に本実施形態では、仮想カメラ制御部114は、第1の操作入力に応じて仮想カメラの位置を制御する第1の仮想カメラ制御処理と、所与の制御データに基づいて仮想カメラを制御する第2の仮想カメラ制御処理とを行う。そして本実施形態では仮想カメラ制御部114は、プレーヤからの操作入力(第3の操作入力)に応じて、第1の仮想カメラ制御処理と第2の仮想カメラ制御処理とを選択的に行う。   In particular, in the present embodiment, the virtual camera control unit 114 controls the virtual camera based on the first virtual camera control process for controlling the position of the virtual camera in accordance with the first operation input and given control data. A second virtual camera control process is performed. In this embodiment, the virtual camera control unit 114 selectively performs the first virtual camera control process and the second virtual camera control process in accordance with an operation input (third operation input) from the player.

ここで第1の仮想カメラ制御処理では、仮想カメラ制御部114は、プレーヤの操作に応じて移動するプレーヤキャラクタの位置又は向きの変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。詳細には、移動・動作処理部112で得られたプレーヤキャラクタの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御する。具体的には本実施形態では、仮想カメラがプレーヤキャラクタをプレーヤキャラクタの後方から撮影する。なおプレーヤキャラクタを表示させずに、仮想カメラをプレーヤキャラクタの視点(一人称視点)として、第1の操作入力に応じて仮想カメラの位置を直接的に制御するようにしてもよい。   Here, in the first virtual camera control process, the virtual camera control unit 114 causes the virtual camera position or rotation angle so that the virtual camera follows a change in the position or orientation of the player character that moves in accordance with the operation of the player. (Virtual camera direction) is controlled. Specifically, the virtual camera is controlled based on information such as the position, rotation angle, or speed of the player character obtained by the movement / motion processing unit 112. Specifically, in this embodiment, the virtual camera captures the player character from behind the player character. Instead of displaying the player character, the position of the virtual camera may be directly controlled according to the first operation input with the virtual camera as the viewpoint of the player character (first person viewpoint).

一方、第2の仮想カメラ制御処理では、仮想カメラ制御部114は、第1の操作入力に応じて仮想カメラの位置を制御せず、所与の制御データに基づいて仮想カメラを制御する。例えば仮想カメラ制御部114は、予め定められた仮想カメラの制御パターンデータに基づいて、仮想カメラを予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行うようにしてもよい。即ち第2の仮想カメラ制御処理では、仮想カメラの制御が自動的に行われる。   On the other hand, in the second virtual camera control process, the virtual camera control unit 114 does not control the position of the virtual camera according to the first operation input, but controls the virtual camera based on given control data. For example, the virtual camera control unit 114 performs control to rotate the virtual camera at a predetermined rotation angle or move along a predetermined movement route based on control pattern data of a predetermined virtual camera. May be. That is, in the second virtual camera control process, the virtual camera is automatically controlled.

特に本実施形態では仮想カメラ制御部114は、第2の仮想カメラ制御処理が行われる場合に、保存制御部116により保存された位置データに基づいて第2の仮想カメラ制御処理における仮想カメラの位置を制御する。具体的には仮想カメラ制御部114は、第1の仮想カメラ制御処理から第2の仮想カメラ制御処理に切り替えられた場合に、第1の仮想カメラ制御処理における仮想カメラの位置を、保存された位置データに基づく位置に変更する。そして第2の仮想カメラ制御処理では、各描画フレームにおいて仮想カメラの位置をそのまま同じ位置に設定する処理を行う。   In particular, in the present embodiment, the virtual camera control unit 114 performs the virtual camera position in the second virtual camera control process based on the position data stored by the storage control unit 116 when the second virtual camera control process is performed. To control. Specifically, when the virtual camera control unit 114 is switched from the first virtual camera control process to the second virtual camera control process, the position of the virtual camera in the first virtual camera control process is stored. Change to a position based on position data. In the second virtual camera control process, the process of setting the position of the virtual camera as it is in each drawing frame is performed.

即ち本実施形態では仮想カメラ制御部114は、第2の仮想カメラ制御処理では仮想カメラの位置を変更しない制御を行う。なお第2の仮想カメラ制御処理では、仮想カメラ制御部114は、所定の仮想カメラの制御パターンデータに基づいて、仮想カメラの向き、画角は変更するようにしてもよい。また、第1の仮想カメラ制御処理における仮想カメラの位置を保存された位置データに基づく位置に変更した後に、所定の仮想カメラの制御パターンデータに基づいて仮想カメラの位置を変更するようにしてもよい。つまり第2の仮想カメラ制御処理では、保存された位置データに基づき仮想カメラの位置が設定され、操作者からの操作入力には応じずに所与の制御データに基づいて仮想カメラの制御が行われる。   That is, in this embodiment, the virtual camera control unit 114 performs control that does not change the position of the virtual camera in the second virtual camera control process. In the second virtual camera control process, the virtual camera control unit 114 may change the orientation and angle of view of the virtual camera based on predetermined virtual camera control pattern data. Further, after changing the position of the virtual camera in the first virtual camera control process to a position based on the stored position data, the position of the virtual camera may be changed based on the control pattern data of a predetermined virtual camera. Good. That is, in the second virtual camera control process, the position of the virtual camera is set based on the stored position data, and the virtual camera is controlled based on the given control data without depending on the operation input from the operator. Is called.

保存制御部116は、第1の仮想カメラ制御処理における仮想カメラの位置に応じた位置データを、第2の操作入力に応じて記憶部に保存させる処理を行う。即ちプレーヤがオブジェクト空間上の任意の位置を指定して、第2の仮想カメラ制御処理において用いる仮想カメラの位置データを保存させる。具体的には本実施形態では、ゲームにおいてプレーヤキャラクタがゲームアイテムとしてのカメラを取得した場合に、第2の操作入力に応じて当該カメラでゲーム中の風景を撮影するというイベントが実行される。このとき保存制御部116は、第2の操作入力が行われたときの仮想カメラの位置に応じた位置データを取得し、記憶部170のカメラデータ記憶部177に記憶させる。本実施形態では、オブジェクト空間の任意の位置において、所定回数の撮影イベントを実行することができ、複数の位置データを保存させることができる。なお、カメラデータ記憶部177には、仮想カメラの位置データのみならず、仮想カメラの向き、画角に関するデータが記憶されるようにしてもよい。   The storage control unit 116 performs processing for storing the position data corresponding to the position of the virtual camera in the first virtual camera control processing in the storage unit according to the second operation input. That is, the player designates an arbitrary position in the object space, and stores the position data of the virtual camera used in the second virtual camera control process. Specifically, in the present embodiment, when a player character acquires a camera as a game item in a game, an event is executed in which a scene in the game is photographed by the camera in response to a second operation input. At this time, the storage control unit 116 acquires position data corresponding to the position of the virtual camera when the second operation input is performed, and stores it in the camera data storage unit 177 of the storage unit 170. In the present embodiment, a predetermined number of shooting events can be executed at an arbitrary position in the object space, and a plurality of position data can be stored. The camera data storage unit 177 may store not only the position data of the virtual camera but also data related to the orientation and angle of view of the virtual camera.

ここで、第1の仮想カメラ制御処理における仮想カメラの位置とは、第1の操作入力に応じて移動するキャラクタオブジェクトに追従して移動する仮想カメラの位置に限られない。例えばゲームアイテムとしてのカメラで撮影を行う際に、ゲームアイテムとしてのカメラの位置に仮想カメラの位置を切り替えて、カメラのファインダー越しにゲーム中の風景を見るような画像を生成する場合には、当該仮想カメラの位置とすることができる。また、第1の仮想カメラ制御処理における仮想カメラの位置に応じた位置データとは、仮想カメラの位置そのものを示す位置データのみならず、仮想カメラが追従するプレーヤキャラクタの位置や、プレーヤキャラクタが構えたゲームアイテムとしてのカメラオブジェクトの位置を示す位置データとすることができる。   Here, the position of the virtual camera in the first virtual camera control process is not limited to the position of the virtual camera that moves following the character object that moves according to the first operation input. For example, when shooting with a camera as a game item, when switching the position of the virtual camera to the position of the camera as a game item and generating an image that looks at the scenery in the game through the camera finder, The position of the virtual camera can be used. The position data corresponding to the position of the virtual camera in the first virtual camera control process is not only the position data indicating the position of the virtual camera itself, but also the position of the player character that the virtual camera follows and the position of the player character. Position data indicating the position of the camera object as the game item can be used.

また保存制御部116は、位置データに関連づけて、当該位置データに応じた位置における仮想カメラからオブジェクト空間を見た画像を選択用画像として記憶部に保存させる。この選択用画像(以下、「位置選択用画像」という。)は、保存された複数の位置データの中から、第2の仮想カメラ制御処理に用いる仮想カメラの位置をプレーヤに選択させるための画像データである。例えば本実施形態では、プレーヤに対して位置選択用画像をサムネイル形式で表示して、プレーヤにいずれかの位置選択用画像を選択させる。そして選択された位置選択用画像に対応付けて記憶されている位置データに基づいて、第2の仮想カメラ制御処理を行う。   In addition, the storage control unit 116 causes the storage unit to store an image of the object space viewed from the virtual camera at a position corresponding to the position data as a selection image in association with the position data. This selection image (hereinafter referred to as “position selection image”) is an image for allowing the player to select the position of the virtual camera used for the second virtual camera control process from the plurality of stored position data. It is data. For example, in the present embodiment, the position selection image is displayed in a thumbnail format for the player, and the player is allowed to select one of the position selection images. Then, based on the position data stored in association with the selected position selection image, the second virtual camera control process is performed.

具体的には保存制御部116は、第2の操作入力に応じて位置データを記憶部に保存させる際にフレームバッファ172に描画されていた画像を、画像サイズを縮小した位置選択用画像に変換して、カメラデータ記憶部172に位置データと対応付けて記憶させる。なお位置選択用画像は、フレームバッファ172に描画されていた画像の色又は形状などの情報を一部省略したり、解像度を低下させたものとしてもよい。   Specifically, the storage control unit 116 converts the image drawn in the frame buffer 172 when the position data is stored in the storage unit according to the second operation input into a position selection image with a reduced image size. Then, it is stored in the camera data storage unit 172 in association with the position data. The position selection image may be obtained by omitting a part of information such as the color or shape of the image drawn in the frame buffer 172 or reducing the resolution.

パラメータ設定部118は、第2の仮想カメラ制御処理が行われる場合に、第2の仮想カメラ制御処理における仮想カメラの位置から見たオブジェクト空間の状況パラメータを設定する。具体的には本実施形態では、現実世界の現在時刻(実時間)、ゲームに設定された時刻(過去や未来などを含む仮想的な時刻)、天候、季節など、オブジェクト空間内の状況を表す状況パラメータを設定する。ここで状況パラメータの設定は、プレーヤの操作入力又は所定のプログラムに基づき設定する。例えば乱数抽出によりランダムに設定するようにしてもよい。   When the second virtual camera control process is performed, the parameter setting unit 118 sets a state parameter of the object space viewed from the position of the virtual camera in the second virtual camera control process. Specifically, in the present embodiment, the current time in the real world (real time), the time set in the game (virtual time including past and future), the weather, the season, and the like are represented. Set status parameters. Here, the situation parameter is set based on the player's operation input or a predetermined program. For example, it may be set at random by random number extraction.

すると前述のオブジェクト空間設定部110が、第2の仮想カメラ制御処理が行われる場合に、設定された状況パラメータに応じてオブジェクト空間にオブジェクトを設定する。例えば天候や時間を決定する状況パラメータに応じて、天候に応じた雲オブジェクト(雲テクスチャがマッピングされた板ポリゴン等)を設定したり、時間に応じた光源(光源の種類、数、位置、強さ等)を設定する。またオブジェクト空間に、空などを表現するための背景スプライト等の2次元画像を設定する場合には、天候や時間に応じた2次元画像(背景スプライト)を設定する。また、2次元画像がアニメーションデータに基づき変化する場合には、状況パラメータに応じてその変化を制御する。例えば木の葉のゆれや、波の様子などが、状況パラメータに応じて異なるようにする。また、状況パラメータに応じてオブジェクトの色を変化させて設定するようにしてもよい。   Then, when the second virtual camera control process is performed, the object space setting unit 110 described above sets an object in the object space according to the set situation parameter. For example, cloud objects (such as plate polygons with cloud texture mapping) can be set according to the weather and time parameters that determine the conditions, and light sources (type, number, position, intensity, etc.) Etc.). When a two-dimensional image such as a background sprite for expressing the sky or the like is set in the object space, a two-dimensional image (background sprite) corresponding to the weather or time is set. When the two-dimensional image changes based on the animation data, the change is controlled according to the situation parameter. For example, the fluctuation of leaves and the state of waves are made different according to the situation parameters. Further, it may be set by changing the color of the object according to the situation parameter.

またオブジェクト空間設定部110は、第2の仮想カメラ制御処理が行われる場合に、設定された状況パラメータに応じて、特殊オブジェクトとして小動物や飛行機等の移動体オブジェクトを、第2の仮想カメラ制御処理における仮想カメラの位置付近のオブジェクト空間上の位置に設定する。ここで特殊オブジェクトとしての移動体オブジェクトは、所与の移動・動作制御プログラムに応じてランダムに移動・動作が制御され、第2の仮想カメラ制御処理における仮想カメラから見える範囲付近を移動するように、オブジェクト空間に配置設定される。   In addition, when the second virtual camera control process is performed, the object space setting unit 110 converts a moving object such as a small animal or an airplane as a special object according to the set situation parameter, and performs the second virtual camera control process. Is set to a position in the object space near the position of the virtual camera. Here, the moving object as a special object is controlled to move and move randomly according to a given movement / motion control program, and moves in the vicinity of the range visible from the virtual camera in the second virtual camera control processing. , Placement is set in the object space.

通信制御部119は、カメラデータ記憶部177に保存された位置データと、当該位置データに関連づけて保存された保存用画像とを通信部196を介して外部装置に送信する制御を行う。また、外部装置に保存された位置データと、当該位置データに関連づけて保存された保存用画像とを通信部196を介して外部装置から受信する制御を行う。特に本実施形態では通信制御部119は、位置データ関連付けて、当該位置データに基づいて第2の仮想カメラ制御処理を行う場合に設定される状況パラメータを送信するようにしてもよい。例えば位置データを外部装置に送信する場合に、操作入力又は所与のプログラムに基づき状況パラメータを選択し、選択された状況パラメータを位置データに関連付けて外部装置に送信するようにしてもよい。   The communication control unit 119 performs control to transmit the position data stored in the camera data storage unit 177 and the storage image stored in association with the position data to the external device via the communication unit 196. Further, control is performed to receive the position data stored in the external device and the storage image stored in association with the position data from the external device via the communication unit 196. In particular, in the present embodiment, the communication control unit 119 may associate the position data and transmit a situation parameter set when performing the second virtual camera control process based on the position data. For example, when transmitting position data to an external apparatus, a situation parameter may be selected based on an operation input or a given program, and the selected situation parameter may be associated with the position data and transmitted to the external apparatus.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。特に本実施形態では、描画部120は、第2の仮想カメラ制御処理を介してオブジェクト空間を仮想カメラから見た画像を描画する場合には、設定された状況パラメータに応じた画像を描画する。具体的には描画部120は、状況パラメータに応じて設定されたオブジェクトを描画し、状況パラメータに応じて描画する色を変化させたり、フォグ(霧、ぼかし)処理等のポストエフェクト処理を行う。また状況パラメータに応じてマッピングするテクスチャを変えるようにしてもよい。即ち描画部120は、位置データが保存された際に第1の仮想カメラ制御処理を介して描画された画像と、当該位置データに基づいて第2の仮想カメラ制御処理を介して描画する画像とが、設定された状況パラメータに応じて変化するように、第2の仮想カメラ制御処理を介した画像を描画する。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In particular, in the present embodiment, the drawing unit 120 draws an image corresponding to the set status parameter when drawing an image of the object space viewed from the virtual camera via the second virtual camera control process. Specifically, the drawing unit 120 draws an object set according to the situation parameter, changes the color to be drawn according to the situation parameter, and performs post-effect processing such as fog (fog, blur) processing. Further, the texture to be mapped may be changed according to the situation parameter. That is, the drawing unit 120 includes an image drawn through the first virtual camera control process when the position data is stored, and an image drawn through the second virtual camera control process based on the position data. However, the image is drawn through the second virtual camera control process so as to change according to the set situation parameter.

より詳細には描画部120は、いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   More specifically, the drawing unit 120 first generates vertex data (vertex position coordinates, texture coordinates, color data, normal vector, or α value) of each vertex of an object (model) when generating a so-called three-dimensional game image. Etc.) is input, and vertex processing is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。   In the vertex processing, geometric processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. The given vertex data is changed (updated or adjusted) for the vertex group to be configured. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed.

ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。   In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to the drawing buffer 174 (buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed.

これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Thereby, an image that can be seen from the virtual camera (given viewpoint) set in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお、描画部120が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing performed by the drawing unit 120 are performed by hardware that enables the polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). It may be realized. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .

そして、描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部170に記憶する。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170.

テクスチャマッピングでは、記憶部170のテクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部174からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   In texture mapping, a process of mapping a texture (texel value) stored in the texture storage unit 174 of the storage unit 170 to an object is performed. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 174 of the storage unit 170 using the texture coordinates set (applied) to the vertex of the object. Map an image texture to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

なお、本実施形態では、オブジェクトを描画する際に、所与のテクスチャをマッピングする処理を行うようにしてもよい。この場合には、マッピングされるテクスチャの色分布(テクセルパターン)を動的に変化させることができる。   In the present embodiment, when an object is drawn, a process for mapping a given texture may be performed. In this case, the color distribution (texel pattern) of the texture to be mapped can be dynamically changed.

また、この場合において、色分布(ピクセルパターン)が異なるテクスチャを動的に生成してもよいし、複数の色分布が異なるテクスチャを予め用意しておき、使用するテクスチャを動的に切り替えるようにしてもよい。またオブジェクト単位でテクスチャの色分布を変化させてもよい。   In this case, textures having different color distributions (pixel patterns) may be dynamically generated, or a plurality of textures having different color distributions are prepared in advance, and the texture to be used is dynamically switched. May be. The texture color distribution may be changed in units of objects.

隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   In the hidden surface removal processing, hidden surface removal processing is performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when drawing the drawing pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to, and the Z value of the referenced Z buffer and the Z value at the drawing pixel of the primitive are obtained. In comparison, if the Z value at the drawing pixel is a Z value (for example, a small Z value) that is on the near side when viewed from the virtual camera, the drawing pixel is drawn and the Z value in the Z buffer is updated. Update to the correct Z value.

αブレンディング(α合成)では、描画部120は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。   In α blending (α synthesis), the rendering unit 120 performs translucent synthesis processing (normal α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部140は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。特に本実施形態では音生成部140は、第2の仮想カメラ制御処理を介してオブジェクト空間を仮想カメラから見た画像が描画される場合には、設定された状況パラメータに応じた音源を設定し、状況パラメータに応じた音を生成して出力する。   The sound generation unit 140 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192. In particular, in the present embodiment, the sound generation unit 140 sets a sound source according to the set situation parameter when an image of the object space viewed from the virtual camera is rendered via the second virtual camera control process. , Generate and output sound according to the situation parameters.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.

また、複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   In addition, when a plurality of players play, game images and game sounds provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line), etc. It may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

3.本実施形態の手法
3.1 第1の仮想カメラ制御処理
次に、図2及び図3を用いて本実施形態の画像生成システムにおける第1の仮想カメラ制御処理について説明する。
3. 3. Method of First Embodiment 3.1 First Virtual Camera Control Process Next, a first virtual camera control process in the image generation system of the present embodiment will be described with reference to FIGS. 2 and 3.

本実施形態の画像生成システムは、オブジェクト空間が複数のエリア(例えば30以上のエリア)に分割されており、エリアごとに当該エリアに存在するオブジェクトのオブジェクトデータを情報記憶媒体180から読み出し、記憶部170に記憶する。本実施形態では、プレーヤキャラクタが存在するエリアのオブジェクトデータのみを記憶部170に展開する。従って本実施形態では、プレーヤキャラクタの移動に伴ってプレーヤキャラクタが存在するエリアが変更されると、変更後のエリアに存在するオブジェクトのオブジェクトデータを情報記憶媒体180から読み出し、記憶部170に記憶する。そして本実施形態では、各エリア毎にオブジェクト空間を形成しつつ、第1の仮想カメラ制御処理を実行し、ロールプレイングゲームの進行に併せて種々の画像を生成するようになっている。   In the image generation system of the present embodiment, the object space is divided into a plurality of areas (for example, 30 or more areas), and object data of objects existing in the areas are read from the information storage medium 180 for each area, and the storage unit Stored in 170. In the present embodiment, only the object data of the area where the player character exists is expanded in the storage unit 170. Therefore, in this embodiment, when the area where the player character exists is changed as the player character moves, the object data of the object existing in the changed area is read from the information storage medium 180 and stored in the storage unit 170. . In the present embodiment, the first virtual camera control process is executed while forming an object space for each area, and various images are generated in accordance with the progress of the role playing game.

例えば本実施の形態では、第1のカメラ制御処理として、図2に示すように、プレーヤからの操作入力(第1の操作入力)に応じて移動するプレーヤオブジェクトPOに追従し、当該プレーヤオブジェクトPOを含めて又は当該プレーヤオブジェクトは含めずに、仮想カメラCAから見える画像を描画する。   For example, in the present embodiment, as the first camera control process, as shown in FIG. 2, the player object PO that moves in accordance with an operation input (first operation input) from the player is followed. An image that is visible from the virtual camera CA is drawn with or without the player object.

特に、この画像生成システムは、第1のカメラ制御処理として、プレーヤオブジェクトPOに追従しつつ、図3(a)に示すような当該プレーヤオブジェクトを含めた画像を描画するとともに、プレーヤの操作又は所定のプログラムに従って視線方向を変更し、図3(b)に示すように、プレーヤオブジェクトを含めずに、適宜オブジェクト空間の任意の範囲を描画するようになっている。   In particular, this image generation system draws an image including the player object as shown in FIG. 3A while following the player object PO as the first camera control process, The line-of-sight direction is changed in accordance with this program, and as shown in FIG. 3B, an arbitrary range of the object space is appropriately drawn without including the player object.

3.2 位置データの保存
次に、本実施形態の画像生成システムにおける位置データを保存する処理(以下、「保存処理」という。)について説明する。本実施形態では、第1の仮想カメラ制御処理を実行している際に、プレーヤの操作入力(第2の操作入力)に従って、第2の仮想カメラ制御処理において用いる位置データを保存するようになっている。
3.2 Saving Position Data Next, a process for saving position data (hereinafter referred to as “save process”) in the image generation system of the present embodiment will be described. In the present embodiment, when the first virtual camera control process is executed, the position data used in the second virtual camera control process is stored according to the operation input (second operation input) of the player. ing.

例えば、図4に示すように、第2のエリアを移動するプレーヤキャラクタPOに追従する仮想カメラCAが地点Aにある場合に、図5に示すような風景を示す画像が描画されたとする。そしてこの画像を見たプレーヤがその風景を気に入った場合には、プレーヤの撮影操作入力(第2の操作入力)に従って、プレーヤキャラクタPOがもつゲームアイテムとしてのカメラでゲーム中の風景を撮影するというイベントを実行する。すると本実施形態では、プレーヤからの撮影操作入力に従って、当該操作時の仮想カメラのオブジェクト空間上の位置座標である地点Aの位置座標(位置データ)と、仮想カメラの向き、画角の情報を取得する。なお本実施の形態では、取得した位置座標に当該位置座標が第2エリアであることを識別するための情報(以下、「エリア情報」ともいう。)を付加して保存するようになっている。   For example, as shown in FIG. 4, when the virtual camera CA following the player character PO moving in the second area is at the point A, it is assumed that an image showing a landscape as shown in FIG. 5 is drawn. If the player who has seen this image likes the scenery, the scenery in the game is photographed by the camera as the game item of the player character PO according to the photographing operation input (second operation input) of the player. Execute the event. Then, in the present embodiment, in accordance with the shooting operation input from the player, the position coordinates (position data) of the point A, which is the position coordinates in the object space of the virtual camera at the time of the operation, and the information of the virtual camera direction and angle of view get. In the present embodiment, information for identifying that the position coordinate is the second area (hereinafter also referred to as “area information”) is added to the acquired position coordinate and stored. .

そして本実施形態では、プレーヤからの第1の操作入力に応じてプレーヤキャラクタPOをオブジェクト空間上の任意の位置に移動させ、第2の操作入力に応じて任意の位置において風景を撮影するイベントを実行し、任意の位置に対応する複数の仮想カメラの位置データを保存させる。このとき本実施形態では、位置データに関連づけて、当該位置データに応じた位置における仮想カメラからオブジェクト空間を見た画像を位置選択用画像として保存させる。   In the present embodiment, an event is performed in which the player character PO is moved to an arbitrary position on the object space in accordance with the first operation input from the player, and a landscape is photographed at the arbitrary position in accordance with the second operation input. Execute, and store the position data of a plurality of virtual cameras corresponding to an arbitrary position. At this time, in the present embodiment, an image obtained by viewing the object space from the virtual camera at a position corresponding to the position data is stored as a position selection image in association with the position data.

3.3 第2の仮想カメラ制御処理
次に、本実施形態の画像生成システムにおける第2の仮想カメラ制御処理について説明する。本実施形態では、第1の仮想カメラ制御処理時又はプログラムゲーム開始時などの任意のタイミングにおいて、プレーヤからの操作入力(第3の操作入力)に基づいて、観察/観賞地点として記憶された位置選択用画像を一覧表的に表示し、当該プレーヤに選択させるようになっている。具体的には本実施の形態では、図6に示すように、エリア毎又は記憶された時刻に従って、各位置選択用画像を一覧表的に表示する。
3.3 Second Virtual Camera Control Process Next, the second virtual camera control process in the image generation system of this embodiment will be described. In the present embodiment, the position stored as the observation / viewing point based on the operation input (third operation input) from the player at any timing such as the first virtual camera control process or the start of the program game. The selection images are displayed in a list so that the player can select them. Specifically, in the present embodiment, as shown in FIG. 6, each position selection image is displayed in a list form according to each area or stored time.

そして、一の位置選択用画像が選択されると(例えば、図6の各画像における「GO」ボタンが選択操作されると)、選択された画像に対応する仮想カメラの位置データを設定する。すると、観察/観賞地点の時刻、天候又は特殊オブジェクトの有無など、当該第2の仮想カメラ制御処理における仮想カメラから見たオブジェクト空間の状況を決定するための状況パラメータを設定する。   When one position selection image is selected (for example, when the “GO” button in each image in FIG. 6 is selected), the position data of the virtual camera corresponding to the selected image is set. Then, status parameters for determining the status of the object space viewed from the virtual camera in the second virtual camera control process, such as the time of the observation / viewing point, the weather, or the presence or absence of a special object, are set.

そして本実施の形態では、設定された仮想カメラの位置データに基づいて仮想カメラの位置を変更し、かつ、設定された状況パラメータに基づいて、オブジェクトの設定、光源計算、移動体オブジェクトの動作処理(移動及び動作演算又はシミュレーション)、アニメーション処理(揺らぎやテクスチャの処理による2次元アニメーション)、描画処理などの各種処理を実行する。即ち本実施形態では、位置データに基づいて仮想カメラの位置を制御する第2の仮想カメラ制御処理を介して、状況パラメータに応じた画像を描画する。   In the present embodiment, the position of the virtual camera is changed based on the set position data of the virtual camera, and the object setting, the light source calculation, and the movement process of the moving object are performed based on the set situation parameter. Various processes such as (movement and motion calculation or simulation), animation processing (two-dimensional animation by fluctuation and texture processing), and drawing processing are executed. That is, in the present embodiment, an image corresponding to the situation parameter is drawn through the second virtual camera control process that controls the position of the virtual camera based on the position data.

特に本実施形態では、第2の仮想カメラ制御処理として、位置データに従って仮想カメラの位置を変更しない制御処理を行う。即ち各フレーム毎に同一の位置にて仮想カメラから見た画像を各フレーム毎に生成するようになっている。   In particular, in this embodiment, as the second virtual camera control process, a control process that does not change the position of the virtual camera according to the position data is performed. That is, an image viewed from the virtual camera at the same position for each frame is generated for each frame.

このように、本実施形態の画像生成システムは、一度描画した画像そのものを再び表示させるのではなく、状況パラメータに応じてオブジェクト空間における種々の状況が反映された画像を改めて描画することができるようになっている。   As described above, the image generation system according to the present embodiment can redraw an image reflecting various situations in the object space according to the situation parameter, instead of displaying the once drawn image itself again. It has become.

具体的には、本実施形態の画像生成システムは、一の位置選択用画像が選択されると、例えば状況パラメータとして現在時刻(現実の時刻)が設定される。これによって本実施形態では、プレーヤに、第2の仮想カメラ制御処理にて上述のように記憶された位置における風景の現在の状況を提供することができるようになっている。   Specifically, in the image generation system of the present embodiment, when one position selection image is selected, for example, the current time (actual time) is set as a situation parameter. Accordingly, in the present embodiment, the current situation of the landscape at the position stored as described above in the second virtual camera control process can be provided to the player.

従って例えば、地点Aにおいて風景を撮影するイベントが発生した時刻が昼であって、そのとき第1の仮想カメラ制御処理を介して描画された画像が、図5に示すように昼の風景を示す画像であったとしても、第2の仮想カメラ制御処理を行う場合に設定された状況パラメータとしての現在時刻が日没の時刻である場合には、図7(a)に示すように、日没の風景の画像が描画される。また、状況パラメータとしての現在時刻が夜の時刻である場合には、図7(b)に示すように、夜の風景の画像が描画される。   Therefore, for example, the time at which an event for photographing a landscape occurs at the point A is noon, and the image drawn through the first virtual camera control process at that time shows the daytime landscape as shown in FIG. Even if it is an image, if the current time as the situation parameter set when performing the second virtual camera control process is the sunset time, as shown in FIG. An image of the landscape is drawn. When the current time as the situation parameter is the night time, an image of the night landscape is drawn as shown in FIG.

また、本実施形態の画像生成システムは、オブジェクト空間の気象状況を設定するための状況パラメータを所定のプログラムに基づいて決定して設定するようになっている。例えば本実施の形態では、「晴れ」、「曇り」及び「雨」などの気象状況をランダムに決定する。即ち本実施形態では、状況パラメータとして気象状況を設定することによって、プレーヤに、第2の仮想カメラ制御処理を介して、上述のように記憶された位置における現在の状況を提供することができるようになっている。   Further, the image generation system of the present embodiment is configured to determine and set a situation parameter for setting the weather situation of the object space based on a predetermined program. For example, in this embodiment, weather conditions such as “sunny”, “cloudy”, and “rainy” are determined at random. That is, in this embodiment, by setting the weather situation as the situation parameter, it is possible to provide the player with the current situation at the position stored as described above via the second virtual camera control process. It has become.

従って例えば、地点Aにおいて風景を撮影するイベントが発生した時点での天候が「晴れ」であって、そのとき第1の仮想カメラ制御処理を介して描画された画像が、図5に示すように「晴れ」の風景を示す画像であったとしても、第2の仮想カメラ制御処理を行う場合に設定された状況パラメータとしての天候が「雨」である場合には、図8(a)に示すように、雨が降っている風景の画像が描画される。また、状況パラメータとしての天候が「曇り」である場合には、図8(b)に示すように、曇りの風景の画像が描画される。   Therefore, for example, the weather at the time when an event for photographing a landscape occurs at the point A is “sunny”, and an image drawn through the first virtual camera control process at that time is as shown in FIG. Even if the image shows a “sunny” landscape, when the weather as the situation parameter set when performing the second virtual camera control process is “rain”, it is shown in FIG. In this way, an image of a raining landscape is drawn. If the weather as the situation parameter is “cloudy”, an image of a cloudy landscape is drawn as shown in FIG.

さらに、本実施形態の画像生成システムは、選択された位置データに応じて、小動物など特殊オブジェクトの出現の可否を示す状況パラメータを設定するようになっている。例えば、この画像生成システムは、海岸が観察/観賞地点として記憶されている場合に、「かに」又は「カモメ」といった小動物を無作為に出現させるプログラムを用いてこの状況パラメータを設定する。   Furthermore, the image generation system according to the present embodiment is configured to set a status parameter indicating whether or not a special object such as a small animal appears depending on the selected position data. For example, this image generation system sets this situation parameter using a program that causes small animals such as “crab” or “gull” to appear at random when the coast is stored as an observation / viewing point.

すなわち、本実施形態の画像生成システムは、状況パラメータとして特殊オブジェクトの状況を設定することによって、プレーヤに、第2の仮想カメラ制御処理にて上述のように記憶された位置における現在の状況を提供することができるようになっている。   In other words, the image generation system according to the present embodiment provides the player with the current situation at the position stored as described above in the second virtual camera control process by setting the situation of the special object as the situation parameter. Can be done.

従って例えば、地点Aにおいて風景を撮影するイベントが発生した時点では地点Aに特殊オブジェクトが存在しなかったため、そのとき第1の仮想カメラ制御処理を介して描画された画像が、図5に示すように特殊オブジェクトが存在しない画像であってとしても、第2の仮想カメラ制御処理を行う場合に状況パラメータによって「かに」の出現が設定された場合には、図9(a)に示すように、「かに」のオブジェクトOB1が移動する画像が描画される。また、状況パラメータによって「カモメ」の出現が設定された場合には、図9(b)に示すように、「カモメ」のオブジェクトOB2の画像が描画される。   Therefore, for example, when an event for photographing a landscape occurs at the point A, there is no special object at the point A. Therefore, an image drawn through the first virtual camera control process at that time is as shown in FIG. Even if the special object does not exist, if the occurrence of “crab” is set by the situation parameter when the second virtual camera control process is performed, as shown in FIG. , An image in which the “crab” object OB1 moves is drawn. If the appearance of “gull” is set by the situation parameter, an image of the object “OB2” of “gull” is drawn as shown in FIG.

なお、本実施形態の画像生成システムは、特殊オブジェクトが出現しないものの、小動物の足跡や植物を食い荒らした跡など、状況パラメータによって該特殊オブジェクトが出現した痕跡を描画するようにしてもよい。   Note that the image generation system of the present embodiment may draw a trace where the special object has appeared, such as a footprint of a small animal or a trace of eating a plant, although a special object does not appear.

また本実施の形態では、プレーヤの指示に従って、海辺に釣り竿を設定すること、小動物を捕獲するための罠を仕掛けること、草木を植えることなど種々のイベントを実行することができる。そして本実施形態では、当該イベントに係るオブジェクト空間上の位置に応じた位置データを保存させるので、プレーヤキャラクタが当該イベントに係る地点から移動して他の地点に存在する場合でも、第2の仮想カメラ制御処理を介して描画される画像により、これらイベントの進行の様子、変化の様子をプレーヤに表示することができる。この場合には本実施形態では、例えば魚が釣り竿に引っかかった状況、魚が釣れた状況又は魚を取り逃がした状況などの各種の状況を設定するための状況パラメータを所定のプログラムによって設定し、当該状況パラメータを含めて各種の状況パラメータに応じて、第2の仮想カメラ制御処理を介した画像を描画する。   In the present embodiment, various events such as setting a fishing rod on the beach, setting a fishing rod for capturing small animals, and planting vegetation can be executed in accordance with the instructions of the player. In the present embodiment, the position data corresponding to the position in the object space related to the event is stored, so that even if the player character moves from the point related to the event and exists at another point, the second virtual The state of progress and change of these events can be displayed on the player by the image drawn through the camera control process. In this case, in this embodiment, for example, a situation program for setting various situations such as a situation where a fish is caught on a fishing rod, a situation where a fish is caught, or a situation where a fish is missed is set by a predetermined program. An image is drawn through the second virtual camera control process according to various situation parameters including the situation parameters.

4.本実施形態の処理
次に、本実施形態で行われる処理の流れの一例についてフローチャートを用いて説明する。
4). Processing of this embodiment Next, an example of the flow of processing performed in this embodiment will be described using a flowchart.

図10は、本実施形態の第1の仮想カメラ制御処理を行う場合の流れの一例を示すフローチャートである。図10に示すように本実施形態では、まずゲームが開始され、プレーヤからのプレーヤキャラクタを移動させる操作入力(第1の操作入力)が行われると(ステップS10でY)、移動操作入力に応じてキャラクタオブジェクトを移動させるとともに仮想カメラを追従させて移動させる(第1の仮想カメラ制御処理)(ステップS12)。そしてオブジェクト空間を前記仮想カメラから見た画像を描画する(ステップS14)。   FIG. 10 is a flowchart illustrating an example of a flow when performing the first virtual camera control process of the present embodiment. As shown in FIG. 10, in this embodiment, when a game is started and an operation input (first operation input) for moving the player character from the player is performed (Y in step S10), the movement operation input is performed. The character object is moved, and the virtual camera is caused to follow (first virtual camera control process) (step S12). Then, an image of the object space viewed from the virtual camera is drawn (step S14).

そしてゲーム中の風景をカメラアイテムで撮影するイベントを実行させる撮影操作入力(第2の操作入力)が行われると(ステップS16のY)、プレーヤキャラクタがゲーム中でカメラアイテムのシャッターを押す撮影イベントを実行し(ステップS18)、そのときの仮想カメラの位置に対応する位置データを保存する。また撮影イベントを実行したときに描画していた画像を画像サイズを縮小して、位置選択用画像として位置データと関連付けて保存する(ステップS20)。   When a shooting operation input (second operation input) for executing an event of shooting a scene in the game with a camera item is performed (Y in step S16), a shooting event in which the player character presses the shutter of the camera item in the game. (Step S18), and the position data corresponding to the position of the virtual camera at that time is stored. Further, the image drawn when the shooting event is executed is reduced in size and stored as a position selection image in association with the position data (step S20).

こうして本実施形態では、第1の仮想カメラ制御処理において、移動操作入力に応じて仮想カメラの位置を制御し、任意の位置において撮影操作入力において位置データを保存させる処理を繰り返す。   Thus, in the present embodiment, in the first virtual camera control process, the position of the virtual camera is controlled according to the movement operation input, and the position data is saved in the shooting operation input at an arbitrary position.

図11は、本実施形態の第2の仮想カメラ制御処理を行う場合の流れの一例を示すフローチャートである。図11に示すように本実施形態では、第1の仮想カメラ制御処理中に、プレーヤから第2の仮想カメラ制御処理に切り替える切替操作入力(第3の操作入力)が行われると(ステップS40のY)、保存させている位置選択用画像をサムネイル形式で表示する(ステップS42)。   FIG. 11 is a flowchart illustrating an example of a flow when performing the second virtual camera control process of the present embodiment. As shown in FIG. 11, in the present embodiment, when a switching operation input (third operation input) for switching from the player to the second virtual camera control process is performed during the first virtual camera control process (in step S40). Y) The stored position selection image is displayed in a thumbnail format (step S42).

そして、プレーヤからいずれかの位置選択用画像を選択する選択操作入力(第4の操作入力)が行われると(ステップS44のY)、選択された位置選択用画像に対応する位置データを第2の仮想カメラ制御処理用の仮想カメラの位置として設定する(ステップS46)。すると、第2の仮想カメラ制御処理における仮想カメラから見たオブジェクト空間の状況パラメータを設定する(ステップS48)。   Then, when a selection operation input (fourth operation input) for selecting any position selection image is performed from the player (Y in step S44), the position data corresponding to the selected position selection image is stored in the second position data. Is set as the position of the virtual camera for the virtual camera control processing (step S46). Then, the status parameter of the object space viewed from the virtual camera in the second virtual camera control process is set (step S48).

そして、設定された位置データに基づき仮想カメラの位置を変更し、第2の仮想カメラ制御処理を行う(ステップS50)。そして設定された状況パラメータに応じて、変更後の仮想カメラの位置からオブジェクト空間を見た画像を描画する(ステップS52)。   Then, the position of the virtual camera is changed based on the set position data, and the second virtual camera control process is performed (step S50). Then, in accordance with the set situation parameter, an image obtained by viewing the object space from the position of the virtual camera after the change is drawn (step S52).

ここで、プレーヤから第2の仮想カメラ制御処理に用いる位置データを変更する変更操作入力(第5の操作入力)が行われると(ステップS54のY)、ステップS42に戻り、保存させている位置選択用画像をサムネイル形式で表示する(ステップS42)。また、プレーヤから第1の仮想カメラ制御処理に切り替える切替操作入力(第6の操作入力)が行われると(ステップS56のY)、第2の仮想カメラ制御処理を終了して、図10の各処理を行う。   Here, when a change operation input (fifth operation input) for changing the position data used for the second virtual camera control process is performed from the player (Y in step S54), the process returns to step S42 to store the stored position data. The selection image is displayed in a thumbnail format (step S42). Further, when a switching operation input (sixth operation input) for switching to the first virtual camera control process is performed from the player (Y in step S56), the second virtual camera control process is terminated, and each of FIG. Process.

こうして本実施形態では、第1の仮想カメラ制御処理において保存させた位置データに基づいて第2の仮想カメラ制御処理を行うことにより、プレーヤキャラクタの位置に拘わらず、撮影イベントを実行した位置における画像を描画する。そして第2の仮想カメラ制御処理を介して描画される画像は、状況パラメータに応じて描画されるので、撮影イベントを実行したときとは状況が異なる画像として描画される。   In this way, in the present embodiment, by performing the second virtual camera control process based on the position data stored in the first virtual camera control process, the image at the position where the shooting event is executed regardless of the position of the player character. Draw. Since the image drawn through the second virtual camera control process is drawn according to the situation parameter, it is drawn as an image having a different situation from when the shooting event is executed.

5.他の実施形態
以上は、保存制御部116が、第2の操作入力に応じて仮想カメラの位置に応じた位置データを記憶部170に保存させ、仮想カメラ制御部114が、位置データに基づいて仮想カメラの位置を制御する第2の仮想カメラ制御処理を行う態様を例に挙げて説明した。これに対し他の実施形態として、保存制御部116が、第2の操作入力に応じて、描画された画像に基づく保存用画像を記憶部に保存させ、パラメータ設定部118が、保存用画像の状況パラメータを設定し、表示制御部が、オブジェクト空間を仮想カメラから見た画像と、保存用画像に基づく画像の少なくとも一方を表示部に表示させ、描画部120が、保存用画像に基づく画像が表示される場合に、状況パラメータに応じて保存用画像の色を変化させるようにしてもよい。この実施形態によっても、上記実施形態と同様に、プレーヤキャラクタの位置に拘わらず撮影イベントを実行した位置における画像を、撮影イベントを実行したときとは状況が異なる画像として表示させることができる。
5. Other Embodiments As described above, the storage control unit 116 stores the position data corresponding to the position of the virtual camera in the storage unit 170 in response to the second operation input, and the virtual camera control unit 114 is based on the position data. The mode of performing the second virtual camera control process for controlling the position of the virtual camera has been described as an example. On the other hand, as another embodiment, the storage control unit 116 stores a storage image based on the rendered image in the storage unit in response to the second operation input, and the parameter setting unit 118 stores the storage image. A situation parameter is set, the display control unit displays at least one of an image obtained by viewing the object space from the virtual camera and an image based on the storage image on the display unit, and the drawing unit 120 displays an image based on the storage image. When displayed, the color of the image for storage may be changed according to the status parameter. Also in this embodiment, similarly to the above-described embodiment, the image at the position where the shooting event is executed can be displayed as an image having a different situation from when the shooting event is executed regardless of the position of the player character.

具体的にはこの実施形態では、保存制御部116が、第2の操作入力に応じて撮影イベントを実行したときにフレームバッファ172に描画されていた画像を、保存用画像として別のバッファに保存させる。ここでこの実施形態では、フレームバッファ172に描画されていた画像をそのまま保存用画像として保存させるのではなく、描画部120が、フレームバッファ172に描画されていた画像を基準色に変化させた基準画像に描画しなおし(変換し)、保存制御部116が、基準画像を保存用画像として別のバッファに保存させる。   Specifically, in this embodiment, the image stored in the frame buffer 172 when the storage control unit 116 executes a shooting event in response to the second operation input is stored in another buffer as a storage image. Let Here, in this embodiment, the image drawn in the frame buffer 172 is not saved as a saving image as it is, but the drawing unit 120 changes the image drawn in the frame buffer 172 to the reference color. The image is redrawn (converted) in the image, and the saving control unit 116 saves the reference image as a saving image in another buffer.

より詳細にはこの実施形態では、基準画像を描画する処理として描画部120は、フレームバッファ172に描画されていた画像のうち、オブジェクトを除く背景(背景スプライト等)やポストエフェクト処理用のフィルタ(エフェクト色が描画された板ポリゴン等)を除去したり、それらの色を透明に設定する。また描画部120は、フレームバッファ172に描画されていた画像の色を全体的に薄くする変換処理を行うようにしてもよい。即ちこの実施形態では描画部120は、フレームバッファ172に描画されていた画像の色を、状況パラメータに応じて容易にかつ自然に変化させることができるように、基準画像に変換する。   More specifically, in this embodiment, as a process for drawing a reference image, the drawing unit 120 includes a background (background sprite or the like) excluding an object among images drawn in the frame buffer 172, and a post-effect processing filter ( Plate polygons on which effect colors are drawn, or the like, or set the colors to transparent. In addition, the drawing unit 120 may perform a conversion process that reduces the overall color of the image drawn in the frame buffer 172. That is, in this embodiment, the drawing unit 120 converts the color of the image drawn in the frame buffer 172 into a reference image so that it can be easily and naturally changed according to the situation parameter.

そして描画部120は、保存用画像に基づく画像が表示される場合に、状況パラメータに応じて保存用画像の色を変化させる。より具体的には描画部120は、状況パラメータに応じて、背景(背景スプライト等)の色やポストエフェクト処理用のフィルタ(エフェクト色が描画された板ポリゴン等)を改めて設定して、状況パラメータに応じた画像を描画する。   Then, when the image based on the storage image is displayed, the drawing unit 120 changes the color of the storage image according to the situation parameter. More specifically, the drawing unit 120 newly sets a background color (background sprite or the like) or a post-effect processing filter (such as a plate polygon on which the effect color is drawn) according to the situation parameter. Draw an image according to.

例えば、風景を撮影するイベントが発生した時刻が昼であって、そのとき仮想カメラ制御処理を介して描画された画像が、昼の風景を示す画像であったとしても、保存用画像に基づく画像が表示される場合に設定された状況パラメータとしての現在時刻が日没の時刻である場合には、基準画像に対して日没の状況を作り出すためのフィルタ処理等を実行し、夕方の風景の画像を描画する。また、状況パラメータとしての現在時刻が夜の時刻である場合には、基準画像に対して夜の状況を作り出すためのフィルタ処理等を実行し、夜の風景の画像を描画する。   For example, even if the time at which an event for photographing a landscape occurs is noon, and the image drawn through the virtual camera control process at that time is an image showing the daytime landscape, the image based on the image for storage If the current time as the set situation parameter is the sunset time, filter processing to create a sunset situation is performed on the reference image, and the sunset scenery Draw an image. Further, when the current time as the situation parameter is the night time, a filter process or the like for creating a night situation is executed on the reference image, and an image of the night landscape is drawn.

またこの実施形態では、通信制御部119が、外部装置により保存された保存用画像(基準画像)を外部装置から受信し、パラメータ設定部118が、受信した保存用画像の状況パラメータを設定し、描画部120が、受信した保存用画像(基準画像)に基づく画像が表示される場合に、状況パラメータに応じて、保存用画像(基準画像)の色を変化させるようにしてもよい。   In this embodiment, the communication control unit 119 receives the storage image (reference image) stored by the external device from the external device, the parameter setting unit 118 sets the status parameter of the received storage image, When the drawing unit 120 displays an image based on the received storage image (reference image), the color of the storage image (reference image) may be changed according to the situation parameter.

6.ハードウェア構成
次に、図12を用いて本実施形態を実現できるハードウェア構成について説明する。なお、図12は、本実施形態を実現できるハードウェア構成を示す一例である。
6). Hardware Configuration Next, a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. FIG. 12 is an example of a hardware configuration that can realize the present embodiment.

メインプロセッサ900は、DVD982(情報記憶媒体。CDでもよい。)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。   The main processor 900 operates based on a program stored in a DVD 982 (information storage medium, which may be a CD), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like. Perform processing, sound processing, etc.

コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えば、オブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。   The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is necessary for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture.

また、この描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 also performs α blending (translucent processing), depth queuing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

なお、上記各プロセッサの各機能は、ハードウェアとして別々のプロセッサにより実現してもよいし、1つのプロセッサにより実現してもよい。また、プロセッサとしてCPUとGPUを設けた場合でも、いずれのプロセッサによりいかなる機能を実現するかは、任意に設定することができる。   Each function of each of the processors may be realized by a separate processor as hardware, or may be realized by one processor. In addition, even when a CPU and a GPU are provided as processors, it is possible to arbitrarily set which function is realized by which processor.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950には、システムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950.

RAM960は、各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるDVD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The RAM 960 serves as a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 accesses a DVD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお、本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. May be. Alternatively, it may be realized by both hardware and a program.

そして、本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each unit of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each unit of this embodiment is stored in the information storage medium. . More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

また、本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語(プリミティブ面等)として引用された用語(ポリゴン等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   Further, the present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, terms (polygons, etc.) cited as broad or synonymous terms (primitive surfaces, etc.) in the description or drawings are replaced with broad or synonymous terms in the other descriptions or drawings. Can do.

また、上述の描画処理は、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含むことができる。   The drawing process described above is not limited to that described in this embodiment, and techniques equivalent to these can also be included in the scope of the present invention.

また、本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

一実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of one embodiment. 一実施形態の画像生成システムにおける第1の仮想カメラ制御処理を説明するための図。The figure for demonstrating the 1st virtual camera control process in the image generation system of one Embodiment. 図3(A)、(B)は、一実施形態の画像生成システムで生成される画像例。3A and 3B are examples of images generated by the image generation system of one embodiment. 一実施形態の画像生成システムにおける位置データの保存処理を説明するための図。The figure for demonstrating the preservation | save process of the position data in the image generation system of one Embodiment. 一実施形態の画像生成システムで生成される画像例。The example of an image produced | generated with the image production | generation system of one Embodiment. 一実施形態の画像生成システムで表示される選択画面例。The example of a selection screen displayed with the image generation system of one Embodiment. 図7(A)、(B)は、一実施形態の画像生成システムで生成される画像例。FIGS. 7A and 7B are examples of images generated by the image generation system of one embodiment. 図8(A)、(B)は、一実施形態の画像生成システムで生成される画像例。8A and 8B are examples of images generated by the image generation system of one embodiment. 図9(A)、(B)は、一実施形態の画像生成システムで生成される画像例。FIGS. 9A and 9B are examples of images generated by the image generation system according to the embodiment. 一実施形態の処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of a process of one Embodiment. 一実施形態の処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of a process of one Embodiment. ハードウェアの構成例。Hardware configuration example.

符号の説明Explanation of symbols

PO プレーヤオブジェクト、CA 仮想カメラ、OB1・OB2 特殊オブジェクト、
100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、116 保存制御部、118 パラメータ設定部、
119 通信制御部、120 画像生成部、130 音生成部、
160 操作部、170 記憶部、180 情報記憶媒体、190 表示部、
192 音出力部、194 携帯型情報記憶装置、196 通信部
PO player object, CA virtual camera, OB1 / OB2 special object,
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 116 storage control unit, 118 parameter setting unit,
119 communication control unit, 120 image generation unit, 130 sound generation unit,
160 operation unit, 170 storage unit, 180 information storage medium, 190 display unit,
192 sound output unit, 194 portable information storage device, 196 communication unit

Claims (12)

オブジェクト空間において仮想カメラから見える画像を生成するためのプログラムであって、
前記オブジェクト空間内にオブジェクトを設定するオブジェクト空間設定部と、
第1の操作入力に応じて前記仮想カメラの位置を制御する第1の仮想カメラ制御処理を行う仮想カメラ制御部と、
前記オブジェクト空間を前記仮想カメラから見た画像を描画する描画部と、
第2の操作入力に応じて前記仮想カメラの位置に応じた位置データを記憶部に保存させる保存制御部としてコンピュータを機能させ、
前記仮想カメラ制御部が、
前記位置データに基づいて前記仮想カメラの位置を制御する第2の仮想カメラ制御処理を更に行うことを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
An object space setting unit for setting an object in the object space;
A virtual camera control unit that performs a first virtual camera control process for controlling the position of the virtual camera in response to a first operation input;
A drawing unit for drawing an image of the object space viewed from the virtual camera;
Causing the computer to function as a storage control unit that stores, in the storage unit, position data corresponding to the position of the virtual camera in response to a second operation input;
The virtual camera control unit is
A program that further performs a second virtual camera control process for controlling the position of the virtual camera based on the position data.
請求項1において、
前記第2の仮想カメラ制御処理における仮想カメラから見たオブジェクト空間の状況パラメータを設定するパラメータ設定部としてコンピュータを更に機能させ、
前記描画部が、
前記第2の仮想カメラ制御処理が行われる場合に、前記状況パラメータに応じた画像を描画することを特徴とするプログラム。
In claim 1,
Causing the computer to further function as a parameter setting unit for setting a status parameter of the object space viewed from the virtual camera in the second virtual camera control process;
The drawing unit
A program for rendering an image according to the situation parameter when the second virtual camera control process is performed.
請求項1、2のいずれかにおいて、
前記オブジェクト空間設定部が、
前記第2の仮想カメラ制御処理が行われる場合に、前記第2の仮想カメラ制御処理における仮想カメラの位置に応じて前記オブジェクト空間に特殊オブジェクトを設定することを特徴とするプログラム。
In any one of Claims 1, 2.
The object space setting unit
A program characterized in that, when the second virtual camera control process is performed, a special object is set in the object space according to the position of the virtual camera in the second virtual camera control process.
請求項1〜3のいずれかにおいて、
前記第1の操作入力に応じて、移動体オブジェクトの移動を制御する移動処理部としてコンピュータを更に機能させ、
前記仮想カメラ制御部が、
前記第1の仮想カメラ制御処理において、前記移動体オブジェクトの位置に応じて前記仮想カメラの位置の制御を行うことを特徴とするプログラム。
In any one of Claims 1-3,
In response to the first operation input, the computer further functions as a movement processing unit that controls movement of the moving object,
The virtual camera control unit is
In the first virtual camera control process, the position of the virtual camera is controlled according to the position of the moving object.
請求項1〜4のいずれかにおいて、
前記位置データを外部装置に送信する通信制御部としてコンピュータを更に機能させることを特徴するプログラム。
In any one of Claims 1-4,
A program that further causes a computer to function as a communication control unit that transmits the position data to an external device.
請求項1〜5のいずれかにおいて、
前記保存制御部が、
前記位置データに関連づけて、当該位置データに応じた位置における前記仮想カメラから前記オブジェクト空間を見た画像を選択用画像として前記記憶部に保存させることを特徴とするプログラム。
In any one of Claims 1-5,
The storage control unit
A program characterized in that an image of the object space viewed from the virtual camera at a position corresponding to the position data is stored in the storage unit as a selection image in association with the position data.
オブジェクト空間において仮想カメラから見える画像を生成するためのプログラムであって、
前記オブジェクト空間内にオブジェクトを設定するオブジェクト空間設定部と、
第1の操作入力に応じて、前記仮想カメラの位置を制御する仮想カメラ制御部と、
前記オブジェクト空間を前記仮想カメラから見た画像を描画する描画部と、
第2の操作入力に応じて、前記描画された画像に基づく保存用画像を記憶部に保存させる保存制御部と、
前記保存用画像の状況パラメータを設定するパラメータ設定部と、
前記オブジェクト空間を前記仮想カメラから見た画像と、前記保存用画像に基づく画像の少なくとも一方を表示部に表示させる表示制御部としてコンピュータを機能させ、
前記描画部が、
前記保存用画像に基づく画像が表示される場合に、前記状況パラメータに応じて前記保存用画像の色を変化させることを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
An object space setting unit for setting an object in the object space;
A virtual camera control unit that controls the position of the virtual camera in response to a first operation input;
A drawing unit for drawing an image of the object space viewed from the virtual camera;
A storage control unit that stores a storage image based on the drawn image in a storage unit in response to a second operation input;
A parameter setting unit for setting status parameters of the image for storage;
Causing the computer to function as a display control unit that displays on the display unit at least one of an image obtained by viewing the object space from the virtual camera and an image based on the storage image;
The drawing unit
A program for changing a color of the image for storage according to the situation parameter when an image based on the image for storage is displayed.
請求項7において、
前記描画部が、
前記描画した画像の色を基準色に変化させた基準画像を描画し、
前記保存制御部が、
前記保存用画像として前記基準画像を前記記憶部に保存させることを特徴とするプログラム。
In claim 7,
The drawing unit
Draw a reference image in which the color of the drawn image is changed to a reference color,
The storage control unit
A program for storing the reference image as the storage image in the storage unit.
請求項7、8のいずれかにおいて、
外部装置により保存された前記保存用画像を前記外部装置から受信する通信制御部としてコンピュータを更に機能させ、
前記パラメータ設定部が、
前記受信した保存用画像の状況パラメータを設定し、
前記描画部が、
前記受信した保存用画像に基づく画像が表示される場合に、前記状況パラメータに応じて、前記保存用画像の色を変化させることを特徴とするプログラム。
In any one of Claims 7 and 8,
Causing the computer to further function as a communication control unit that receives the image for storage stored by the external device from the external device;
The parameter setting unit
Set the status parameter of the received storage image,
The drawing unit
When the image based on the received storage image is displayed, the program changes the color of the storage image according to the situation parameter.
コンピュータに読み取り可能な情報記憶媒体であって、請求項1乃至9のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   An information storage medium readable by a computer, wherein the program according to any one of claims 1 to 9 is stored. オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、
前記オブジェクト空間内にオブジェクトを設定するオブジェクト空間設定部と、
第1の操作入力に応じて前記仮想カメラの位置を制御する第1の仮想カメラ制御処理を行う仮想カメラ制御部と、
前記オブジェクト空間を前記仮想カメラから見た画像を描画する描画部と、
第2の操作入力に応じて前記仮想カメラの位置に応じた位置データを記憶部に保存させる保存制御部と、
を含み、
前記仮想カメラ制御部が、
前記位置データに基づいて前記仮想カメラの位置を制御する第2の仮想カメラ制御処理を更に行うことを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
An object space setting unit for setting an object in the object space;
A virtual camera control unit that performs a first virtual camera control process for controlling the position of the virtual camera in response to a first operation input;
A drawing unit for drawing an image of the object space viewed from the virtual camera;
A storage control unit that stores in the storage unit position data corresponding to the position of the virtual camera in response to a second operation input;
Including
The virtual camera control unit is
An image generation system further comprising a second virtual camera control process for controlling the position of the virtual camera based on the position data.
オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、
前記オブジェクト空間内にオブジェクトを設定するオブジェクト空間設定部と、
第1の操作入力に応じて、前記仮想カメラの位置を制御する仮想カメラ制御部と、
前記オブジェクト空間を前記仮想カメラから見た画像を描画する描画部と、
第2の操作入力に応じて、前記描画された画像に基づく保存用画像を記憶部に保存させる保存制御部と、
前記保存用画像の状況パラメータを設定するパラメータ設定部と、
前記オブジェクト空間を前記仮想カメラから見た画像と、前記保存用画像に基づく画像の少なくとも一方を表示部に表示させる表示制御部と、
を含み、
前記描画部が、
前記保存用画像に基づく画像が表示される場合に、前記状況パラメータに応じて前記保存用画像の色を変化させることを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
An object space setting unit for setting an object in the object space;
A virtual camera control unit that controls the position of the virtual camera in response to a first operation input;
A drawing unit for drawing an image of the object space viewed from the virtual camera;
A storage control unit that stores a storage image based on the drawn image in a storage unit in response to a second operation input;
A parameter setting unit for setting status parameters of the image for storage;
A display control unit for displaying on the display unit at least one of an image obtained by viewing the object space from the virtual camera and an image based on the storage image;
Including
The drawing unit
When the image based on the image for storage is displayed, the color of the image for storage is changed according to the situation parameter.
JP2006197238A 2006-07-19 2006-07-19 Program, information recording medium, and image forming system Withdrawn JP2008027064A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006197238A JP2008027064A (en) 2006-07-19 2006-07-19 Program, information recording medium, and image forming system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006197238A JP2008027064A (en) 2006-07-19 2006-07-19 Program, information recording medium, and image forming system

Publications (1)

Publication Number Publication Date
JP2008027064A true JP2008027064A (en) 2008-02-07

Family

ID=39117646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006197238A Withdrawn JP2008027064A (en) 2006-07-19 2006-07-19 Program, information recording medium, and image forming system

Country Status (1)

Country Link
JP (1) JP2008027064A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012045109A (en) * 2010-08-25 2012-03-08 Furyu Kk Video game device, method of controlling the same, and control program
JP2012170648A (en) * 2011-02-22 2012-09-10 Nintendo Co Ltd Game device, game program, game system and game processing method
JP2018196523A (en) * 2017-05-23 2018-12-13 株式会社タイトー Game device, electronic device, server, and game program
JP2018196522A (en) * 2017-05-23 2018-12-13 株式会社タイトー Game device and game program
JP2019076760A (en) * 2019-01-23 2019-05-23 任天堂株式会社 Program, server device, mobile terminal, information processing method, communication system, and communication method
JP2019526093A (en) * 2016-05-27 2019-09-12 ヤンセン ファーマシューティカ エヌ.ベー. System and method for evaluating real-world user cognitive and mood states in response to virtual world activity

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012045109A (en) * 2010-08-25 2012-03-08 Furyu Kk Video game device, method of controlling the same, and control program
JP2012170648A (en) * 2011-02-22 2012-09-10 Nintendo Co Ltd Game device, game program, game system and game processing method
JP2019526093A (en) * 2016-05-27 2019-09-12 ヤンセン ファーマシューティカ エヌ.ベー. System and method for evaluating real-world user cognitive and mood states in response to virtual world activity
JP7036743B2 (en) 2016-05-27 2022-03-15 ヤンセン ファーマシューティカ エヌ.ベー. Systems and methods for assessing the cognitive and mood states of real-world users in response to virtual world activity
US11615713B2 (en) 2016-05-27 2023-03-28 Janssen Pharmaceutica Nv System and method for assessing cognitive and mood states of a real world user as a function of virtual world activity
JP2018196523A (en) * 2017-05-23 2018-12-13 株式会社タイトー Game device, electronic device, server, and game program
JP2018196522A (en) * 2017-05-23 2018-12-13 株式会社タイトー Game device and game program
JP7051309B2 (en) 2017-05-23 2022-04-11 株式会社タイトー Game equipment and game programs
JP2019076760A (en) * 2019-01-23 2019-05-23 任天堂株式会社 Program, server device, mobile terminal, information processing method, communication system, and communication method

Similar Documents

Publication Publication Date Title
JP2010033296A (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP2008027064A (en) Program, information recording medium, and image forming system
JP2007140842A (en) Program, information storage medium, and image generation system
JP2005032140A (en) Image generation system, program, and information storage medium
JP2007164582A (en) Program, information storage medium and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2009129167A (en) Program, information storage medium, and image generation system
JP2006252426A (en) Program, information storage medium, and image generation system
JP4827250B2 (en) Program, information storage medium, and image generation system
JP2001143099A (en) Image-forming system and information storage medium
JP2005275797A (en) Program, information storage medium, image generation system
JP2010055131A (en) Program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4632855B2 (en) Program, information storage medium, and image generation system
JP3586460B2 (en) 3D game device and image composition method
JP2011215724A (en) Program, information storage medium, and image generation system
JP2010055638A (en) Image generating system and information storage medium
JP2005275795A (en) Program, information storage medium and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium
JP2002329213A (en) Image generation system, program, and information storage medium
JP2007164736A (en) Image generation system, program and information storage medium
JP4688648B2 (en) Program, information storage medium, and image generation system
JP2010033302A (en) Image generation system, program and information storage medium
JP2010231364A (en) Image generation system, program and information recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091006