JP2010125040A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2010125040A
JP2010125040A JP2008302478A JP2008302478A JP2010125040A JP 2010125040 A JP2010125040 A JP 2010125040A JP 2008302478 A JP2008302478 A JP 2008302478A JP 2008302478 A JP2008302478 A JP 2008302478A JP 2010125040 A JP2010125040 A JP 2010125040A
Authority
JP
Japan
Prior art keywords
image
image data
display
data
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008302478A
Other languages
Japanese (ja)
Inventor
Hisao Wada
久生 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2008302478A priority Critical patent/JP2010125040A/en
Publication of JP2010125040A publication Critical patent/JP2010125040A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique to generate hierarchical data, and to provide a display technique using the hierarchical data. <P>SOLUTION: In an image processor 10, an image data generation section 130 generates image data of each hierarchy. A hierarchical data generation section 140 generates hierarchical data expressing image data of a plurality of hierarchies by a common coordinate system. Then, the hierarchical data generation section 140 adds performance information when image data to be used for displaying to the hierarchical data. The hierarchical data generation section 140 sets performance information to a combination of two image data photographed by a virtual camera having different set camera parameters. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、たとえばゲームシーンを描写するゲーム画像を複数の解像度で生成して、複数階層の画像データを共通の座標系で表現した階層データを生成する画像処理技術、および階層データを用いてディスプレイに画像を表示する画像処理技術に関する。   The present invention relates to an image processing technique for generating, for example, a game image describing a game scene at a plurality of resolutions and generating hierarchical data in which a plurality of layers of image data are expressed in a common coordinate system, and display using the hierarchical data The present invention relates to an image processing technique for displaying an image on a screen.

ゲームプログラムを実行するだけでなく、動画を再生できる家庭用エンタテインメントシステムが提案されている。この家庭用エンタテインメントシステムでは、GPU(Graphics Processing Unit)がポリゴンを用いた三次元画像を生成する。
米国特許第6563999号公報
Home entertainment systems have been proposed that not only execute game programs, but also play video. In this home entertainment system, a GPU (Graphics Processing Unit) generates a three-dimensional image using polygons.
US Pat. No. 6,563,999

従来より、高精細な写真などのディジタル画像から生成された複数解像度のタイル画像を用いて、表示画像の拡大/縮小処理や、上下左右方向の移動処理を行う技術が提案されている。この画像処理技術では、原画像を複数段階に縮小して異なる解像度の画像を生成し、各階層の画像を一又は複数のタイル画像に分割して、原画像を階層構造で表現する。通常、最も解像度の低い画像は1つのタイル画像で構成され、最も解像度の高い原画像は、最も多い数のタイル画像で構成される。画像処理装置は、表示画像の拡大処理または縮小処理時に、使用しているタイル画像を、異なる階層のタイル画像に切り替えることで、拡大表示または縮小表示を迅速に行うようにしている。   2. Description of the Related Art Conventionally, there has been proposed a technique for performing display image enlargement / reduction processing and vertical / left / right movement processing using multi-resolution tile images generated from digital images such as high-definition photographs. In this image processing technique, an original image is reduced in a plurality of stages to generate images with different resolutions, and images in each layer are divided into one or a plurality of tile images to represent the original image in a hierarchical structure. Usually, the image with the lowest resolution is composed of one tile image, and the original image with the highest resolution is composed of the largest number of tile images. The image processing apparatus quickly performs enlarged display or reduced display by switching the tile image being used to a tile image of a different hierarchy at the time of enlargement processing or reduction processing of the display image.

従来の階層データ構造は、原画像をもとに異なる解像度の画像を生成しているため、表示画像の単純な拡大表示または縮小表示の要求は満足するが、それ以上の視覚的な効果を提供することはできない。特に、ゲームアプリケーションにおける使用場面を想定すると、ある特定のゲームシーンを単純に拡大、縮小表示するだけでなく、ユーザに対してなんらかの視覚的な効果を与えるような表示制御を行えることが好ましい。このとき階層データをゲームアプリケーションに応じて構成することで、ゲームの世界観をユーザに提供することも可能となる。この要求は、ゲームの分野のみならず、他の分野にも共通である。   The conventional hierarchical data structure generates images with different resolutions based on the original image, so it satisfies the requirement for simple enlarged or reduced display of the displayed image, but provides a more visual effect. I can't do it. In particular, assuming a usage scene in a game application, it is preferable that display control that gives some visual effect to the user can be performed in addition to simply enlarging and reducing a specific game scene. At this time, by configuring the hierarchical data according to the game application, it is possible to provide the user with a world view of the game. This requirement is common not only to the game field but also to other fields.

そこで本発明は、階層データを生成する技術、および階層データを用いた表示処理技術を提供することを目的とする。   Therefore, an object of the present invention is to provide a technique for generating hierarchical data and a display processing technique using the hierarchical data.

上記課題を解決するために、本発明のある態様の画像処理装置は、階層データを生成する画像処理装置であって、各階層の画像データを生成する画像データ生成部と、複数階層の画像データを共通の座標系で表現した階層データを生成する階層データ生成部と、を備える。階層データ生成部は、表示処理に使用する画像データを切り替える際の演出情報を階層データに付加する。   In order to solve the above problems, an image processing apparatus according to an aspect of the present invention is an image processing apparatus that generates hierarchical data, an image data generation unit that generates image data of each hierarchy, and image data of a plurality of hierarchies. And a hierarchical data generation unit that generates hierarchical data that expresses in a common coordinate system. The hierarchical data generation unit adds effect information when switching image data used for display processing to the hierarchical data.

本発明の別の態様もまた、画像処理装置である。この装置は、画像をディスプレイに表示する画像処理装置であって、複数階層の画像データを共通の座標系で表現した階層データを保持する記憶装置と、ディスプレイに表示されている表示画像の変更指示信号を受け付ける受付部と、変更指示信号に応じて、表示処理に使用する画像データを切り替える際に、切替前の画像データと切替後の画像データの間に演出情報が設定されているか判断する演出指示部と、画像データを用いて、表示画像を生成する表示画像処理部とを備える。演出指示部により演出情報が設定されていることが判断された場合に、表示画像処理部は、画像データの切り替え時に、切替前の画像データと切替後の画像データの組み合わせに対して設定されている演出情報を用いて、表示画像に演出処理を施す。   Another embodiment of the present invention is also an image processing apparatus. This apparatus is an image processing apparatus that displays an image on a display, and includes a storage device that holds hierarchical data representing image data of a plurality of hierarchies in a common coordinate system, and an instruction to change a display image displayed on the display An effect of determining whether or not effect information is set between the image data before the switching and the image data after the switching when the image data used for the display process is switched according to the reception unit that receives the signal and the change instruction signal An instruction unit and a display image processing unit that generates a display image using the image data are provided. When it is determined that the production information is set by the production instruction unit, the display image processing unit is set for the combination of the image data before switching and the image data after switching when switching the image data. An effect process is performed on the display image using the existing effect information.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によると、階層データを生成する技術、および階層データを用いた表示処理技術を提供することができる。   According to the present invention, it is possible to provide a technique for generating hierarchical data and a display processing technique using the hierarchical data.

図1は、本発明の実施例にかかる画像処理システム1を示す。画像処理システム1は、入力装置20と、様々な画像処理を実行する画像処理装置10と、画像処理装置10による処理結果を出力する表示装置12とを備える。表示装置12は、画像を出力するディスプレイおよび音声を出力するスピーカを備えたテレビであってよい。表示装置12は、画像処理装置10に有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。なお画像処理装置10、入力装置20および表示装置12は、一体に形成されてもよく、たとえば画像処理機能を搭載した携帯端末装置として構成されてもよい。   FIG. 1 shows an image processing system 1 according to an embodiment of the present invention. The image processing system 1 includes an input device 20, an image processing device 10 that executes various image processing, and a display device 12 that outputs processing results obtained by the image processing device 10. The display device 12 may be a television including a display that outputs an image and a speaker that outputs sound. The display device 12 may be connected to the image processing device 10 by a wired cable, or may be wirelessly connected by a wireless local area network (LAN) or the like. Note that the image processing device 10, the input device 20, and the display device 12 may be integrally formed, for example, may be configured as a mobile terminal device equipped with an image processing function.

本実施例の画像処理装置10は、少なくとも2種類の画像処理機能を有する。1つは、複数の画像データを共通の座標系で表現した階層データを生成する機能であり、またもう1つは、生成された階層データを用いて表示画像の変更処理を行う機能である。画像処理装置10は、階層データ生成プログラムおよび画像変更処理プログラムをロードすることで、それぞれの画像処理機能を実行可能とする。これらのプログラムは、画像処理装置10にライブラリとして予め保持されていてもよく、インターネットなどのネットワークを介して外部のサーバからダウンロードされてもよい。   The image processing apparatus 10 of this embodiment has at least two types of image processing functions. One is a function for generating hierarchical data in which a plurality of image data is expressed in a common coordinate system, and the other is a function for performing display image change processing using the generated hierarchical data. The image processing apparatus 10 can execute each image processing function by loading the hierarchical data generation program and the image change processing program. These programs may be stored in advance as a library in the image processing apparatus 10, or may be downloaded from an external server via a network such as the Internet.

本実施例において画像処理装置10は、ゲームソフトウェアを実行するゲーム装置であり、ゲームの進行中に入力装置20からゲーム画像の階層データを生成するためのキャプチャ指示を受け付けると、階層データ生成プログラムを起動する。このとき画像処理装置10は、ゲーム進行を一時中断して、仮想カメラにより、その指示時点のゲームシーンから画像データを複数キャプチャさせ、複数の解像度で構成される階層データを生成する。なお画像処理装置10は、全ての階層の画像データを、カメラ位置、画角、カメラの視線方向、カメラの傾きなどのカメラパラメータを同一にして撮影するのではなく、少なくとも1つの階層の画像データは、他の階層とは異なるカメラパラメータを設定された仮想カメラにより生成されるようにする。これにより、階層データ間の表示の連続性を敢えて途切れさせ、ゲーム独自の世界観をユーザに提供することができる。   In this embodiment, the image processing apparatus 10 is a game apparatus that executes game software. When a capture instruction for generating hierarchical data of a game image is received from the input device 20 while the game is in progress, a hierarchical data generation program is executed. to start. At this time, the image processing apparatus 10 temporarily stops the game progress, causes the virtual camera to capture a plurality of image data from the game scene at the time of the instruction, and generates hierarchical data composed of a plurality of resolutions. Note that the image processing apparatus 10 does not shoot the image data of all layers with the same camera parameters such as the camera position, the angle of view, the camera viewing direction, and the camera tilt. Is generated by a virtual camera in which camera parameters different from those of other layers are set. Thereby, the continuity of display between hierarchical data can be dared to be interrupted, and a game-specific world view can be provided to the user.

図2は、入力装置20の外観構成を示す。入力装置20は、ユーザが操作可能な操作手段として、十字キー21、アナログスティック27a、27bと、4種の操作ボタン26を備える。4種の操作ボタン26は、○ボタン22、×ボタン23、□ボタン24および△ボタン25から構成される。ゲームプログラムの実行時、入力装置20の操作手段には、プレイヤキャラクタを3次元仮想空間内で動作させるための機能が割り当てられる。   FIG. 2 shows an external configuration of the input device 20. The input device 20 includes a cross key 21, analog sticks 27a and 27b, and four types of operation buttons 26 as operation means that can be operated by the user. The four types of operation buttons 26 include a circle button 22, a x button 23, a square button 24, and a triangle button 25. When the game program is executed, a function for operating the player character in the three-dimensional virtual space is assigned to the operating means of the input device 20.

画像処理システム1において、画像処理装置10が、ゲームの実行を一時中断して階層データを生成した後は、入力装置20の操作手段に、表示画像の拡大/縮小指示、および上下左右方向へのスクロール指示(以下、まとめて「画像変更指示信号」とよぶ)を入力するための機能が割り当てられる。たとえば、表示画像の拡大/縮小指示の入力機能は、右側のアナログスティック27bに割り当てられる。ユーザはアナログスティック27bを手前に引くことで、表示画像の縮小指示を入力でき、また手前から押すことで、表示画像の拡大指示を入力できる。また、表示画像のスクロール指示の入力機能は、左側のアナログスティック27aに割り当てられる。ユーザはアナログスティック27aを上下左右に倒すことで、倒した方向のスクロール指示を入力できる。このようにアナログスティック27a、27bは、表示画像を連続的にスクロールさせ、また連続的に拡大/縮小するために用いられる。   In the image processing system 1, after the image processing device 10 generates the hierarchical data by temporarily interrupting the execution of the game, an instruction to enlarge / reduce the display image and the up / down / left / right directions are given to the operation unit of the input device 20. A function for inputting a scroll instruction (hereinafter collectively referred to as an “image change instruction signal”) is assigned. For example, an input function for a display image enlargement / reduction instruction is assigned to the right analog stick 27b. The user can input an instruction to reduce the display image by pulling the analog stick 27b forward, and can input an instruction to enlarge the display image by pressing the analog stick 27b. The input function of the display image scroll instruction is assigned to the left analog stick 27a. The user can input a scroll instruction in the tilted direction by tilting the analog stick 27a up, down, left and right. As described above, the analog sticks 27a and 27b are used for continuously scrolling the display image and continuously enlarging / reducing the display image.

入力装置20は、入力された画像変更指示信号を画像処理装置10に伝送する機能をもち、本実施例では画像処理装置10との間で無線通信可能に構成される。入力装置20と画像処理装置10は、Bluetooth(ブルートゥース)(登録商標)プロトコルやIEEE802.11プロトコルなどを用いて無線接続を確立してもよい。なお入力装置20は、画像処理装置10とケーブルを介して接続して、画像変更指示信号を画像処理装置10に伝送してもよい。   The input device 20 has a function of transmitting the input image change instruction signal to the image processing device 10, and is configured to be able to perform wireless communication with the image processing device 10 in this embodiment. The input device 20 and the image processing device 10 may establish a wireless connection using a Bluetooth (registered trademark) protocol, an IEEE802.11 protocol, or the like. The input device 20 may be connected to the image processing apparatus 10 via a cable and transmit an image change instruction signal to the image processing apparatus 10.

図3は、画像処理システム1において使用する画像データの階層構造を示す。画像データは、深さ(Z軸)方向に、第0階層30、第1階層32、第2階層34および第3階層36からなる階層構造を有し、この階層構造をもつ画像データを「階層データ」とよぶ。図3に示す階層データは4分木の階層構造を有し、各階層は、1以上のタイル画像38で構成される。すべてのタイル画像38は同じ画素数をもつ同一サイズに形成され、たとえば256×256画素を有する。なお階層データを構成する階層数は2以上であればよい。   FIG. 3 shows a hierarchical structure of image data used in the image processing system 1. The image data has a hierarchical structure including a 0th hierarchy 30, a first hierarchy 32, a second hierarchy 34, and a third hierarchy 36 in the depth (Z-axis) direction. It is called “data”. The hierarchical data shown in FIG. 3 has a hierarchical structure of a quadtree, and each hierarchy is composed of one or more tile images 38. All the tile images 38 are formed in the same size having the same number of pixels, and have, for example, 256 × 256 pixels. The number of hierarchies constituting the hierarchy data may be two or more.

各階層の画像データは、共通の座標系において異なる解像度で表現されている。たとえば第N階層の解像度(Nは0以上の整数)は、左右(X軸)方向、上下(Y軸)方向ともに、第(N+1)階層の解像度の1/2であってよい。   The image data of each layer is expressed with different resolutions in a common coordinate system. For example, the resolution of the Nth layer (N is an integer greater than or equal to 0) may be ½ of the resolution of the (N + 1) th layer in both the left and right (X axis) direction and the up and down (Y axis) direction.

階層データの階層構造は、図3に示すように、左右方向をX軸、上下方向をY軸、深さ方向をZ軸として設定され、仮想的な3次元空間を構築する。画像処理装置10は、入力装置20から供給される画像変更指示信号から表示画像の変更量を導出すると、その変更量を用いて、階層を特定する情報と、その階層におけるテクスチャ座標(UV座標)を導出する。この階層特定情報およびテクスチャ座標の組み合わせを、空間座標と呼ぶ。なお各階層において、各頂点座標は同一であり、各階層の矩形画像データの頂点座標は、それぞれ(u0,v0)、(u0,v1)、(u1,v1)、(u1,v0)である。仮想空間における空間座標は、表示画像の生成処理に利用される。なお画像処理装置10は、表示画像の変更量を用いて仮想空間におけるフレームの4隅の3次元座標を導出してもよい。この4隅のフレーム座標も、空間座標と呼ぶ。   As shown in FIG. 3, the hierarchical structure of the hierarchical data is set with the horizontal direction as the X axis, the vertical direction as the Y axis, and the depth direction as the Z axis, thereby constructing a virtual three-dimensional space. When the image processing apparatus 10 derives the change amount of the display image from the image change instruction signal supplied from the input device 20, information for specifying the hierarchy using the change amount and the texture coordinates (UV coordinates) in the hierarchy. Is derived. A combination of this hierarchy specifying information and texture coordinates is called spatial coordinates. In each layer, the vertex coordinates are the same, and the vertex coordinates of the rectangular image data in each layer are (u0, v0), (u0, v1), (u1, v1), (u1, v0), respectively. . The space coordinates in the virtual space are used for display image generation processing. Note that the image processing apparatus 10 may derive the three-dimensional coordinates of the four corners of the frame in the virtual space using the change amount of the display image. These four corner frame coordinates are also called spatial coordinates.

画像処理装置10は、3次元ゲーム空間に仮想カメラを設置し、仮想カメラから仮想スクリーンに投影されるゲーム画像を取得して、各階層の画像データを生成する。本実施例の画像処理システム1では、異なる階層間でカメラパラメータを変更してもよく、また同じ階層内でカメラパラメータを変更してもよい。   The image processing apparatus 10 installs a virtual camera in the three-dimensional game space, acquires a game image projected on the virtual screen from the virtual camera, and generates image data of each layer. In the image processing system 1 of the present embodiment, camera parameters may be changed between different layers, or camera parameters may be changed within the same layer.

仮想カメラの視点位置、画角、視線方向および傾き(以下、カメラパラメータ)を固定として2つの階層の画像データを異なる解像度で生成すると、この2つの画像データは、同じ撮影領域のゲーム画像を異なる解像度で表現するだけであるため、これらの階層をまたがって表示画像を拡大、縮小表示する場合に、表示の連続性はとぎれない。一方、仮想カメラのカメラパラメータを変更して2つの階層の画像データを生成すると、この2つの画像データは、異なる撮影領域のゲーム画像を表現するため、これらの階層をまたがって表示画像を拡大、縮小表示する場合には、表示の連続性がとぎれることになる。なお、同一階層内でカメラの視点位置を変更して2つの画像データを生成する場合にも、この2つの画像データは異なる撮影領域のゲーム画像を表現するため、画像データを切り替える際に、表示の連続性がとぎれる。   When image data of two layers is generated at different resolutions with the viewpoint position, angle of view, viewing direction, and tilt (hereinafter referred to as camera parameters) of the virtual camera being fixed, the two image data are different game images in the same shooting area. Since it is only expressed by the resolution, the display continuity is not interrupted when the display image is enlarged or reduced and displayed across these layers. On the other hand, if the camera parameters of the virtual camera are changed to generate two layers of image data, the two image data represent the game images in different shooting areas, so the display image is expanded across these layers, In the case of reduced display, the continuity of display is interrupted. Even when two image data are generated by changing the viewpoint position of the camera in the same hierarchy, the two image data represent game images in different shooting areas. The continuity of is interrupted.

したがって画像処理装置10は、表示画像の生成に用いている画像データを、設定されたカメラパラメータの異なる仮想カメラで撮影された画像データに切り替える場合には、画像の切り替わりにおける不連続さをユーザに感じさせないように、所定の演出を挿入する。これにより、単純に拡大、縮小する表示だけでなく、ゲーム独自の世界観を表現する画像をユーザに提供できるようになる。   Therefore, when the image processing apparatus 10 switches the image data used for generating the display image to the image data captured by the virtual camera having a different set camera parameter, the image processing apparatus 10 informs the user of the discontinuity in the image switching. A predetermined effect is inserted so that it does not feel. This makes it possible to provide the user with an image that expresses the game's unique view of the world as well as a display that simply enlarges and reduces.

図4は、階層間の関係を説明するための説明図を示す。この階層データ構造において、各階層はL0(第0階層30)、L1(第1階層32)、L2(第2階層34)、L3(第3階層36)と表現されている。図4に示す階層データ構造において、深さ(Z軸)方向における位置は、解像度を示し、L0に近い位置ほど解像度が低く、L3に近い位置ほど解像度は高い。ディスプレイに表示される画像の大きさに注目すると、深さ方向における位置は、拡大率に対応し、L0の表示画像の拡大率を1とすると、L1における拡大率は4、L2における拡大率は16となり、L3における拡大率は64となる。したがって深さ方向において、表示画像がL0側からL3側へ向かう方向に変化する場合、表示画像は拡大していき、L3側からL0側へ向かう方向に変化する場合は、表示画像は縮小していく。   FIG. 4 is an explanatory diagram for explaining the relationship between hierarchies. In this hierarchical data structure, each hierarchy is expressed as L0 (0th hierarchy 30), L1 (1st hierarchy 32), L2 (2nd hierarchy 34), L3 (3rd hierarchy 36). In the hierarchical data structure shown in FIG. 4, the position in the depth (Z-axis) direction indicates the resolution. The position closer to L0 has a lower resolution, and the position closer to L3 has a higher resolution. Paying attention to the size of the image displayed on the display, the position in the depth direction corresponds to the enlargement ratio. If the enlargement ratio of the display image of L0 is 1, the enlargement ratio in L1 is 4, and the enlargement ratio in L2 is 16, and the enlargement ratio at L3 is 64. Therefore, in the depth direction, when the display image changes from the L0 side to the L3 side, the display image enlarges. When the display image changes from the L3 side to the L0 side, the display image is reduced. Go.

第1境界31、第2境界33、第3境界35は、L0を基準とした拡大率として定義され、表示画像の生成に使用するタイル画像の階層を定めるための判定基準として利用される。第1境界31は拡大率2に設定され、表示画像の要求拡大率が2より小さければ、L0タイル画像が使用される。第2境界33は拡大率8に設定され、表示画像の要求拡大率が2以上であり且つ8より小さければ、L1タイル画像が使用される。同様に第3境界35は拡大率32に設定され、表示画像の要求拡大率が8以上であり且つ32より小さければ、L2タイル画像が使用される。また表示画像の要求拡大率が32以上であれば、L3タイル画像が使用される。したがって画像処理装置10は、これから表示する画像の要求拡大率が定まれば、その拡大率に対応する解像度のタイル画像を記憶装置から読み出して、その拡大率に調整した表示画像を生成することができる。なお、拡大率は、図3に示す3次元空間において、深さ方向のZ値として定められてもよい。   The first boundary 31, the second boundary 33, and the third boundary 35 are defined as enlargement ratios based on L0, and are used as determination criteria for determining a hierarchy of tile images used for generating a display image. The first boundary 31 is set to an enlargement ratio of 2, and if the requested enlargement ratio of the display image is smaller than 2, the L0 tile image is used. The second boundary 33 is set to an enlargement ratio of 8, and if the requested enlargement ratio of the display image is 2 or more and smaller than 8, the L1 tile image is used. Similarly, the third boundary 35 is set to an enlargement ratio 32, and if the requested enlargement ratio of the display image is 8 or more and smaller than 32, the L2 tile image is used. If the requested enlargement ratio of the display image is 32 or more, the L3 tile image is used. Therefore, when the required enlargement ratio of an image to be displayed is determined, the image processing apparatus 10 reads a tile image having a resolution corresponding to the enlargement ratio from the storage device, and generates a display image adjusted to the enlargement ratio. it can. Note that the enlargement ratio may be determined as a Z value in the depth direction in the three-dimensional space shown in FIG.

図5は、画像処理装置10の機能ブロック図を示す。画像処理装置10は、無線インタフェース40、スイッチ42、表示処理部44、ハードディスクドライブ50、記録媒体装着部52、ディスクドライブ54、メインメモリ60、バッファメモリ70および制御部100を有して構成される。表示処理部44は、表示装置12のディスプレイに表示するデータをバッファするフレームメモリを有する。   FIG. 5 shows a functional block diagram of the image processing apparatus 10. The image processing apparatus 10 includes a wireless interface 40, a switch 42, a display processing unit 44, a hard disk drive 50, a recording medium mounting unit 52, a disk drive 54, a main memory 60, a buffer memory 70, and a control unit 100. . The display processing unit 44 has a frame memory that buffers data to be displayed on the display of the display device 12.

スイッチ42は、イーサネットスイッチ(イーサネットは登録商標)であって、外部の機器と有線または無線で接続して、データの送受信を行うデバイスである。スイッチ42は、ルータを介してインターネットなどの外部ネットワークに接続し、階層データ生成プログラムや画像変更処理プログラムをダウンロードしてもよい。またスイッチ42は無線インタフェース40に接続し、無線インタフェース40は、所定の無線通信プロトコルで入力装置20と接続する。入力装置20においてユーザから入力された画像変更指示信号は、無線インタフェース40、スイッチ42を経由して、制御部100に供給される。   The switch 42 is an Ethernet switch (Ethernet is a registered trademark), and is a device that transmits and receives data by connecting to an external device in a wired or wireless manner. The switch 42 may be connected to an external network such as the Internet via a router to download a hierarchical data generation program or an image change processing program. The switch 42 is connected to the wireless interface 40, and the wireless interface 40 is connected to the input device 20 using a predetermined wireless communication protocol. An image change instruction signal input from the user in the input device 20 is supplied to the control unit 100 via the wireless interface 40 and the switch 42.

制御部100は、マルチコアCPUを備え、1つのCPUの中に1つの汎用的なプロセッサコアと、複数のシンプルなプロセッサコアを有する。汎用プロセッサコアはPPU(Power Processing Unit)と呼ばれ、残りのプロセッサコアはSPU(Synergistic-Processing Unit)と呼ばれる。   The control unit 100 includes a multi-core CPU, and includes one general-purpose processor core and a plurality of simple processor cores in one CPU. The general-purpose processor core is called a PPU (Power Processing Unit), and the remaining processor cores are called a SPU (Synergistic-Processing Unit).

制御部100は、メインメモリ60およびバッファメモリ70に接続するメモリコントローラを備える。PPUはレジスタを有し、演算実行主体としてメインプロセッサを備えて、実行するアプリケーションにおける基本処理単位としてのタスクを各SPUに効率的に割り当てる。なお、PPU自身がタスクを実行してもよい。SPUはレジスタを有し、演算実行主体としてのサブプロセッサとローカルな記憶領域としてのローカルメモリを備える。ローカルメモリは、バッファメモリ70として使用されてもよい。メインメモリ60およびバッファメモリ70は記憶装置であり、RAM(ランダムアクセスメモリ)として構成される。SPUは制御ユニットとして専用のDMA(Direct Memory Access)コントローラをもち、メインメモリ60とバッファメモリ70の間のデータ転送を高速に行うことができ、また表示処理部44におけるフレームメモリとバッファメモリ70の間で高速なデータ転送を実現できる。本実施例の制御部100は、複数のSPUを並列動作させることで、高速な画像処理機能を実現する。表示処理部44は、表示装置12に接続されて、ユーザからの要求に応じた画像処理結果を出力する。   The control unit 100 includes a memory controller connected to the main memory 60 and the buffer memory 70. The PPU has a register, has a main processor as an operation execution subject, and efficiently assigns a task as a basic processing unit in an application to be executed to each SPU. Note that the PPU itself may execute the task. The SPU has a register, and includes a sub-processor as an operation execution subject and a local memory as a local storage area. The local memory may be used as the buffer memory 70. The main memory 60 and the buffer memory 70 are storage devices and are configured as a RAM (Random Access Memory). The SPU has a dedicated DMA (Direct Memory Access) controller as a control unit, can transfer data between the main memory 60 and the buffer memory 70 at high speed, and the frame memory and the buffer memory 70 in the display processing unit 44 can be transferred. High-speed data transfer can be realized. The control unit 100 according to the present embodiment realizes a high-speed image processing function by operating a plurality of SPUs in parallel. The display processing unit 44 is connected to the display device 12 and outputs an image processing result according to a request from the user.

ハードディスクドライブ50は、データを記憶する補助記憶装置として機能する。記録媒体装着部52は、メモリカードなどのリムーバブル記録媒体が装着されると、リムーバブル記録媒体からデータを読み出す。ディスクドライブ54は、読出専用のROMディスクが装着されると、ROMディスクを駆動して認識し、データを読み出す。ROMディスクは、光ディスクや光磁気ディスクなどであってよく、ゲームソフトウェアを記録している。   The hard disk drive 50 functions as an auxiliary storage device that stores data. When a removable recording medium such as a memory card is mounted, the recording medium mounting unit 52 reads data from the removable recording medium. When a read-only ROM disk is loaded, the disk drive 54 drives and recognizes the ROM disk to read data. The ROM disk may be an optical disk, a magneto-optical disk, or the like, and records game software.

図6は、本実施例の画像処理のフローチャートを示す。画像処理装置10に電源が投入されてオペレーティングシステム(OS)が起動され、ユーザによりディスクドライブ54にROMディスクが装着されると、制御部100は、ROMディスクに記録されたゲームソフトウェアをハードディスクドライブ50に読み出し、ゲームソフトウェアを実行する(S10)。このとき制御部100は、必要なゲームプログラムをメインメモリ60にロードし、描画データや画像データをバッファメモリ70にロードする。   FIG. 6 shows a flowchart of image processing of the present embodiment. When the image processing apparatus 10 is turned on and an operating system (OS) is started, and the user inserts a ROM disk into the disk drive 54, the control unit 100 stores the game software recorded on the ROM disk on the hard disk drive 50. The game software is executed (S10). At this time, the control unit 100 loads a necessary game program into the main memory 60 and loads drawing data and image data into the buffer memory 70.

本実施例において画像処理装置10はゲーム装置であり、仮想3次元空間をプレイヤキャラクタが行動するようなゲーム映像を3次元(3D)グラフィックスにより提供する。制御部100は、ゲームプログラムの実行にともなって発生する命令やデータに基づいて画像処理を行い、画像データを生成する。この画像処理には、たとえばテクスチャマッピングや光源処理など、3次元コンピュータグラフィックスを実現するための処理が含まれる。   In this embodiment, the image processing apparatus 10 is a game apparatus, and provides a game image in which a player character behaves in a virtual three-dimensional space using three-dimensional (3D) graphics. The control unit 100 performs image processing based on commands and data generated in accordance with the execution of the game program, and generates image data. This image processing includes processing for realizing three-dimensional computer graphics such as texture mapping and light source processing.

制御部100は、ゲームプログラムの実行中に入力装置20からキャプチャ指示を受けると、ゲーム進行を一時中断して、階層データ生成プログラムを起動する。このとき制御部100は、キャプチャ指示を受けた時点のゲーム画像の階層データを生成し(S12)、ハードディスクドライブ50に格納する。階層データの生成後、制御部100は、入力装置20から画像変更指示を受け付けると、画像変更処理プログラムを起動する。制御部100は、ハードディスクドライブ50に格納した階層データを用いて、入力装置20から供給される画像変更指示信号にしたがって、表示画像の拡大、縮小などの表示処理を実行する(S14)。   When the control unit 100 receives a capture instruction from the input device 20 during the execution of the game program, the control unit 100 temporarily stops the progress of the game and starts the hierarchical data generation program. At this time, the control unit 100 generates hierarchical data of the game image at the time of receiving the capture instruction (S12) and stores it in the hard disk drive 50. After generating the hierarchical data, when the control unit 100 receives an image change instruction from the input device 20, the control unit 100 starts an image change processing program. Using the hierarchical data stored in the hard disk drive 50, the control unit 100 executes display processing such as enlargement or reduction of the display image according to the image change instruction signal supplied from the input device 20 (S14).

図7は、階層データを生成する制御部100の構成を示す。制御部100は、アプリケーション処理部120、画像データ生成部130および階層データ生成部140を備える。アプリケーション処理部120は、指示受付部122、ゲーム実行部124、カメラ制御情報取得部126および演出情報取得部128を有する。   FIG. 7 shows a configuration of the control unit 100 that generates hierarchical data. The control unit 100 includes an application processing unit 120, an image data generation unit 130, and a hierarchical data generation unit 140. The application processing unit 120 includes an instruction receiving unit 122, a game execution unit 124, a camera control information acquisition unit 126, and an effect information acquisition unit 128.

アプリケーション処理部120は、ハードディスクドライブ50に保持されたゲームソフトウェアを読み出して実行し、またハードディスクドライブ50から階層データ生成処理および画像変更処理に必要なデータを取得する。これらの画像処理に必要なデータは、ゲームソフトウェアとともにROMディスクに記録されており、ゲームソフトウェアとともにハードディスクドライブ50に予め読み出されている。   The application processing unit 120 reads out and executes the game software stored in the hard disk drive 50 and acquires data necessary for the hierarchical data generation process and the image change process from the hard disk drive 50. Data necessary for the image processing is recorded on the ROM disk together with the game software, and is read in advance on the hard disk drive 50 together with the game software.

画像データ生成部130は、カメラパラメータ設定部132、描画条件設定部134、ゲーム画像生成部136およびタイル画像生成部138を有する。画像データ生成部130は、仮想3次元ゲーム空間内に仮想カメラを設置して、仮想カメラから仮想スクリーンに投影されるゲーム画像を生成する。ゲームの実行中、生成されたゲーム画像は、表示処理部44から表示装置12に出力され、動画像としてユーザに提供される。また、階層データの生成時、生成されたゲーム画像は、タイル画像に分割されて、階層データ生成部140に渡される。   The image data generation unit 130 includes a camera parameter setting unit 132, a drawing condition setting unit 134, a game image generation unit 136, and a tile image generation unit 138. The image data generation unit 130 installs a virtual camera in the virtual three-dimensional game space, and generates a game image projected on the virtual screen from the virtual camera. During the execution of the game, the generated game image is output from the display processing unit 44 to the display device 12 and provided to the user as a moving image. In addition, when the hierarchical data is generated, the generated game image is divided into tile images and passed to the hierarchical data generation unit 140.

階層データ生成部140は、画像データ生成部130で生成されたタイル画像を受け取り、階層データを生成する。このとき階層データ生成部140は、複数階層のタイル画像を共通の2次元座標系で表現して階層データを生成し、また、階層データを用いて表示処理を行う際に、使用するタイル画像を切り替える際の演出情報を階層データに付加する。   The hierarchical data generation unit 140 receives the tile image generated by the image data generation unit 130 and generates hierarchical data. At this time, the hierarchical data generation unit 140 generates hierarchical data by expressing tile images of a plurality of levels in a common two-dimensional coordinate system, and also performs tile processing to be used when performing display processing using the hierarchical data. Production information at the time of switching is added to the hierarchical data.

図7において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU(Central Processing Unit)、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。既述したように、制御部100は1つのPPUと複数のSPUとを有し、PPUおよびSPUがそれぞれ単独または協同して、各機能ブロックを構成できる。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。たとえば画像データ生成部130は、GPU(Graphics Processing Unit)として構成されてよく、階層データ生成部140は、階層データ生成プログラムをロードすることで構成されてよい。   In FIG. 7, each element described as a functional block for performing various processes can be configured by a CPU (Central Processing Unit), a memory, and other LSIs in terms of hardware. This is realized by a program loaded on the computer. As described above, the control unit 100 includes one PPU and a plurality of SPUs, and each functional block can be configured by the PPU and the SPU individually or in cooperation. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one. For example, the image data generation unit 130 may be configured as a GPU (Graphics Processing Unit), and the hierarchical data generation unit 140 may be configured by loading a hierarchical data generation program.

指示受付部122が入力装置20からゲームの実行指示を受け付けると、ゲーム実行部124が、ゲームソフトウェアを実行する。ゲーム実行部124は、入力装置20からの操作指示、およびゲームの進行に応じて、描画に関する命令およびデータ(以下、「描画指示情報」とよぶ)を画像データ生成部130に供給する。画像データ生成部130は3DCG(3次元コンピュータグラフィックス)処理機能を有し、高速レンダリング処理など既知の3DCG技術を用いて、仮想カメラにより撮影される画像データを生成する。   When the instruction receiving unit 122 receives a game execution instruction from the input device 20, the game executing unit 124 executes game software. The game execution unit 124 supplies a drawing command and data (hereinafter referred to as “drawing instruction information”) to the image data generation unit 130 in accordance with an operation instruction from the input device 20 and the progress of the game. The image data generation unit 130 has a 3DCG (three-dimensional computer graphics) processing function, and generates image data captured by a virtual camera using a known 3DCG technology such as high-speed rendering processing.

カメラパラメータ設定部132は、描画指示情報をもとに仮想3次元空間内に仮想カメラを設置する。描画指示情報には、仮想カメラの視点位置、画角(視領域)、視線方向、カメラの傾き等、カメラアングルを決定するためのカメラパラメータが含まれる。ゲーム実行部124は、入力装置20からの指示情報にしたがって描画指示情報を変更し、カメラアングルを切り替えるようにしてもよい。描画条件設定部134は、仮想カメラで取得する画像サイズを設定し、ここでは画像サイズが、表示装置12のディスプレイサイズに合わせられる。ゲーム画像生成部136は、仮想カメラで撮影する画像を、描画フレームごとにゲーム画像として取得する。この描画フレームは、1/60秒ごとに更新される。ゲーム画像生成部136は、ゲーム画像を表示処理部44に供給し、表示処理部44は、フレームメモリに展開したゲーム画像を表示装置12に供給する。これによりユーザは、動画像を見ながら、ゲームをリアルタイムでプレイできる。   The camera parameter setting unit 132 installs a virtual camera in the virtual three-dimensional space based on the drawing instruction information. The drawing instruction information includes camera parameters for determining the camera angle, such as the viewpoint position of the virtual camera, the angle of view (viewing area), the line-of-sight direction, and the camera tilt. The game execution unit 124 may change the drawing instruction information according to the instruction information from the input device 20 and switch the camera angle. The drawing condition setting unit 134 sets the image size acquired by the virtual camera, and here, the image size is matched with the display size of the display device 12. The game image generation unit 136 acquires an image captured by the virtual camera as a game image for each drawing frame. This drawing frame is updated every 1/60 seconds. The game image generation unit 136 supplies the game image to the display processing unit 44, and the display processing unit 44 supplies the game image developed in the frame memory to the display device 12. Thereby, the user can play the game in real time while watching the moving image.

図8は、ゲームソフトウェアを実行することにより生成される仮想3次元空間の一例を示す。ゲーム実行部124は、ゲーム空間を構成するオブジェクトである建物204、木206、木208を所定位置に配置してシーンレイアウトを作成し、プレイヤキャラクタ200を入力装置20からの操作指示にしたがって動作させる。この例では、プレイヤキャラクタ200が、敵キャラクタ202と対決する戦闘シーンが構築されている。画像データ生成部130は、ゲーム実行部124から供給される指示情報にしたがって、プレイヤキャラクタ200および敵キャラクタ202を動かし、動的な仮想3次元空間を形成する。カメラパラメータ設定部132は、描画指示情報にしたがって、仮想3次元空間内に仮想カメラを設置する。   FIG. 8 shows an example of a virtual three-dimensional space generated by executing game software. The game execution unit 124 creates a scene layout by arranging the building 204, the tree 206, and the tree 208, which are objects constituting the game space, at predetermined positions, and operates the player character 200 in accordance with an operation instruction from the input device 20. . In this example, a battle scene in which the player character 200 confronts the enemy character 202 is constructed. The image data generation unit 130 moves the player character 200 and the enemy character 202 in accordance with the instruction information supplied from the game execution unit 124 to form a dynamic virtual three-dimensional space. The camera parameter setting unit 132 installs a virtual camera in the virtual three-dimensional space according to the drawing instruction information.

図9は、カメラパラメータ設定部132が仮想3次元空間内に設置した仮想カメラ210を示す。このカメラアングルでは、仮想カメラ210が、プレイヤキャラクタ200を背後から撮影する。図10は、図9に示す仮想カメラ210により撮影されるゲーム画像を示す。このゲームシーンでは、プレイヤキャラクタ200と敵キャラクタ202とが対峙している様子が示される。   FIG. 9 shows the virtual camera 210 installed in the virtual three-dimensional space by the camera parameter setting unit 132. At this camera angle, the virtual camera 210 images the player character 200 from behind. FIG. 10 shows a game image taken by the virtual camera 210 shown in FIG. In this game scene, the player character 200 and the enemy character 202 are shown facing each other.

ユーザは、図10に示すゲーム画像が表示装置12に表示されているときに、入力装置20の所定の操作手段を操作することで、ゲーム画像のキャプチャ指示を入力する。指示受付部122が、キャプチャ指示を受け付けると、カメラ制御情報取得部126は、ハードディスクドライブ50に保持されているカメラ制御情報を取得する。画像処理装置10において、キャプチャ指示は、ゲーム画像の階層データを生成するための指示情報として取り扱われる。なお指示受付部122がキャプチャ指示を受け付けると、ゲーム実行部124は、ゲームの進行を中断し、画像データ生成部130に階層データを構成するための画像データの生成を指示する。このとき表示装置12には、キャプチャ指示が入力された時点のゲーム画像、すなわち図10に示すゲーム画像が静止画として表示される。   When the game image shown in FIG. 10 is displayed on the display device 12, the user inputs a game image capture instruction by operating a predetermined operation means of the input device 20. When the instruction reception unit 122 receives a capture instruction, the camera control information acquisition unit 126 acquires camera control information held in the hard disk drive 50. In the image processing apparatus 10, the capture instruction is handled as instruction information for generating hierarchical data of game images. When the instruction receiving unit 122 receives a capture instruction, the game executing unit 124 interrupts the progress of the game and instructs the image data generating unit 130 to generate image data for constituting hierarchical data. At this time, the game image at the time when the capture instruction is input, that is, the game image shown in FIG. 10 is displayed on the display device 12 as a still image.

カメラ制御情報は、階層データを構成する複数階層の画像データを取得するための描画指示情報である。カメラ制御情報は、カメラパラメータに加えて、取得する画像データの解像度を特定するパラメータも含まれる。解像度を特定するパラメータは、画像サイズを特定する情報であってよい。以下の例では、ゲーム画像生成部136が、カメラパラメータを設定した仮想カメラに、仮想3次元空間を解像度情報にしたがって撮影させることで、第0階層、第1階層、第2階層の画像データを生成する。第1階層、第2階層の画像データは、キャプチャ指示が入力された時点の仮想カメラのカメラアングルで生成される。したがって第1階層と第2階層の画像データは、同一の領域を描画したものであり、第2階層は第1階層と比較して、画像サイズは4倍(解像度は2倍)に設定される。   The camera control information is drawing instruction information for acquiring image data of a plurality of layers constituting the layer data. The camera control information includes a parameter for specifying the resolution of the image data to be acquired in addition to the camera parameter. The parameter that specifies the resolution may be information that specifies the image size. In the following example, the game image generation unit 136 causes the virtual camera set with the camera parameters to shoot the virtual three-dimensional space according to the resolution information, thereby obtaining the image data of the 0th hierarchy, the 1st hierarchy, and the 2nd hierarchy. Generate. The image data of the first layer and the second layer are generated at the camera angle of the virtual camera at the time when the capture instruction is input. Therefore, the image data of the first hierarchy and the second hierarchy are drawn in the same area, and the image size is set to 4 times (the resolution is 2 times) in the second hierarchy compared to the first hierarchy. .

また第0階層の画像データは、キャプチャ指示が入力された時点の仮想カメラの位置から、プレイヤキャラクタ200に対して後方の位置に仮想カメラを再配置して生成される。第0階層と第1階層との間は、カメラアングルが変更されているため、第0階層と第1階層との間で画像データを切り替えたときの表示の連続性がとれないため、第0階層は第1階層と比較して、画像サイズが必ずしも1/4倍に設定されていなくてもよい。描画条件設定部134は、カメラ制御情報に含まれる解像度情報をもとに、生成するゲーム画像の描画条件(画像サイズ)を設定する。   The image data of the 0th hierarchy is generated by rearranging the virtual camera at a position behind the player character 200 from the position of the virtual camera when the capture instruction is input. Since the camera angle is changed between the 0th hierarchy and the 1st hierarchy, the display continuity cannot be obtained when the image data is switched between the 0th hierarchy and the 1st hierarchy. Compared with the first layer, the layer does not necessarily have to be set to 1/4 times the image size. The drawing condition setting unit 134 sets the drawing condition (image size) of the game image to be generated based on the resolution information included in the camera control information.

図11は、カメラ制御情報にしたがって第0階層の画像データを生成するために仮想3次元空間内に設置された仮想カメラ210を示す。図11に示す仮想カメラ210は、図9に示す仮想カメラ210の設置位置と比較すると、それよりもプレイヤキャラクタ200の後方に引いた位置に設けられていることが分かる。図12は、図11に示す仮想カメラ210により撮影されるゲーム画像を示す。仮想カメラの位置を後方に引くことで、広い領域を描画できるようになり、ユーザに対して周囲の状況も含む客観的な画像を提供できるようになる。   FIG. 11 shows a virtual camera 210 installed in a virtual three-dimensional space in order to generate the 0th layer image data according to the camera control information. Compared with the installation position of the virtual camera 210 shown in FIG. 9, it can be seen that the virtual camera 210 shown in FIG. 11 is provided at a position pulled behind the player character 200. FIG. 12 shows a game image taken by the virtual camera 210 shown in FIG. By pulling the position of the virtual camera backward, a wide area can be drawn, and an objective image including the surrounding situation can be provided to the user.

まず、画像データ生成部130は、ゲーム実行部124から画像データの生成指示を受け取り、さらにカメラ制御情報取得部126で取得されたカメラ制御情報を受け取る。上記したように、カメラ制御情報には、階層ごとのカメラアングルを定める描画指示情報と、生成画像の解像度を特定する描画条件情報とが含まれる。解像度を特定する情報は、取得する画像サイズであってよい。   First, the image data generation unit 130 receives an image data generation instruction from the game execution unit 124, and further receives camera control information acquired by the camera control information acquisition unit 126. As described above, the camera control information includes drawing instruction information that determines the camera angle for each layer and drawing condition information that specifies the resolution of the generated image. The information specifying the resolution may be an image size to be acquired.

図13は、階層ごとに設定されたカメラ制御情報の具体例を示す。カメラ制御情報は、ゲームソフトウェアとともにROMディスクに記録されており、ゲーム実行前に、ゲームソフトウェアとともにハードディスクドライブ50に予め読み出されている。   FIG. 13 shows a specific example of camera control information set for each layer. The camera control information is recorded on the ROM disk together with the game software, and is read in advance on the hard disk drive 50 together with the game software before the game is executed.

解像度情報は、画像サイズの情報として設定され、第0階層、第1階層、第2階層において、それぞれ2k(1920画素)×1k(1080画素)、4k×2k、8k×4kに設定されている。この例では、第1階層の解像度が第0階層の2倍となっており、また第2階層の解像度が第1階層の2倍となっている。なお既述したように、第1階層と第2階層の画像データは、同一の撮影領域であるため、第1階層に対して第2階層の解像度が2倍となるように設定され、このとき第1階層と第2階層のLOD(Level Of Detail)は、異なるように設定される。LODは、画像データの詳細度を表現するが、ここでは第1階層よりも第2階層のゲーム画像自体の解像度(詳細度)を大きくすることで、LODが変更される。一方、第0階層と第1階層の画像データは、異なる撮影領域であるため、第0階層に対して第1階層の解像度が2倍となる必要は必ずしもない。カメラ制御情報には、カメラアングルの情報が含まれ、第0階層のカメラアングルが、キャプチャ指示時点のカメラ位置から仮想3次元空間においてプレイヤキャラクタ200から所定距離だけ後方に引いた位置であることが設定されている。   The resolution information is set as image size information, and is set to 2k (1920 pixels) × 1k (1080 pixels), 4k × 2k, and 8k × 4k in the 0th layer, the 1st layer, and the 2nd layer, respectively. . In this example, the resolution of the first layer is twice that of the zeroth layer, and the resolution of the second layer is twice that of the first layer. As described above, since the image data of the first layer and the second layer are in the same shooting area, the resolution of the second layer is set to be doubled with respect to the first layer. The LOD (Level Of Detail) of the first layer and the second layer is set differently. The LOD expresses the level of detail of the image data. Here, the LOD is changed by increasing the resolution (level of detail) of the game image itself in the second layer rather than the first layer. On the other hand, since the image data of the 0th layer and the 1st layer are different shooting regions, it is not always necessary that the resolution of the 1st layer is doubled with respect to the 0th layer. The camera control information includes camera angle information, and the camera angle of the 0th layer is a position that is drawn backward from the player character 200 by a predetermined distance in the virtual three-dimensional space from the camera position at the time of capture instruction. Is set.

カメラパラメータ設定部132および描画条件設定部134は、各階層に対して定められたカメラ制御情報にしたがって、それぞれ仮想カメラのカメラアングルおよび解像度を設定し、ゲーム画像生成部136は、それぞれの階層のゲーム画像を生成する。具体的に、第0階層のゲーム画像が、図12に示すゲームシーンとして2k×1kのサイズで生成され、第1階層のゲーム画像が、図10に示すゲームシーンとして4k×2kのサイズで生成され、第2階層のゲーム画像が、図10に示すゲームシーンとして8k×4kのサイズで生成される。   The camera parameter setting unit 132 and the drawing condition setting unit 134 set the camera angle and resolution of the virtual camera according to the camera control information determined for each layer, and the game image generation unit 136 Generate a game image. Specifically, the game image of the 0th hierarchy is generated in the size of 2k × 1k as the game scene shown in FIG. 12, and the game image of the 1st hierarchy is generated in the size of 4k × 2k as the game scene shown in FIG. Then, the game image of the second hierarchy is generated in the size of 8k × 4k as the game scene shown in FIG.

なおゲーム画像生成部136は、仮想カメラで撮影される画像をバッファメモリ70に展開してゲーム画像を生成するが、バッファメモリ70が、たとえば8k×4kの画像データに十分なメモリサイズを有していない場合もある。そのような場合には、カメラパラメータ設定部132が、撮影領域を複数に分割し、カメラ制御情報により設定されるカメラアングルを適宜調整する。   The game image generation unit 136 generates a game image by developing an image captured by the virtual camera in the buffer memory 70. The buffer memory 70 has a memory size sufficient for, for example, 8k × 4k image data. It may not be. In such a case, the camera parameter setting unit 132 divides the shooting area into a plurality of areas and appropriately adjusts the camera angle set by the camera control information.

図14は、8k×4kの撮影領域を4つの撮影領域に分割する例を示す。このときカメラパラメータ設定部132は、仮想カメラの設置位置はそのままに、4k×2kの4つの撮影領域を撮像するように仮想カメラの視線方向および画角を調整する。これにより大きなサイズのゲーム画像も、仮想カメラにより撮影することが可能となる。   FIG. 14 shows an example in which an 8 k × 4 k shooting area is divided into four shooting areas. At this time, the camera parameter setting unit 132 adjusts the line-of-sight direction and the angle of view of the virtual camera so as to capture four 4k × 2k shooting areas without changing the installation position of the virtual camera. As a result, a large-sized game image can be taken by the virtual camera.

タイル画像生成部138は、それぞれの階層の画像データを、所定サイズのタイル画像に分割する。生成されたタイル画像は、階層データ生成部140に供給される。なおタイル画像生成部138は、生成したタイル画像を、所定の圧縮形式で圧縮してもよい。タイル画像生成部138は、タイル画像ごとに圧縮してもよく、また同一階層内の複数のタイル画像を圧縮してもよい。   The tile image generation unit 138 divides the image data of each layer into tile images of a predetermined size. The generated tile image is supplied to the hierarchical data generation unit 140. Note that the tile image generation unit 138 may compress the generated tile image in a predetermined compression format. The tile image generation unit 138 may compress each tile image, or may compress a plurality of tile images in the same hierarchy.

階層データ生成部140は、複数階層の画像データ(タイル画像)を共通の座標系で表現して、これらを互いに関連づけた階層データを生成する。階層データ生成部140は、たとえば図3に示すような階層データを生成するが、各階層の画像データは、縦横比を同一とする矩形の画像サイズを有している。各階層において、各頂点座標は同一とされ、たとえば4点の頂点座標は、それぞれ(u0,v0)、(u0,v1)、(u1,v1)、(u1,v0)とされる。このように複数の画像データを共通の座標系で表現することにより、各階層の画像データを互いに関連づけることができ、階層データを用いた表示画像の拡大処理や縮小処理を実現可能とする。階層データの生成の際、演出情報取得部128は、表示処理に使用する画像データを切り替える際の演出データをハードディスクドライブ50から取得して、階層データ生成部140に供給する。   The hierarchical data generation unit 140 expresses a plurality of hierarchical image data (tile images) in a common coordinate system, and generates hierarchical data in which these are associated with each other. The hierarchical data generation unit 140 generates hierarchical data as shown in FIG. 3, for example, and the image data of each hierarchy has a rectangular image size with the same aspect ratio. In each hierarchy, the vertex coordinates are the same. For example, the vertex coordinates of four points are (u0, v0), (u0, v1), (u1, v1), and (u1, v0), respectively. By expressing a plurality of image data in a common coordinate system in this way, image data of each layer can be associated with each other, and display image enlargement processing and reduction processing using the layer data can be realized. When generating hierarchical data, the effect information acquisition unit 128 acquires effect data for switching image data used for display processing from the hard disk drive 50 and supplies the acquired effect data to the hierarchical data generation unit 140.

図15は、階層間の切り替わり時に設定されている演出データの一例を示す。演出データは、ゲームソフトウェアとともにROMディスクに記録されており、ゲーム実行前に、ゲームソフトウェアとともにハードディスクドライブ50に予め読み出されている。   FIG. 15 shows an example of effect data set at the time of switching between hierarchies. The effect data is recorded on the ROM disk together with the game software, and is read in advance on the hard disk drive 50 together with the game software before the game is executed.

図15において、階層間情報は、切替前の階層と切替後の階層を特定し、たとえば「第0階層と第1階層の間」は、表示に用いる画像データが第0階層から第1階層に切り替わること、および第1階層から第0階層に切り替わること、を意味する。また演出情報は、階層の切り替わりの際に実行する演出を特定する情報であり、「クロスフェード」は、階層切り替わり時にクロスフェードを実行すること、「なし」は、階層切り替わり時に演出を実行しないこと、を意味する。   In FIG. 15, the information between layers specifies the layer before switching and the layer after switching. For example, in “between the 0th layer and the 1st layer”, the image data used for display is changed from the 0th layer to the 1st layer. It means switching, and switching from the first hierarchy to the 0th hierarchy. The production information is information that specifies the production to be executed when the hierarchy is switched. "Crossfade" executes the crossfade when the hierarchy is changed, and "None" does not execute the production when the hierarchy is changed. Means.

階層データ生成部140は、演出情報取得部128から供給される演出データを用いて、階層間の切り替え時に実行する演出情報を階層データに付加する。これにより階層データが生成される。具体的に階層データ生成部140は、演出データにしたがって、設定されたカメラパラメータが異なる仮想カメラにより撮影された2つの画像データの組み合わせに対して演出情報を設定する。実施例では、第0階層と第1階層の画像データを撮影するためのカメラパラメータが異なっているため(図13参照)、第0階層と第1階層の画像データの組み合わせに対して、演出情報が設定されている。   The hierarchy data generation unit 140 uses the effect data supplied from the effect information acquisition unit 128 to add effect information to be executed when switching between hierarchies to the hierarchy data. Thereby, hierarchical data is generated. Specifically, the hierarchical data generation unit 140 sets the effect information for a combination of two image data captured by virtual cameras having different camera parameters that are set according to the effect data. In the embodiment, since the camera parameters for photographing the image data of the 0th layer and the 1st layer are different (see FIG. 13), the effect information is provided for the combination of the 0th layer and the 1st layer image data. Is set.

なお階層データ生成部140が、演出情報取得部128から供給される演出データにもとづいて演出情報を階層データに付加することとしたが、たとえば図13に示すカメラ制御情報から、階層間においてカメラパラメータが異なって設定されていることを判断して、演出情報を階層データに付加してもよい。この場合に付加する演出情報は、クロスフェードなど、予め定まっているものとする。これにより階層データ生成部140は、第0階層と第1階層の画像データの組み合わせに対して、演出情報を設定することが可能となる。これにより、表示画像に用いる画像データが撮影領域の異なる階層間で遷移する場合において、表示画像の不連続さに起因する違和感をユーザに感じさせることなく、ゲーム特有の世界観をユーザに与えることが可能である。   The hierarchical data generation unit 140 adds the production information to the hierarchical data based on the production data supplied from the production information acquisition unit 128. For example, from the camera control information shown in FIG. May be determined differently, and the effect information may be added to the hierarchical data. It is assumed that the production information added in this case is determined in advance, such as a cross fade. Thereby, the hierarchy data generation unit 140 can set the effect information for the combination of the image data of the 0th hierarchy and the 1st hierarchy. As a result, when the image data used for the display image transitions between different layers of the shooting region, the user is given a game-specific world view without causing the user to feel uncomfortable due to the discontinuity of the display image. Is possible.

一方、階層データ生成部140は、設定されたカメラパラメータが同じ仮想カメラにより撮影された2つの画像データの組み合わせに対しては、演出情報を設定しない。具体的に、第1階層と第2階層の画像データを撮影するためのカメラパラメータは同じであるため(図13参照)、図15に示す演出データにも示されるように、第1階層と第2階層の画像データの組み合わせに対しては演出情報が付加されないようになっている。   On the other hand, the hierarchical data generation unit 140 does not set effect information for a combination of two image data shot by a virtual camera having the same camera parameter. Specifically, since the camera parameters for photographing the image data of the first hierarchy and the second hierarchy are the same (see FIG. 13), as shown in the effect data shown in FIG. Production information is not added to the combination of two layers of image data.

階層データ生成部140は、既述したように、図13に示すカメラ制御情報から、階層間においてカメラパラメータが同じに設定されていることを判断して、演出情報を階層データに付加しないようにしてもよい。カメラパラメータが同一である場合は、表示画像に用いる画像データが階層間で遷移する場合において、連続した拡大処理、縮小処理を実行できるため、演出情報を付加しなくても、ユーザにスムーズな拡大、縮小表示という演出を提供することが可能となる。   As described above, the hierarchical data generation unit 140 determines from the camera control information shown in FIG. 13 that the camera parameters are set to be the same between the hierarchies so that the production information is not added to the hierarchical data. May be. When the camera parameters are the same, continuous enlargement and reduction processing can be executed when the image data used for the display image transitions between layers, so that the user can smoothly enlarge without adding production information. It is possible to provide an effect of reduced display.

階層データ生成部140は、生成した階層データをハードディスクドライブ50に格納する。階層データ生成部140は、階層データをハードディスクドライブ50に格納すると、ユーザに対して画像変更処理が可能になったことを表示装置12から通知させる。   The hierarchical data generation unit 140 stores the generated hierarchical data in the hard disk drive 50. When the hierarchical data generation unit 140 stores the hierarchical data in the hard disk drive 50, the hierarchical data generation unit 140 notifies the user from the display device 12 that the image change processing is possible.

図16は、表示画像を変更する制御部100の構成を示す。制御部100は、指示受付部150および表示画像処理部160を備える。表示画像処理部160は、画像データ取得部162、デコード部164、変更量導出部166、空間座標決定部168、演出指示部170および表示画像生成部172を有する。表示画像処理部160は、階層データを用いて表示画像の変更処理を行う。   FIG. 16 shows a configuration of the control unit 100 that changes the display image. The control unit 100 includes an instruction receiving unit 150 and a display image processing unit 160. The display image processing unit 160 includes an image data acquisition unit 162, a decoding unit 164, a change amount derivation unit 166, a spatial coordinate determination unit 168, an effect instruction unit 170, and a display image generation unit 172. The display image processing unit 160 performs display image change processing using the hierarchical data.

図16において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU(Central Processing Unit)、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。既述したように、制御部100は1つのPPUと複数のSPUとを有し、PPUおよびSPUがそれぞれ単独または協同して、各機能ブロックを構成できる。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。たとえば表示画像処理部160は、画像変更処理プログラムをロードすることで構成されてよい。   In FIG. 16, each element described as a functional block for performing various processes can be configured by a CPU (Central Processing Unit), a memory, and other LSIs in terms of hardware. This is realized by a program loaded on the computer. As described above, the control unit 100 includes one PPU and a plurality of SPUs, and each functional block can be configured by the PPU and the SPU individually or in cooperation. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one. For example, the display image processing unit 160 may be configured by loading an image change processing program.

ユーザが入力装置20を操作して、画像変更処理の実行を指示すると、指示受付部150がその指示を受け付け、画像処理装置10が、画像変更処理プログラムを起動して、階層データを用いた画像変更処理を開始する。このとき階層データはハードディスクドライブ50から読み出されて、メインメモリ60に保持される。   When the user operates the input device 20 to instruct execution of the image change process, the instruction receiving unit 150 receives the instruction, and the image processing apparatus 10 starts the image change processing program and uses the hierarchical data. Start the change process. At this time, the hierarchical data is read from the hard disk drive 50 and held in the main memory 60.

ユーザが入力装置20のアナログスティック27を操作すると、画像変更指示信号が画像処理装置10に送信される。指示受付部150は、入力装置20から、ディスプレイに表示されている表示画像の変更指示信号を受け付け、表示画像処理部160に供給する。   When the user operates the analog stick 27 of the input device 20, an image change instruction signal is transmitted to the image processing device 10. The instruction receiving unit 150 receives a change instruction signal for a display image displayed on the display from the input device 20 and supplies it to the display image processing unit 160.

画像データ取得部162は、変更指示信号をもとに、表示画像の生成に用いるタイル画像をメインメモリ60から読み出す。デコード部164は、タイル画像をデコードし、バッファメモリ70に保持させる。たとえば画像データ取得部162は、変更指示信号で表示が要求される画像の拡大率を予測して、将来必要となるであろうタイル画像を先読みして、バッファメモリ70に保持させることが好ましい。   The image data acquisition unit 162 reads out a tile image used for generating a display image from the main memory 60 based on the change instruction signal. The decoding unit 164 decodes the tile image and stores it in the buffer memory 70. For example, it is preferable that the image data acquisition unit 162 predicts the enlargement ratio of an image that is requested to be displayed by the change instruction signal, prefetches a tile image that will be necessary in the future, and causes the buffer memory 70 to store the tile image.

変更量導出部166は、変更指示信号をもとに、要求される表示画像の変更量を導出する。表示画像の変更量は、1フレームごとの上下左右方向の移動量および深さ方向の移動量である。空間座標決定部168は、前回フレームのテクスチャ座標から、導出された変更量により移動する今回フレームのテクスチャ座標を決定する。表示画像生成部172は、テクスチャ座標をもとに、バッファメモリ70に保持されたタイル画像を用いて、表示画像を生成し、表示処理部44のフレームメモリ90に供給する。   The change amount deriving unit 166 derives the required change amount of the display image based on the change instruction signal. The change amount of the display image is a movement amount in the vertical and horizontal directions and a movement amount in the depth direction for each frame. The spatial coordinate determination unit 168 determines the texture coordinates of the current frame that moves according to the amount of change derived from the texture coordinates of the previous frame. The display image generation unit 172 generates a display image using the tile image held in the buffer memory 70 based on the texture coordinates, and supplies the display image to the frame memory 90 of the display processing unit 44.

なお本実施例の階層データには、既述したように、階層間で画像データを切り替える際の演出情報が設定されている。演出指示部170は、変更指示信号に応じて表示処理に使用する画像データを切り替える際に、切替前の画像データと切替後の画像データの間に演出情報が設定されているか判断する。図15に関連して説明したように、本実施例では、第1階層と第2階層の切り替わり時には演出情報が設定されていないが、第0階層と第1階層の切り替わり時には演出情報(クロスフェード)が設定されている。したがって、演出指示部170は、第0階層から第1階層にタイル画像を切り替える際、また第1階層から第0階層にタイル画像を切り替える際に、表示画像生成部172に対してクロスフェードの実行を指示する。これにより表示画像生成部172は、表示画像に演出処理を施し、具体的にはタイル画像の切り替え時に、元のタイル画像をフェードアウトし、また新しいタイル画像をフェードインして、クロスフェードを実行して、タイル画像の遷移にともなう不連続さをユーザに感じさせないようにする。   In the hierarchical data of this embodiment, as described above, effect information for switching image data between hierarchies is set. The effect instruction unit 170 determines whether or not effect information is set between the image data before the switching and the image data after the switching when the image data used for the display processing is switched according to the change instruction signal. As described with reference to FIG. 15, in this embodiment, the production information is not set when the first layer and the second layer are switched, but the production information (crossfade is used when the layer 0 and the first layer are switched. ) Is set. Therefore, when the tile instruction image 170 switches the tile image from the 0th layer to the 1st layer, or when the tile image is switched from the 1st layer to the 0th layer, the effect instruction unit 170 executes crossfading to the display image generation unit 172. Instruct. As a result, the display image generation unit 172 performs an effect process on the display image. Specifically, at the time of switching the tile image, the original tile image is faded out, and the new tile image is faded in to execute the crossfade. Thus, the discontinuity associated with the transition of the tile image is prevented from being felt by the user.

第0階層と第1階層の画像データは、異なるカメラパラメータで撮影された画像であり、単純に拡大、縮小すると表示の不連続さをユーザに与えることになる。したがって、クロスフェードなどの画像処理を施すことで、この不連続性を緩和することができる。また一方で表示画像を単純に拡大、縮小するだけではなく、単純な操作で新たな視点に移行できるため、ゲームならではの世界観をユーザに提供することも可能となる。   The image data of the 0th layer and the 1st layer are images taken with different camera parameters, and when the image data is simply enlarged or reduced, discontinuity of display is given to the user. Therefore, this discontinuity can be alleviated by performing image processing such as crossfading. On the other hand, it is possible not only to simply enlarge or reduce the display image, but also to shift to a new viewpoint with a simple operation, so that it is possible to provide the user with a world view unique to games.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

上記した実施例では、第0階層と第1階層との間で仮想カメラのパラメータ情報を変更して、画像データを生成したが、仮想カメラのパラメータ情報は、同一階層内において変更されてもよい。   In the embodiment described above, the virtual camera parameter information is changed between the 0th hierarchy and the 1st hierarchy to generate image data. However, the virtual camera parameter information may be changed in the same hierarchy. .

図17は、カメラ制御情報にしたがって画像データを生成するために仮想3次元空間内に設置された仮想カメラ210a〜210fを示す。仮想カメラ210a、210b、210cは、第3階層の画像データを生成するために設置され、仮想カメラ210d、210eは、第2階層の画像データを生成するために設置され、仮想カメラ210fは、第0階層の画像データを生成するために設置される。この変形例では、各仮想カメラ210のカメラパラメータのうち、階層間だけでなく、同一階層内においても、カメラ位置がそれぞれ異なるように設定されている。   FIG. 17 shows virtual cameras 210a to 210f installed in a virtual three-dimensional space in order to generate image data according to camera control information. The virtual cameras 210a, 210b, and 210c are installed to generate the third layer image data, the virtual cameras 210d and 210e are installed to generate the second layer image data, and the virtual camera 210f It is installed to generate 0th layer image data. In this modification, among the camera parameters of each virtual camera 210, the camera positions are set to be different not only between layers but also within the same layer.

図18は、第3階層の画像データを撮影する仮想カメラ210a、210b、210cによる撮影領域220a、220b、220cを示す。この変形例では、同一階層の画像データを、カメラ位置を変えて撮影するため、同一階層内においても表示画像に用いる画像データを切り替える際に、画像データ間の連続性が損なわれる。そのため、隣り合う仮想カメラの撮影領域に重複領域を設けるように仮想カメラのパラメータを設定して、画像データの切替前、および切替後においては、表示画像を一方の画像データから生成可能とする。   FIG. 18 shows imaging areas 220a, 220b, and 220c by virtual cameras 210a, 210b, and 210c that take image data of the third hierarchy. In this modification, the image data of the same hierarchy is captured by changing the camera position, so that the continuity between the image data is impaired when switching the image data used for the display image even in the same hierarchy. Therefore, the parameters of the virtual camera are set so that an overlapping area is provided in the shooting area of the adjacent virtual camera, and the display image can be generated from one image data before and after the switching of the image data.

この変形例において、まず画像データ生成部130は、ゲーム実行部124から画像データの生成指示を受け取り、さらにカメラ制御情報取得部126で取得されたカメラ制御情報を受け取る。カメラ制御情報には、仮想3次元空間内のカメラアングルを定める描画指示情報と、生成画像の解像度を特定する描画条件情報とが含まれる。解像度を特定する情報は、取得する画像サイズであってよい。この変形例では、たとえば第3階層、第2階層内においても複数の描画指示情報および描画条件情報がカメラ制御情報に含まれる。   In this modified example, first, the image data generation unit 130 receives an image data generation instruction from the game execution unit 124, and further receives camera control information acquired by the camera control information acquisition unit 126. The camera control information includes drawing instruction information for determining the camera angle in the virtual three-dimensional space and drawing condition information for specifying the resolution of the generated image. The information specifying the resolution may be an image size to be acquired. In this modification, for example, a plurality of drawing instruction information and drawing condition information are included in the camera control information also in the third hierarchy and the second hierarchy.

カメラパラメータ設定部132および描画条件設定部134は、カメラ制御情報にしたがって、それぞれ仮想カメラのカメラアングルおよび解像度を設定し、ゲーム画像生成部136は、各仮想カメラによるゲーム画像を生成する。タイル画像生成部138は、それぞれの仮想カメラにより撮影された画像データを、所定サイズのタイル画像に分割する。生成されたタイル画像は、階層データ生成部140に供給される。なおタイル画像生成部138は、生成したタイル画像を、所定の圧縮形式で圧縮してもよい。   The camera parameter setting unit 132 and the drawing condition setting unit 134 set the camera angle and resolution of the virtual camera according to the camera control information, respectively, and the game image generation unit 136 generates a game image by each virtual camera. The tile image generation unit 138 divides image data captured by each virtual camera into tile images of a predetermined size. The generated tile image is supplied to the hierarchical data generation unit 140. Note that the tile image generation unit 138 may compress the generated tile image in a predetermined compression format.

階層データ生成部140は、仮想カメラで撮影された画像データを階層ごとにまとめ、複数階層の画像データ(タイル画像)を共通の座標系で表現して、これらを互いに関連づけた階層データを生成する。このとき演出情報取得部128は、表示処理に使用する画像データを切り替える際の演出データをハードディスクドライブ50から取得して、階層データ生成部140に供給する。   The hierarchical data generation unit 140 collects image data captured by the virtual camera for each hierarchy, expresses multiple levels of image data (tile images) in a common coordinate system, and generates hierarchical data in which these are associated with each other. . At this time, the effect information acquisition unit 128 acquires effect data for switching the image data used for the display process from the hard disk drive 50 and supplies it to the hierarchical data generation unit 140.

階層データ生成部140は、演出情報取得部128から供給される演出データを用いて、画像データの切り替え時に実行する演出情報を階層データに付加する。これにより階層データが生成される。この変形例では、異なる階層間だけでなく、同一の階層内においても表示画像に用いる画像データを切り替える際に、表示の連続性が途切れることとなるため、XY方向、およびZ方向に隣り合う全ての画像データの組み合わせに対して、演出情報が設定される。すなわち階層データ生成部140は、表示処理に使用する画像データを異なる階層の画像データに切り替える際の演出情報を階層データに付加するだけでなく、表示処理に使用する画像データを、異なるカメラ位置から撮影された同一階層の画像データに切り替える際の演出情報も階層データに付加する。生成された階層データはハードディスクドライブ50に格納される。階層データ生成部140は、階層データをハードディスクドライブ50に格納すると、ユーザに対して画像変更処理が可能になったことを表示装置12から通知する。表示画像処理部160は、演出情報にしたがって、階層データから表示画像を生成する。   The hierarchy data generation unit 140 uses the effect data supplied from the effect information acquisition unit 128 to add effect information to be executed when switching image data to the hierarchy data. Thereby, hierarchical data is generated. In this modification, the display continuity is interrupted when switching the image data used for the display image not only between different layers but also within the same layer, and therefore all adjacent in the XY direction and the Z direction. Production information is set for the combination of image data. In other words, the hierarchical data generation unit 140 not only adds the effect information when switching the image data used for the display process to the image data of a different hierarchy, but also the image data used for the display process from different camera positions. The effect information at the time of switching to the image data of the same layer that was shot is also added to the layer data. The generated hierarchical data is stored in the hard disk drive 50. When the hierarchical data generation unit 140 stores the hierarchical data in the hard disk drive 50, the hierarchical data generation unit 140 notifies the user from the display device 12 that the image change processing is possible. Display image processing unit 160 generates a display image from the hierarchical data according to the effect information.

なお図17に示す例では、仮想カメラ210bが、木208の内部に配置されている。仮想カメラ210bは、この位置で撮影しても、適切なゲーム画像を取得することはできない。そこで、カメラパラメータ設定部132は、仮想カメラ210と仮想3次元空間内のオブジェクトとの接触判定機能を有し、仮想カメラ210の視点がオブジェクトの内部にあることが判定された場合には、ゲーム画像生成部136が、その撮影画像を、所定色の画像、たとえば白ベタ画像に変更する。図18を参照すると、撮影領域220bの撮影画像が白ベタ画像となる。この画像データを用いて階層データを生成した後は、仮想カメラ210bで撮影された画像データを用いて表示画像を生成すると、表示画像が白ベタ画像となるが、これによりユーザは、なんらかの異常が生じていることを容易に認識できるようになる。   In the example shown in FIG. 17, the virtual camera 210 b is arranged inside the tree 208. The virtual camera 210b cannot acquire an appropriate game image even if it is shot at this position. Therefore, the camera parameter setting unit 132 has a contact determination function between the virtual camera 210 and the object in the virtual three-dimensional space, and when it is determined that the viewpoint of the virtual camera 210 is inside the object, The image generation unit 136 changes the captured image to a predetermined color image, for example, a white solid image. Referring to FIG. 18, the captured image in the imaging region 220b is a white solid image. After the hierarchical data is generated using this image data, when the display image is generated using the image data captured by the virtual camera 210b, the display image becomes a white solid image. It becomes possible to easily recognize that it has occurred.

また、この場合に、白ベタ画像とするのではなく、たとえば図3に示す仮想3次元空間において、仮想カメラ210bにより生成された画像データを表示画像に用いる領域を不可視領域として設定し、空間座標決定部168が、入力装置20から供給される画像変更指示信号による表示領域と、不可視領域とのコリジョン判定を行ってもよい。コリジョンが判定された場合、変更量導出部166は、不可視領域には移動できないように変更量を導出する。これによりユーザは、画像変更に際して障害物が存在して見ることができない領域があることを判断し、結果として不可視領域を迂回するように、画像の変更指示を入力装置20から入力することが可能となる。   In this case, instead of using a solid white image, for example, in the virtual three-dimensional space shown in FIG. 3, an area in which image data generated by the virtual camera 210b is used as a display image is set as an invisible area, and the spatial coordinates The determination unit 168 may perform a collision determination between the display area and the invisible area based on the image change instruction signal supplied from the input device 20. When the collision is determined, the change amount deriving unit 166 derives the change amount so that it cannot move to the invisible region. Accordingly, the user can determine that there is an area that cannot be seen due to an obstacle when changing the image, and can input an image change instruction from the input device 20 so as to bypass the invisible area as a result. It becomes.

実施例では、第0階層の画像データを、キャプチャ指示受付時点のカメラ位置からプレイヤキャラクタ200の後方に所定距離引いた位置から撮影するようにした。これにより、ゲームの進行に合わせた表示画像の変更処理を実現するが、たとえば第0階層の画像データを、ゲームの全体マップを表現したマップ画像としてもよい。このマップ画像は予めゲームソフトウェアに含まれており、ユーザが、全体のストーリを把握するのに役立つものである。したがって、この場合は、画像データ生成部130が、第0階層の画像データを新たに生成する必要がなく、処理負荷を軽減できるとともに、ユーザは表示画像を縮小することで、ゲームのマップを見ることができ、ゲームならではの演出をユーザに提供することが可能となる。なお、第0階層の画像データは、ゲームマップに限らず、予めゲームソフトウェアで用意されているものであってよい。   In the embodiment, the image data of the 0th layer is shot from a position obtained by subtracting a predetermined distance behind the player character 200 from the camera position at the time of receiving the capture instruction. Thereby, the display image changing process in accordance with the progress of the game is realized. For example, the image data of the 0th hierarchy may be a map image representing the entire map of the game. This map image is included in the game software in advance, and is useful for the user to grasp the entire story. Therefore, in this case, it is not necessary for the image data generation unit 130 to newly generate the image data of the 0th hierarchy, the processing load can be reduced, and the user can view the game map by reducing the display image. Therefore, it is possible to provide the user with an effect unique to the game. Note that the image data of the 0th hierarchy is not limited to the game map, and may be prepared in advance by game software.

実施例では、画像変更指示信号の入力機能を、アナログスティック27a、27bに割り当てるとしたが、この入力機能は、ゲームの操作系に合わせて設定されてもよい。たとえば、ゲーム実行中のプレイヤキャラクタ200の移動操作が十字キー21に割り当てられている場合、階層データを用いた表示変更処理において、表示画像のスクロール指示の入力機能も十字キー21に割り当てられることが好ましい。ゲームの操作系はゲーム実行部124により知られている。そのためゲーム実行部124は、指示受付部150にゲームの操作系を通知し、指示受付部150が、画像変更指示のための操作系をデフォルト設定からゲーム操作系に合わせて変更することで、それぞれの操作系を共通とすることが可能となる。   In the embodiment, the input function of the image change instruction signal is assigned to the analog sticks 27a and 27b. However, this input function may be set in accordance with the operation system of the game. For example, when the movement operation of the player character 200 during execution of the game is assigned to the cross key 21, the display image scroll instruction input function may also be assigned to the cross key 21 in the display change process using the hierarchical data. preferable. The game operation system is known by the game execution unit 124. Therefore, the game execution unit 124 notifies the instruction receiving unit 150 of the game operation system, and the instruction receiving unit 150 changes the operation system for the image change instruction from the default setting according to the game operation system, respectively. The operation system can be made common.

実施例において、各階層の画像データは、キャプチャ指示受付時点の仮想3次元空間からキャプチャされて生成されているが、複数の階層の画像データを、異なる時点で生成することも可能である。このとき、ゲーム実行部124は、キャプチャ指示を受け付けた時点の画像を表示装置12に表示させるが、ユーザの操作に関係なく、その時点から予測される将来のゲーム進行を実行する。たとえば図10のゲームシーンに関していうと、画像データ生成部130は、表示装置12に表示はされないが、プレイヤキャラクタ200と敵キャラクタ202がさらに接近して、お互いが持っている武器を構えるシーンを生成する。画像データ生成部130は、キャプチャ指示受付時点のゲームシーン(図10参照)を第2階層の画像データとして生成し、さらにプレイヤキャラクタ200と敵キャラクタ202が接近したゲームシーンを第3階層の画像データとして生成する。これにより、階層データの生成後、ユーザは、第2階層の画像データを拡大していくと、第3階層の画像データに遷移したときに、将来予測されるゲームシーンを見ることができ、ゲームをより面白くすることができる。   In the embodiment, the image data of each layer is generated by being captured from the virtual three-dimensional space at the time of receiving the capture instruction. However, it is also possible to generate image data of a plurality of layers at different points in time. At this time, the game execution unit 124 causes the display device 12 to display an image at the time when the capture instruction is accepted, but executes a future game progress predicted from that time regardless of the user's operation. For example, with respect to the game scene of FIG. 10, the image data generation unit 130 generates a scene that is not displayed on the display device 12 but has the weapons that the player character 200 and the enemy character 202 are closer to each other and possesses each other's weapons. To do. The image data generation unit 130 generates a game scene (see FIG. 10) at the time when a capture instruction is received as second-layer image data, and further generates a game scene in which the player character 200 and the enemy character 202 approach each other as third-layer image data. Generate as As a result, after the generation of the hierarchical data, if the user expands the image data of the second hierarchy, the user can see the game scene predicted in the future when the transition is made to the image data of the third hierarchy. Can be more interesting.

また実施例では、1つの階層データを生成したが、右目用、左目用の階層データをそれぞれ生成してもよい。表示画像生成部172は、拡大率に応じて、両眼視差分ずらして、それぞれの階層データから画像を合成して表示画像を生成することで、ステレオグラムをユーザに提供することが可能となる。   In the embodiment, one hierarchical data is generated, but right-eye and left-eye hierarchical data may be generated. The display image generation unit 172 can provide a stereogram to the user by generating a display image by shifting the binocular parallax according to the enlargement ratio and combining the images from the respective hierarchical data. .

また実施例では、視線方向を共通とする1つの階層データを生成したが、異なる視線方向から複数の階層データを生成してもよい。このとき、入力装置20の操作手段に対して、視線方向の切替機能を割り当てることで、ユーザは、視点を変更して、画像の拡大、縮小表示を楽しむことができる。   In the embodiment, one hierarchical data having a common line-of-sight direction is generated, but a plurality of hierarchical data may be generated from different line-of-sight directions. At this time, by assigning a line-of-sight direction switching function to the operation means of the input device 20, the user can change the viewpoint and enjoy enlargement and reduction display of the image.

また、表示画像生成部172は、階層データを用いて生成した表示画像に、別の画像を重畳表示することも可能である。たとえば、レーシングカー前方の画像を階層データとして用意しておきつつ、レーシングカーのインジケータを別画像として用意しておくことで、表示画像生成部172は、レーシングカー前方の画像の拡大、縮小処理を行いながら、固定サイズのインジケータ画像を表示画像に重畳させることも可能である。   The display image generation unit 172 can also superimpose and display another image on the display image generated using the hierarchical data. For example, by preparing an image in front of the racing car as hierarchical data and preparing an indicator of the racing car as a separate image, the display image generation unit 172 performs enlargement / reduction processing of the image in front of the racing car. While performing, it is also possible to superimpose a fixed-size indicator image on the display image.

本発明の実施例にかかる画像処理システムを示す図である。It is a figure which shows the image processing system concerning the Example of this invention. 入力装置の外観構成を示す図である。It is a figure which shows the external appearance structure of an input device. 画像処理システムにおいて使用する画像データの階層構造を示す図である。It is a figure which shows the hierarchical structure of the image data used in an image processing system. 階層間の関係を説明するための説明図を示す図である。It is a figure which shows the explanatory view for demonstrating the relationship between hierarchy. 画像処理装置の機能ブロック図を示す図である。It is a figure which shows the functional block diagram of an image processing apparatus. 本実施例の画像処理のフローチャートを示す図である。It is a figure which shows the flowchart of the image process of a present Example. 階層データを生成する制御部の構成を示す図である。It is a figure which shows the structure of the control part which produces | generates hierarchy data. ゲームソフトウェアを実行することにより生成される仮想3次元空間の一例を示す図である。It is a figure which shows an example of the virtual three-dimensional space produced | generated by running game software. カメラパラメータ設定部が仮想3次元空間内に設置した仮想カメラを示す図である。It is a figure which shows the virtual camera which the camera parameter setting part installed in virtual three-dimensional space. 図9に示す仮想カメラにより撮影されるゲーム画像を示す図である。It is a figure which shows the game image image | photographed with the virtual camera shown in FIG. カメラ制御情報にしたがって第0階層の画像データを生成するために仮想3次元空間内に設置された仮想カメラを示す図である。It is a figure which shows the virtual camera installed in the virtual three-dimensional space in order to produce | generate the 0th hierarchy image data according to camera control information. 図11に示す仮想カメラにより撮影されるゲーム画像を示す図である。It is a figure which shows the game image image | photographed with the virtual camera shown in FIG. 階層ごとに設定されたカメラ制御情報の具体例を示す図である。It is a figure which shows the specific example of the camera control information set for every hierarchy. 8k×4kの撮影領域を4つの撮影領域に分割する例を示す図である。It is a figure which shows the example which divides | segments an imaging area of 8kx4k into four imaging areas. 階層間の切り替わり時に設定されている演出データの一例を示す図である。It is a figure which shows an example of the production data set at the time of the switch between hierarchy. 表示画像を変更する制御部の構成を示す図である。It is a figure which shows the structure of the control part which changes a display image. カメラ制御情報にしたがって画像データを生成するために仮想3次元空間内に設置された仮想カメラを示す図である。It is a figure which shows the virtual camera installed in the virtual three-dimensional space in order to produce | generate image data according to camera control information. 第3階層の画像データを撮影する仮想カメラによる撮影領域を示す図である。It is a figure which shows the imaging | photography area | region by the virtual camera which image | photographs the image data of 3rd hierarchy.

符号の説明Explanation of symbols

1・・・画像処理システム、10・・・画像処理装置、12・・・表示装置、20・・・入力装置、40・・・無線インタフェース、42・・・スイッチ、44・・・表示処理部、50・・・ハードディスクドライブ、52・・・記録媒体装着部、54・・・ディスクドライブ、60・・・メインメモリ、70・・・バッファメモリ、90・・・フレームメモリ、100・・・制御部、120・・・アプリケーション処理部、122・・・指示受付部、124・・・ゲーム実行部、126・・・カメラ制御情報取得部、128・・・演出情報取得部、130・・・画像データ生成部、132・・・カメラパラメータ設定部、134・・・描画条件設定部、136・・・ゲーム画像生成部、138・・・タイル画像生成部、140・・・階層データ生成部、150・・・指示受付部、160・・・表示画像処理部、162・・・画像データ取得部、164・・・デコード部、166・・・変更量導出部、168・・・空間座標決定部、170・・・演出指示部、172・・・表示画像生成部、210・・・仮想カメラ。 DESCRIPTION OF SYMBOLS 1 ... Image processing system, 10 ... Image processing apparatus, 12 ... Display apparatus, 20 ... Input device, 40 ... Wireless interface, 42 ... Switch, 44 ... Display processing part , 50... Hard disk drive, 52... Recording medium mounting section, 54... Disk drive, 60... Main memory, 70. , 120 ... Application processing unit, 122 ... Instruction receiving unit, 124 ... Game execution unit, 126 ... Camera control information acquisition unit, 128 ... Production information acquisition unit, 130 ... Image Data generation unit, 132 ... camera parameter setting unit, 134 ... drawing condition setting unit, 136 ... game image generation unit, 138 ... tile image generation unit, 140 ... hierarchical data Data generation unit, 150 ... instruction reception unit, 160 ... display image processing unit, 162 ... image data acquisition unit, 164 ... decoding unit, 166 ... change amount deriving unit, 168 ... Spatial coordinate determination unit, 170 ... effect instruction unit, 172 ... display image generation unit, 210 ... virtual camera.

Claims (9)

階層データを生成する画像処理装置であって、
各階層の画像データを生成する画像データ生成部と、
複数階層の画像データを共通の座標系で表現した階層データを生成する階層データ生成部と、を備え、
前記階層データ生成部は、表示処理に使用する画像データを切り替える際の演出情報を階層データに付加することを特徴とする画像処理装置。
An image processing apparatus for generating hierarchical data,
An image data generation unit for generating image data of each layer;
A hierarchical data generation unit that generates hierarchical data representing image data of multiple hierarchies in a common coordinate system,
The hierarchical data generation unit adds presentation information when switching image data used for display processing to hierarchical data.
前記画像データ生成部は、カメラパラメータを設定した仮想カメラに仮想3次元空間を撮影させることで画像データを生成し、
前記階層データ生成部は、設定されたカメラパラメータが異なる仮想カメラにより撮影された2つの画像データの組み合わせに対して、演出情報を設定することを特徴とする請求項1に記載の画像処理装置。
The image data generation unit generates image data by causing a virtual camera set with camera parameters to shoot a virtual three-dimensional space,
The image processing apparatus according to claim 1, wherein the hierarchical data generation unit sets production information for a combination of two image data captured by virtual cameras having different camera parameters.
前記カメラパラメータは、仮想カメラの位置、画角および仮想カメラの視線方向を含むことを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the camera parameters include a position of a virtual camera, an angle of view, and a viewing direction of the virtual camera. 前記階層データ生成部は、表示処理に使用する画像データを異なる階層の画像データに切り替える際の演出情報を、階層データに付加することを特徴とする請求項1から3のいずれかに記載の画像処理装置。   The image according to any one of claims 1 to 3, wherein the hierarchical data generation unit adds, to the hierarchical data, effect information when switching image data used for display processing to image data of a different hierarchy. Processing equipment. 前記階層データ生成部は、表示処理に使用する画像データを、異なるカメラ位置から撮影された同一階層の画像データに切り替える際の演出情報を、階層データに付加することを特徴とする請求項1から4のいずれかに記載の画像処理装置。   The hierarchical data generation unit adds presentation information when switching image data used for display processing to image data of the same hierarchy captured from different camera positions to the hierarchical data. 5. The image processing device according to any one of 4. 前記画像データ生成部は、設定されたカメラパラメータが同じ仮想カメラにより撮影された2つの画像データの組み合わせに対しては、演出情報を設定しないことを特徴とする請求項2または3に記載の画像処理装置。   The image according to claim 2 or 3, wherein the image data generation unit does not set effect information for a combination of two image data captured by a virtual camera having the same camera parameter. Processing equipment. 画像をディスプレイに表示する画像処理装置であって、
複数階層の画像データを共通の座標系で表現した階層データを保持する記憶装置と、
ディスプレイに表示されている表示画像の変更指示信号を受け付ける受付部と、
前記変更指示信号に応じて、表示処理に使用する画像データを切り替える際に、切替前の画像データと切替後の画像データの間に演出情報が設定されているか判断する演出指示部と、
画像データを用いて、表示画像を生成する表示画像生成部と、を備え、
前記演出指示部により演出情報が設定されていることが判断された場合に、前記表示画像生成部は、画像データの切り替え時に、切替前の画像データと切替後の画像データの組み合わせに対して設定されている演出情報を用いて、表示画像に演出処理を施すことを特徴とする画像処理装置。
An image processing apparatus for displaying an image on a display,
A storage device that holds hierarchical data representing image data of a plurality of hierarchical levels in a common coordinate system;
A reception unit for receiving a change instruction signal for a display image displayed on the display;
In response to the change instruction signal, when switching image data used for display processing, an effect instruction unit that determines whether effect information is set between the image data before switching and the image data after switching;
A display image generation unit that generates a display image using the image data,
When it is determined that the production information is set by the production instruction unit, the display image generation unit sets the combination of the image data before switching and the image data after switching when switching the image data. An image processing apparatus characterized in that an effect process is performed on a display image using the rendered effect information.
コンピュータに、
各階層の画像データを生成する機能と、
複数階層の画像データを共通の座標系で表現した階層データを生成する機能と、を実現させるためのプログラムであって、
階層データを生成する機能は、表示処理に使用する画像データを切り替える際の演出情報を階層データに付加する機能を含むことを特徴とするプログラム。
On the computer,
A function to generate image data of each layer;
A function for generating hierarchical data representing image data of multiple hierarchies in a common coordinate system,
The function of generating hierarchical data includes a function of adding effect information to hierarchical data when switching image data used for display processing.
請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 8 is recorded.
JP2008302478A 2008-11-27 2008-11-27 Image processor Pending JP2010125040A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008302478A JP2010125040A (en) 2008-11-27 2008-11-27 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008302478A JP2010125040A (en) 2008-11-27 2008-11-27 Image processor

Publications (1)

Publication Number Publication Date
JP2010125040A true JP2010125040A (en) 2010-06-10

Family

ID=42325835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008302478A Pending JP2010125040A (en) 2008-11-27 2008-11-27 Image processor

Country Status (1)

Country Link
JP (1) JP2010125040A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011215A1 (en) * 2010-07-23 2012-01-26 株式会社ソニー・コンピュータエンタテインメント Image processing device, image display device, image processing method, and data structure of image file
JP7469762B2 (en) 2021-11-08 2024-04-17 スリーアイ インコーポレイティド Image output method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614298A (en) * 1992-06-25 1994-01-21 Canon Inc Picture editing device
JP2000089742A (en) * 1998-09-11 2000-03-31 Canon Inc Picture processing method, device, and system
JP2001319229A (en) * 2000-05-10 2001-11-16 Toyota Central Res & Dev Lab Inc Correlation calculation method for image
JP2002278540A (en) * 2001-03-16 2002-09-27 Sony Corp Image content display method, image content display device, image content storage medium, image display method and image display device
JP2005341391A (en) * 2004-05-28 2005-12-08 Fuji Photo Film Co Ltd Image-reproducing device and method, and program
JP2008067875A (en) * 2006-09-13 2008-03-27 Namco Bandai Games Inc Program, information storage medium, and game apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614298A (en) * 1992-06-25 1994-01-21 Canon Inc Picture editing device
JP2000089742A (en) * 1998-09-11 2000-03-31 Canon Inc Picture processing method, device, and system
JP2001319229A (en) * 2000-05-10 2001-11-16 Toyota Central Res & Dev Lab Inc Correlation calculation method for image
JP2002278540A (en) * 2001-03-16 2002-09-27 Sony Corp Image content display method, image content display device, image content storage medium, image display method and image display device
JP2005341391A (en) * 2004-05-28 2005-12-08 Fuji Photo Film Co Ltd Image-reproducing device and method, and program
JP2008067875A (en) * 2006-09-13 2008-03-27 Namco Bandai Games Inc Program, information storage medium, and game apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011215A1 (en) * 2010-07-23 2012-01-26 株式会社ソニー・コンピュータエンタテインメント Image processing device, image display device, image processing method, and data structure of image file
JP2012027705A (en) * 2010-07-23 2012-02-09 Sony Computer Entertainment Inc Image processing device, image display device, image processing method, and data structure of image file
US8928694B2 (en) 2010-07-23 2015-01-06 Sony Corporation Image Processing apparatus receiving editing operation, image display device, and image processing method thereof
JP7469762B2 (en) 2021-11-08 2024-04-17 スリーアイ インコーポレイティド Image output method and device

Similar Documents

Publication Publication Date Title
US10176643B2 (en) Method of generating virtual three-dimensional space, video system, method of controlling video system, and non-transitory computer readable storage medium
JP4180065B2 (en) Image generation method, image generation apparatus, and image generation program
KR101623288B1 (en) Rendering system, rendering server, control method thereof, program, and recording medium
JP3133299B2 (en) Game device, moving image display method, and recording medium
CA2853212C (en) System, server, and control method for rendering an object on a screen
JP6433559B1 (en) Providing device, providing method, and program
US11724184B2 (en) 2.5D graphics rendering system
JP5643617B2 (en) Image processing program, image processing apparatus, image processing method, and image processing system
JP6450064B2 (en) Information processing apparatus, data structure of moving image data, information processing system, moving image reproducing program, and moving image reproducing method
KR101536501B1 (en) Moving image distribution server, moving image reproduction apparatus, control method, recording medium, and moving image distribution system
WO2010116578A1 (en) Information processing device and information processing method
JP3625184B2 (en) 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
JP6812181B2 (en) Image processing device, image processing method, and program
JP2010125040A (en) Image processor
JP6572368B2 (en) Generating apparatus, generating method, and program
EP3621300B1 (en) Display control device and display control method
US8194078B2 (en) Program execution system, program execution device and recording medium and computer executable program therefor
JP2023057124A (en) Image processing apparatus, method, and program
JP4967064B2 (en) Three-dimensional animation display device and program for realizing the display device
JP2002336542A (en) Videogame device, videogame screen control program, and its recording medium
JP7455524B2 (en) Information processing device, setting method, and program
JP4955929B2 (en) Three-dimensional animation display device and program for realizing the display device
JP7204843B2 (en) Transmission device, transmission method, and program
WO2023002792A1 (en) Information processing device, information processing method, and computer program
JP2006277329A5 (en)

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150203