JP5701638B2 - Program and image generation system - Google Patents

Program and image generation system Download PDF

Info

Publication number
JP5701638B2
JP5701638B2 JP2011032669A JP2011032669A JP5701638B2 JP 5701638 B2 JP5701638 B2 JP 5701638B2 JP 2011032669 A JP2011032669 A JP 2011032669A JP 2011032669 A JP2011032669 A JP 2011032669A JP 5701638 B2 JP5701638 B2 JP 5701638B2
Authority
JP
Japan
Prior art keywords
image
area
eye
blur
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011032669A
Other languages
Japanese (ja)
Other versions
JP2012173821A (en
Inventor
高弘 柿沢
高弘 柿沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2011032669A priority Critical patent/JP5701638B2/en
Publication of JP2012173821A publication Critical patent/JP2012173821A/en
Application granted granted Critical
Publication of JP5701638B2 publication Critical patent/JP5701638B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来から、立体視を実現する画像生成システムが知られている(例えば、特許文献1)。例えば、2眼式の立体視画像生成システムでは、左眼用画像と右眼用画像を生成する。そして、立体視用の眼鏡や、視差バリア或いはレンチキュラ等の光学素子を用いて、プレーヤの左眼には左眼用画像のみが見え、右眼には右眼用画像のみが見えるようにすることで、立体視を実現する。   Conventionally, an image generation system that realizes stereoscopic viewing is known (for example, Patent Document 1). For example, in a binocular stereoscopic image generation system, a left-eye image and a right-eye image are generated. Then, using a stereoscopic eyeglass or an optical element such as a parallax barrier or lenticular, the player's left eye can see only the left eye image, and the right eye can see only the right eye image. Thus, stereoscopic viewing is realized.

特開2004−126902号公報JP 2004-126902 A

立体視画像生成システムでは、画面よりも奥側に引っ込んでいるように見える奥行き空間と、画面よりも手前側に飛び出しているように見える飛び出し空間とを再現することができ、このうちプレーヤが立体視感をより強く感じるのは飛び出し空間である。   The stereoscopic image generation system can reproduce a depth space that appears to be retracted to the back side of the screen and a pop-up space that appears to protrude to the front side of the screen. It is the jump-out space that makes you feel more visually.

しかしながら、オブジェクトの飛び出し量が大きいと、プレーヤはオブジェクトを立体画像として見ることができずに、単に左右の画像がブレただけの画像として見てしまう可能性があり、また、プレーヤの目に負担を与える恐れがある。   However, if the projecting amount of the object is large, the player cannot view the object as a stereoscopic image, and the left and right images may be viewed as a blurred image. There is a risk of giving.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、プレーヤの目の負担を軽減しつつ立体視の飛び出し演出を行うことが可能なプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a program and an information storage medium capable of performing stereoscopic projection while reducing the burden on the eyes of the player And providing an image generation system.

(1)本発明に係るプログラムは、
オブジェクトをオブジェクト空間内で移動させる制御を行う移動制御部と、
前記オブジェクトが、前記オブジェクト空間内の基準面よりも視点から見て手前側のエリアに位置する場合に、前記オブジェクトをぼかすぼかし処理を行うぼかし処理部と、
前記オブジェクトの立体視用画像を生成する画像生成部としてコンピュータを機能させ、
前記基準面は、前記オブジェクト空間内の投影面よりも視点から見て手前側に位置する面であり、
前記投影面は、前記投影面に位置するオブジェクトの画像の視差が無くなる面であることを特徴とするプログラムに関する。
(1) The program according to the present invention is:
A movement control unit that performs control to move the object in the object space;
A blur processing unit that performs a blur process to blur the object when the object is located in an area on the near side as viewed from the viewpoint of the reference plane in the object space;
Causing the computer to function as an image generating unit that generates a stereoscopic image of the object;
The reference plane is a plane located closer to the front than the projection plane in the object space,
The projection plane is a plane in which parallax of an image of an object located on the projection plane is eliminated.

また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体に関する。また本発明は、上記各部を含む画像生成システムに関する。   The present invention also relates to an information storage medium that can be read by a computer and stores a program for causing the computer to function as each of the above-described units. The present invention also relates to an image generation system including the above-described units.

本発明によれば、オブジェクトが基準面よりも手前側のエリアに位置する場合に、オブジェクトをぼかすための処理を行うことで、プレーヤの目の負担を軽減しつつ立体視の飛び出し演出を行うことができる。   According to the present invention, when an object is located in an area on the near side of the reference plane, a process of blurring the object is performed, thereby performing a stereoscopic projection effect while reducing the burden on the player's eyes. Can do.

(2)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記ぼかし処理部は、
前記基準面よりも視点から見て奥側のエリアから前記手前側のエリアに向けて移動する前記オブジェクトが、前記基準面を通過した場合に、前記ぼかし処理を行うようにしてもよい。
(2) In the program, information storage medium, and image generation system according to the present invention,
The blur processing unit
The blurring process may be performed when the object moving from the back area to the near area from the viewpoint of the reference plane passes through the reference plane.

本発明によれば、プレーヤの目の負担を軽減しつつ立体視の飛び出し演出を行うことができる。   According to the present invention, a stereoscopic projection effect can be performed while reducing the burden on the eyes of the player.

(3)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記ぼかし処理部は、
前記基準面よりも視点から見て奥側のエリアから前記手前側のエリアに向けて移動する前記オブジェクトが、前記基準面と接触したか否かを判断し、接触したと判断した場合に、前記ぼかし処理を行うようにしてもよい。
(3) In the program, information storage medium, and image generation system according to the present invention,
The blur processing unit
When the object moving from the back area to the near area when viewed from the viewpoint of the reference plane is in contact with the reference plane, Blur processing may be performed.

本発明によれば、プレーヤの目の負担を軽減しつつ立体視の飛び出し演出を行うことができる。   According to the present invention, a stereoscopic projection effect can be performed while reducing the burden on the eyes of the player.

(4)本発明に係るプログラムは、
オブジェクトをオブジェクト空間内で移動させる制御を行う移動制御部と、
前記オブジェクトに対する視差角に基づき、前記オブジェクトをぼかすぼかし処理を行うぼかし処理部と、
前記オブジェクトの立体視用画像を生成する画像生成部としてコンピュータを機能させることを特徴とするプログラムに関する。
(4) The program according to the present invention is:
A movement control unit that performs control to move the object in the object space;
A blur processing unit that performs blur processing to blur the object based on a parallax angle with respect to the object;
The present invention relates to a program that causes a computer to function as an image generation unit that generates a stereoscopic image of the object.

また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体に関する。また本発明は、上記各部を含む画像生成システムに関する。   The present invention also relates to an information storage medium that can be read by a computer and stores a program for causing the computer to function as each of the above-described units. The present invention also relates to an image generation system including the above-described units.

本発明によれば、オブジェクトに対する視差角に基づきオブジェクトをぼかすための処理を行うことで、プレーヤの目の負担を軽減しつつ立体視の飛び出し演出を行うことができる。   According to the present invention, by performing the process for blurring the object based on the parallax angle with respect to the object, it is possible to perform a stereoscopic projection effect while reducing the burden on the eyes of the player.

(5)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記ぼかし処理は、被写界深度処理、モーションブラー処理、ブリンク処理及び半透明処理の少なくとも1つの処理であってもよい。
(5) In the program, information storage medium, and image generation system according to the present invention,
The blur processing may be at least one of depth of field processing, motion blur processing, blink processing, and translucent processing.

本実施形態の画像生成システムの機能ブロック図の一例を示す図。The figure which shows an example of the functional block diagram of the image generation system of this embodiment. 立体視用画像を生成する手法について説明するための図。The figure for demonstrating the method of producing | generating the image for stereoscopic vision. ゲーム画像の一例を示す図。The figure which shows an example of a game image. オブジェクトのぼかし処理について説明するための図。The figure for demonstrating the blurring process of an object. 図5(A)、図5(B)は、オブジェクトのぼかし処理について説明するための図。5A and 5B are diagrams for explaining object blurring processing. オブジェクトの視差角について説明するための図。The figure for demonstrating the parallax angle of an object. 図7(A)、図7(B)は、オブジェクトの視差角について説明するための図。7A and 7B are diagrams for explaining the parallax angle of the object. 本実施形態の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of the process of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.機能ブロック図
図1に第1の実施の形態の画像生成システム(画像生成装置)の機能ブロック図の一例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Functional Block Diagram FIG. 1 shows an example of a functional block diagram of the image generation system (image generation apparatus) according to the first embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作情報(操作データ)を入力するためのものであり、ユーザの操作情報を処理部100に出力する。操作部160の機能は、ボタン、方向キー(十字キー)、方向入力可能なコントロールスティック(アナログキー)、レバー、キーボード、マウス、タッチパネル型ディスプレイ、加速度センサや傾きセンサ等を内蔵するコントローラなどのハードウェアにより実現することができる。   The operation unit 160 is for a player to input operation information (operation data), and outputs user operation information to the processing unit 100. The function of the operation unit 160 includes hardware such as a button, a direction key (cross key), a control stick (analog key) capable of inputting a direction, a lever, a keyboard, a mouse, a touch panel display, a controller incorporating an acceleration sensor, a tilt sensor, and the like. It can be realized by hardware.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶される描画バッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 of the present embodiment includes a main storage unit 172 used as a work area, a drawing buffer 174 that stores final display images and the like, and an object data storage unit that stores model data of objects. 176, a texture storage unit 178 that stores textures for each object data, and a Z buffer 179 that stores Z values during object image generation processing. Note that some of these may be omitted.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の処理部100の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the processing unit 100 according to the present embodiment (a program for causing a computer to execute the processing of each unit).

表示部190は、本実施形態により生成された画像(オブジェクト空間を所与の視点から見た画像)を出力するものであり、その機能は、CRT、LCD、或いはタッチパネル型ディスプレイなどにより実現できる。   The display unit 190 outputs an image (an image obtained by viewing the object space from a given viewpoint) generated according to the present embodiment, and the function can be realized by a CRT, LCD, touch panel display, or the like.

本実施形態の表示部190は、立体視画像を表示する。例えば、裸眼方式では、表示部190は、有限個の画素からなるLCDの前面又は背面に、パララックスバリアやレンチキュラ等の光学素子が配置される。例えば、垂直バリアまたは垂直レンチキュラによる2眼式の場合には、表示部190に、1枚(1フレーム)の左眼用画像を表示するための表示領域と、1枚の右眼用画像を表示するための表示領域とが、短冊状に左眼用短冊画像表示領域及び右眼用短冊画像表示領域として交互に配置されている。パララックスバリアが配置される場合、その隙間からは、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、レンチキュラが配置される場合、各短冊集合画像に対応したレンズの光屈折効果により、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、偏光眼鏡方式では、表示部190の奇数ラインと偶数ラインに偏光方向の異なる偏光フィルタ(例えば、左円偏光を透過する偏光フィルタと、右円偏光を透過する偏光フィルタ)が交互に配置され、表示部190の奇数ラインと偶数ラインに左眼用画像と右眼用画像を交互に表示し、これを偏光眼鏡(例えば、左眼に左円偏光を透過する偏光フィルタ、右眼に右円偏光を透過する偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。また、ページフリップ方式では、表示部190に左眼用画像と右眼用画像を所定時間毎(例えば、1/120秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左眼、右眼の液晶シャッターを交互に開閉することで、立体視を実現する。   The display unit 190 of the present embodiment displays a stereoscopic image. For example, in the naked eye method, the display unit 190 includes optical elements such as a parallax barrier and a lenticular on the front or back of an LCD composed of a finite number of pixels. For example, in the case of a two-lens system using a vertical barrier or a vertical lenticular, a display area for displaying one (one frame) image for the left eye and one image for the right eye are displayed on the display unit 190. Display areas for the left eye are alternately arranged in a strip shape as a left eye strip image display area and a right eye strip image display area. When a parallax barrier is placed, the left eye strip image displayed in the left eye strip image display area for the player's left eye and the right eye strip image display area for the right eye are displayed from the gap. Only the strip image for the right eye to be displayed is visible. When the lenticular is arranged, the left eye strip image displayed in the left eye strip image display area is displayed on the left eye of the player and the right eye is displayed on the right eye due to the photorefractive effect of the lens corresponding to each strip aggregate image. Only the right eye strip image displayed in the right eye strip image display area is visible. Further, in the polarizing glasses method, polarizing filters having different polarization directions (for example, a polarizing filter that transmits left circularly polarized light and a polarizing filter that transmits right circularly polarized light) are alternately arranged on the odd and even lines of the display unit 190. The left-eye image and the right-eye image are alternately displayed on the odd-numbered line and the even-numbered line of the display unit 190, and this is displayed on the polarizing glasses (for example, the polarizing filter that transmits the left circularly polarized light to the left eye, Stereoscopic viewing is realized by viewing with glasses with a polarizing filter that transmits polarized light. In the page flip method, the left-eye image and the right-eye image are alternately displayed on the display unit 190 every predetermined time (for example, every 1/120 seconds). In conjunction with the switching of the display, the left and right liquid crystal shutters of the glasses with the liquid crystal shutter are alternately opened and closed to realize stereoscopic viewing.

通信部196は他の画像生成システムやサーバとの間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with other image generation systems and servers, and the function can be realized by hardware such as various processors or a communication ASIC, a program, or the like.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信してゲームシステムを機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the game system is functioned by receiving the program or data as described above is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データ、通信部196を介して受信したデータやプログラムなどに基づいて、ゲーム処理、画像生成処理、音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, and sound generation processing based on operation data from the operation unit 160, data and programs received via the communication unit 196, and the like. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a game is ended when a game end condition is satisfied. There is processing. The processing unit 100 performs various processes using the main storage unit 172 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部118、画像生成部120、音生成部130を含む。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 118, an image generation unit 120, and a sound generation unit 130.

オブジェクト空間設定部110は、キャラクタ(プレーヤキャラクタ、ノンプレーヤキャラクタ)、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (polygons, free-form surfaces or subdivision surfaces) representing display objects such as characters (player characters, non-player characters), buildings, stadiums, cars, trees, pillars, walls, maps (terrain). The object is configured to place and set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

移動・動作処理部112(移動制御部)は、オブジェクト(キャラクタ等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間(ゲーム空間)内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒又は1/30秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。また移動・動作処理部112は、ネットワークを介して接続された他の画像生成システム(ゲーム装置)から通信部196を介して受信したオブジェクト(他のプレーヤに対応するオブジェクト)の移動情報や動作情報に基づき当該オブジェクトの移動情報や動作情報を更新する処理を行うようにしてもよい。また移動・動作処理部112は、他のゲーム装置から通信部196を介して受信した操作データ等に基づき、当該オブジェクトの移動・動作演算を行うようにしてもよい。   The movement / motion processing unit 112 (movement control unit) performs movement / motion calculation (movement / motion simulation) of an object (such as a character). That is, an object is moved in the object space (game space) based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, etc. Performs processing to move the object (motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part constituting the object) are stored in one frame (1/60 seconds or 1/30). The simulation process is sequentially performed every second). A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. The movement / motion processing unit 112 also includes movement information and motion information of an object (an object corresponding to another player) received via the communication unit 196 from another image generation system (game device) connected via a network. Based on the above, the process of updating the movement information and motion information of the object may be performed. Further, the movement / motion processing unit 112 may perform movement / motion calculation of the object based on operation data received from another game device via the communication unit 196.

仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、操作部160によりプレーヤが入力した操作データ或いはプログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)又は光軸の方向(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度等)を制御する処理を行う。要するに、視点位置、仮想カメラの向き、画角を制御する処理を行う。   The virtual camera control unit 118 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, based on operation data or a program (movement / motion algorithm) input by the player through the operation unit 160, the position (X, Y, Z) of the virtual camera in the world coordinate system or the direction of the optical axis (for example, , X, Y, and Z axes, a rotation angle when rotating clockwise as viewed from the positive direction, and the like. In short, processing for controlling the viewpoint position, the orientation of the virtual camera, and the angle of view is performed.

また、2眼式の立体視方式により立体視画像を表示する場合には、仮想カメラ制御部118は、左眼用仮想カメラ及び右眼用仮想カメラの位置、向き及び画角を制御する。また、仮想カメラ制御部118は、左眼用仮想カメラと右眼用仮想カメラを設定するための基準となる基準仮想カメラ(センターカメラ)の制御を行い、基準仮想カメラの位置、向き及び左眼用及び右眼用仮想カメラ間の距離情報に基づいて、左眼用及び右眼用仮想カメラの位置、向きを制御するようにしてもよい。   When a stereoscopic image is displayed by the binocular stereoscopic method, the virtual camera control unit 118 controls the position, orientation, and angle of view of the left-eye virtual camera and the right-eye virtual camera. The virtual camera control unit 118 also controls a reference virtual camera (center camera) serving as a reference for setting the left-eye virtual camera and the right-eye virtual camera, and the position, orientation, and left eye of the reference virtual camera. The positions and orientations of the left-eye and right-eye virtual cameras may be controlled based on distance information between the left and right-eye virtual cameras.

処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。   A drawing process is performed based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting it to the display unit 190.

いわゆる3次元画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   When generating a so-called three-dimensional image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object is input. Based on the vertex data included in the input object data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing are performed, and based on the processing results, the vertex data given to the vertex group constituting the object is changed (updated, adjusted). To do. Object data after the geometry processing (position coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the object data storage unit 176.

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed.

ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

そして描画部120は、オブジェクトを描画する際に、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs texture mapping, hidden surface removal processing, α blending, and the like when drawing the object.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。例えば、通常αブレンディングでは、α値を合成の強さとして線形補間を行うことにより2つの色を合成した色を求める処理を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えばRGBの各色成分の輝度を表す色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). For example, in normal α blending, a process for obtaining a color obtained by combining two colors by performing linear interpolation with the α value as the strength of synthesis is performed. The α value is information that can be stored in association with each pixel (texel, dot), and is, for example, plus alpha information other than color information indicating the luminance of each RGB color component. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

特に本実施形態の画像生成部120は、立体視画像を表示部190に出力する。例えば、立体視方式が2眼式の場合であれば、画像生成部120は、左眼用画像生成部124と右眼用画像生成部126を含む。左眼用画像生成部124は、オブジェクト空間内において左眼用仮想カメラから見える画像である左眼用画像を生成し、右眼用画像生成部126は、オブジェクト空間内において右眼用仮想カメラから見える画像である右眼用画像を生成する。具体的には、左眼用画像生成部124は、オブジェクト空間内の投影面に対してオブジェクトを左眼用仮想カメラの視点で透視投影して描画することで左眼用画像を生成し、右眼用画像生成部126は、投影面に対してオブジェクトを右眼用仮想カメラの視点で透視投影して描画することで右眼用画像を生成する。   In particular, the image generation unit 120 of this embodiment outputs a stereoscopic image to the display unit 190. For example, if the stereoscopic method is a twin-lens system, the image generation unit 120 includes a left-eye image generation unit 124 and a right-eye image generation unit 126. The left-eye image generating unit 124 generates a left-eye image that is an image seen from the left-eye virtual camera in the object space, and the right-eye image generating unit 126 is from the right-eye virtual camera in the object space. A right-eye image that is a visible image is generated. Specifically, the left-eye image generation unit 124 generates a left-eye image by perspectively projecting and drawing an object on the projection plane in the object space from the viewpoint of the left-eye virtual camera. The eye image generation unit 126 generates a right eye image by perspectively projecting and drawing an object on the projection plane from the viewpoint of the right eye virtual camera.

画像生成部120は、ぼかし処理部122を含む。ぼかし処理部122は、前記オブジェクトが、前記オブジェクト空間内の基準面よりも視点から見て手前側のエリアに位置する場合に、前記オブジェクトをぼかすぼかし処理を行う。ここで、基準面とは、投影面よりも視点から見て手前側に位置する面である。また、投影面とは、前記投影面に位置するオブジェクトの画像の視差が無くなる面である。   The image generation unit 120 includes a blur processing unit 122. The blur processing unit 122 performs blur processing to blur the object when the object is located in an area on the near side as viewed from the viewpoint with respect to the reference plane in the object space. Here, the reference plane is a plane positioned on the near side as viewed from the viewpoint with respect to the projection plane. The projection plane is a plane where the parallax of the image of the object located on the projection plane is eliminated.

また、ぼかし処理部122は、前記ぼかし処理として、被写界深度処理、モーションブラー処理、ブリンク処理、又は半透明処理を行うようにしてもよい。すなわち、オブジェクトの画像が不明瞭となるようなぼかし処理であればどのような処理を採用してもよい。   In addition, the blur processing unit 122 may perform depth of field processing, motion blur processing, blink processing, or translucent processing as the blur processing. In other words, any process may be employed as long as the blurring process makes the object image unclear.

また、ぼかし処理部122は、前記基準面よりも視点から見て奥側のエリアから前記基準面よりも視点から見て前記手前側のエリアに向けて移動する前記オブジェクトが、前記基準面を通過した場合に、前記ぼかし処理を行うようにしてもよい。   Further, the blur processing unit 122 passes the reference plane when the object that moves from the back area from the viewpoint of the reference plane toward the near side of the reference plane from the viewpoint. In this case, the blurring process may be performed.

また、ぼかし処理部122は、前記基準面よりも視点から見て奥側のエリアから前記基準面よりも視点から見て前記手前側のエリアに向けて移動する前記オブジェクトが、前記基準面と接触したか否かを判断し、接触したと判断した場合に、前記ぼかし処理を行うようにしてもよい。   In addition, the blur processing unit 122 is configured so that the object moving from the back area when viewed from the viewpoint with respect to the reference plane toward the near side area when viewed from the viewpoint with respect to the reference plane is in contact with the reference plane. It may be determined whether or not the blurring process is performed when it is determined that the contact has been made.

また、ぼかし処理部122は、前記オブジェクトに対する視差角に基づいて、前記ぼかし処理を行うようにしてもよい。例えば、ぼかし処理部122は、前記オブジェクトに対する視差角が所定の視差角θ(θ<0)以下になった場合に、前記ぼかし処理を行うようにしてもよい。   Further, the blur processing unit 122 may perform the blur processing based on the parallax angle with respect to the object. For example, the blurring processing unit 122 may perform the blurring process when the parallax angle with respect to the object is equal to or smaller than a predetermined parallax angle θ (θ <0).

また、ぼかし処理部122は、前記オブジェクトの画像の視差角に基づき、前記オブジェクトが前記基準面よりも視点から見て前記手前側のエリアに位置するか否か(或いは、前記基準面よりも視点から見て奥側のエリアから前記基準面よりも視点から見て前記手前側のエリアに向けて移動する前記オブジェクトが前記基準面を通過したか否か)を判断して、前記基準面よりも視点から見て前記手前側のエリアに位置する(或いは、前記基準面を通過した)と判断した場合に、前記ぼかし処理を行うようにしてもよい。   Also, the blur processing unit 122 determines whether the object is located in the area on the near side as viewed from the viewpoint relative to the reference plane based on the parallax angle of the image of the object (or the viewpoint from the reference plane). The object moving from the back side area to the near side area as viewed from the viewpoint from the viewpoint, and whether or not the object has passed through the reference plane, The blurring process may be performed when it is determined that it is located in the area on the near side as viewed from the viewpoint (or has passed through the reference plane).

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

また、音生成部130は、オブジェクトの位置に応じて音像定位が変化する音を生成してもよい。例えば、オブジェクトが前記第1のエリアに位置することで該オブジェクトが画面よりも手前側に飛び出して見える場合には、該オブジェクトに対応する音の音像定位を画面よりも手前側の位置に設定し、オブジェクトが前記第2のエリアに位置することで該オブジェクトが画面よりも奥側に引っ込んで見える場合には、該オブジェクトに対応する音の音像定位を画面よりも奥側の位置に設定してもよい。また、オブジェクトの移動に連動して音像定位の位置を移動させるようにしてもよい。   The sound generation unit 130 may generate a sound whose sound image localization changes according to the position of the object. For example, if the object is located in the first area and the object appears to jump out of the screen, the sound image localization corresponding to the object is set to a position in front of the screen. If the object is located in the second area and the object appears to be retracted from the screen, the sound image localization corresponding to the object is set to the position behind the screen. Also good. Further, the position of the sound image localization may be moved in conjunction with the movement of the object.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他の画像生成システム(ゲーム装置)とデータを送受信してゲーム処理を行うようにしてもよいし、1つの画像生成システムが、複数の操作部からの操作情報に基づいて処理を行うようにしてもよい。   Note that the image generation system according to the present embodiment may be controlled so that the game can be played in a single player mode in which only one player can play or in a multiplayer mode in which a plurality of players can play. For example, when controlling in the multiplayer mode, game processing may be performed by transmitting / receiving data to / from another image generation system (game device) via a network. Processing may be performed based on operation information from the operation unit.

また、本実施形態の画像生成システムをサーバシステムとして構成してもよい。サーバシステムは、1又は複数のサーバ(認証サーバ、ゲーム処理サーバ、通信サーバ、課金サーバ、データベースサーバ等)により構成することができる。この場合には、サーバシステムは、ネットワークを介して接続された1又は複数の端末装置(例えば、据え置き型ゲーム装置、携帯型ゲーム装置、プログラム実行可能な携帯電話等)から送信された操作情報に基づき各種処理を行って、立体視用画像を生成するための画像生成用データを生成し、生成した画像生成用データを各端末装置に対して送信する。ここで、画像生成用データとは、本実施形態の手法により生成された立体視用画像を各端末装置において表示するためのデータであり、画像データそのものでもよいし、各端末装置が立体視用画像を生成するために用いる各種データ(オブジェクトデータ、ゲーム処理結果データ等)であってもよい。   Further, the image generation system of the present embodiment may be configured as a server system. The server system can be composed of one or a plurality of servers (authentication server, game processing server, communication server, billing server, database server, etc.). In this case, the server system uses the operation information transmitted from one or more terminal devices (for example, a stationary game device, a portable game device, a mobile phone capable of executing a program, etc.) connected via the network. Various processes are performed based on this to generate image generation data for generating a stereoscopic image, and transmit the generated image generation data to each terminal device. Here, the image generation data is data for displaying a stereoscopic image generated by the method of the present embodiment on each terminal device, and may be image data itself, or each terminal device may be used for stereoscopic viewing. It may be various data (object data, game process result data, etc.) used to generate an image.

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2−1.立体視用画像の生成手法
まず、立体視用画像を生成する手法について説明する。図2に示すように、2眼式の立体視方式では、プレーヤの両眼の幅に対応する距離だけ離れた左眼用仮想カメラVCLと右眼用仮想カメラVCRをオブジェクト空間に設定する。そして、左眼用仮想カメラVCLに対応して左眼用ビューボリュームVVLが設定され、右眼用仮想カメラVCRに対応して右眼用ビューボリュームVVRが設定される。
2-1. Method for Generating Stereoscopic Image First, a method for generating a stereoscopic image will be described. As shown in FIG. 2, in the binocular stereoscopic method, the left-eye virtual camera VCL and the right-eye virtual camera VCR that are separated by a distance corresponding to the width of both eyes of the player are set in the object space. Then, a left-eye view volume VVL is set corresponding to the left-eye virtual camera VCL, and a right-eye view volume VVR is set corresponding to the right-eye virtual camera VCR.

左眼用、右眼用ビューボリュームVVL、VVRは、左眼用、右眼用仮想カメラVCL、VCRの位置、向き、画角及び投影面SPの位置によって上下左右の構成面が決定される視錐台の領域である。投影面SPは、表示部190の画面に対応する面であり、プレーヤの視点位置に相当する左眼用、右眼用仮想カメラVCL、VCRの位置及び向きと、プレーヤの視点位置と表示部190の画面との位置関係とに基づき設定される。なお、図2において、NPL、FPLは、それぞれ左眼用ビューボリュームVVLのニアクリップ面、ファークリップ面であり、NPR、FPRは、それぞれ右眼用ビューボリュームVVRのニアクリップ面、ファークリップ面である。   The left-eye and right-eye view volumes VVL and VVR are determined by the left, right, and right-eye virtual cameras VCL and VCR. This is the frustum region. The projection plane SP is a plane corresponding to the screen of the display unit 190, the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR corresponding to the viewpoint position of the player, the viewpoint position of the player, and the display unit 190. It is set based on the positional relationship with the screen. In FIG. 2, NPL and FPL are the near clip plane and the far clip plane of the left eye view volume VVL, respectively. NPR and FPR are the near clip plane and the far clip plane of the right eye view volume VVR, respectively. is there.

左眼用仮想カメラVCLから見える画像である左眼用画像は、左眼用ビューボリュームVVL内に存在するオブジェクトを投影面SPに透視投影して描画することで生成される。同様に、右眼用仮想カメラVCRから見える画像である右眼用画像は、右眼用ビューボリュームVVR内に存在するオブジェクトを投影面SPに透視投影して描画することで生成される。   An image for the left eye, which is an image that can be seen from the left-eye virtual camera VCL, is generated by perspectively projecting an object existing in the left-eye view volume VVL onto the projection plane SP and drawing it. Similarly, an image for the right eye, which is an image that can be viewed from the virtual camera for right eye VCR, is generated by perspectively projecting an object that exists in the view volume for right eye VVR onto the projection plane SP and drawing it.

ここで、オブジェクトが投影面SP上に位置する場合には、左眼用画像でのオブジェクトの描画位置と右眼用画像でのオブジェクトの描画位置は一致し、オブジェクトの画像の視差は無くなる。この場合、プレーヤからはオブジェクトが表示部190の画面上に存在するように見える。また、オブジェクトが、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて手前側のエリア(投影面SPとニアクリップ面NPL、NPRに挟まれたエリア)である第1のエリアAR1に位置する場合には、図7(A)に示すように、左眼用画像でのオブジェクトOBLの描画位置は、右眼用画像でのオブジェクトOBRの描画位置に対して右側にずれ、プレーヤからはオブジェクトが表示部190の画面よりも手前側に飛び出しているように見える。また、オブジェクトが、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて奥側のエリア(投影面SPとファークリップ面FPL、FPRに挟まれたエリア)である第2のエリアAR2に位置する場合には、図7(B)に示すように、左眼用画像でのオブジェクトOBLの描画位置は、右眼用画像でのオブジェクトOBRの描画位置に対して左側にずれ、プレーヤからはオブジェクトが表示部190の画面よりも奥側に引っ込んでいるように見える。   Here, when the object is located on the projection plane SP, the drawing position of the object in the left-eye image and the drawing position of the object in the right-eye image match, and the parallax of the object image disappears. In this case, it appears to the player that the object exists on the screen of the display unit 190. The object is a first area (an area sandwiched between the projection plane SP and the near clip planes NPL and NPR) as viewed from the left-eye and right-eye virtual cameras VCL and VCR with respect to the projection plane SP. When located in the area AR1, as shown in FIG. 7A, the drawing position of the object OBL in the left-eye image is shifted to the right with respect to the drawing position of the object OBR in the right-eye image. From the player, it seems that the object is projected to the near side of the screen of the display unit 190. The object is a second area (an area sandwiched between the projection plane SP and the far clip planes FPL and FPR) as viewed from the left-eye and right-eye virtual cameras VCL and VCR with respect to the projection plane SP. When located in the area AR2, as shown in FIG. 7B, the drawing position of the object OBL in the left-eye image is shifted to the left with respect to the drawing position of the object OBR in the right-eye image. From the player, it appears that the object is retracted further back than the screen of the display unit 190.

本実施形態では、投影面SPよりも左眼用、右眼用仮想カメラVCL、VCRからみて手前側の位置(投影面SPとニアクリップ面NPL、NPR間の位置)に基準面RPを設定し、基準面RPよりも左眼用、右眼用仮想カメラVCL、VCRからみて手前側のエリア(基準面RPとニアクリップ面NPL、NPRに挟まれたエリア)である第3のエリアAR3にオブジェクトが位置する場合に、該オブジェクトに対してぼかし処理を施す。このようにすると、プレーヤの目の負担を軽減することが可能な立体視の飛び出し演出を行うことができる。   In the present embodiment, the reference plane RP is set at a position on the near side (position between the projection plane SP and the near clip planes NPL and NPR) as viewed from the left and right eye virtual cameras VCL and VCR with respect to the projection plane SP. The object is in the third area AR3, which is an area on the near side of the virtual cameras VCL and VCR for the left eye and the right eye from the reference plane RP (an area between the reference plane RP and the near clip planes NPL and NPR). When is located, the object is blurred. In this way, it is possible to perform a stereoscopic projection effect that can reduce the burden on the eyes of the player.

2−2.ゲームの概要
本実施形態は、レーシングゲームのための立体視用画像生成処理に関するものである。図3は、本実施形態で生成されるゲーム画像GIの一例を示す図である。
2-2. Outline of Game This embodiment relates to stereoscopic image generation processing for a racing game. FIG. 3 is a diagram illustrating an example of the game image GI generated in the present embodiment.

図3に示すように、プレーヤは、コースCS上を走行する自動車PCを背後から見たゲーム画像GIを見ながら操作部160を操作することで、自動車PC(プレーヤキャラクタ)をコース上CSで走行させて、他の自動車EC(他のプレーヤのプレーヤキャラクタ、或いはNPC(ノンプレーヤキャラクタ))と競うゲームを行うことができる。   As shown in FIG. 3, the player runs the automobile PC (player character) on the course CS by operating the operation unit 160 while viewing the game image GI when the automobile PC running on the course CS is viewed from behind. Thus, a game for competing with another automobile EC (a player character of another player or NPC (non-player character)) can be played.

なお、ゲーム画像GIには、自動車同士の接触や自動車PCと壁等との接触により生じた火花を表すパーティクルオブジェクトPOが描画される。また、ゲーム画像GIには、コースCS上に点在するポールやガードレール、標識等を表すオブジェクトであって、走行中の自動車PCが跳ね飛ばすことが可能な破壊可能オブジェクトDOが描画される。パーティクルオブジェクトPOと破壊可能オブジェクトDOは、画面奥側(自動車PCの進行方向側)から画面手前側に向かって移動し、画面よりも手前側に飛び出して見えるように描画される。本実施形態では、このようなパーティクルオブジェクトPOと破壊可能オブジェクトDOとを、ぼかし処理の対象としている。   In the game image GI, a particle object PO representing a spark generated by contact between automobiles or contact between an automobile PC and a wall is drawn. In the game image GI, a destructible object DO, which is an object representing a pole, a guardrail, a sign, or the like scattered on the course CS and can be skipped by the traveling vehicle PC, is drawn. The particle object PO and the destructible object DO are drawn so as to move from the rear side of the screen (the traveling direction side of the automobile PC) toward the front side of the screen and appear to pop out toward the front side of the screen. In the present embodiment, such a particle object PO and a destructible object DO are targeted for blurring.

2−3.オブジェクトのぼかし処理
図4は、破壊オブジェクトDOについてのぼかし処理について説明するための図である。
2-3. Object Blur Processing FIG. 4 is a diagram for explaining the blur processing for the destructive object DO.

図4に示すように、仮想カメラVC(左眼用、右眼用仮想カメラVCL、VCR)は自動車PCの背後に配置され、自動車PCの走行に追従して移動する。また、自動車PCは第2のエリアAR2に配置され、自動車PCが走行するコースCS上にはポールを表す破壊可能オブジェクトDOが配置されている。   As shown in FIG. 4, the virtual camera VC (left-eye and right-eye virtual cameras VCL, VCR) is arranged behind the automobile PC and moves following the running of the automobile PC. Further, the automobile PC is arranged in the second area AR2, and a destructible object DO representing a pole is arranged on the course CS on which the automobile PC runs.

自動車PCが破壊可能オブジェクトDOと衝突すると、破壊可能オブジェクトDOは、第2のエリアAR2から第1のエリアAR1に向かう方向(−Z軸方向、仮想カメラVCに向かう方向)への移動を開始する。   When the automobile PC collides with the destructible object DO, the destructible object DO starts moving in the direction from the second area AR2 toward the first area AR1 (the −Z axis direction, the direction toward the virtual camera VC). .

そして、第2のエリアAR2から第1のエリアAR1に向けて移動する破壊可能オブジェクトDOが基準面SPを通過して第3のエリアAR3に到達すると、この破壊可能オブジェクトDOをぼかすぼかし処理が行われる。図4においては、ぼかし処理が行われる破壊可能オブジェクトDOを点線で示している。   When the destructible object DO moving from the second area AR2 toward the first area AR1 passes through the reference plane SP and reaches the third area AR3, a blurring process for blurring the destructible object DO is performed. Is called. In FIG. 4, the destructible object DO on which the blurring process is performed is indicated by a dotted line.

ここで、移動する破壊可能オブジェクトDOが基準面RPを通過したか否かの判断は、破壊可能オブジェクトDOの座標値と基準面RPの座標値とに基づき判断することができる。また、第2のエリアAR2から第1のエリアARに向けて移動する破壊可能オブジェクトDOが、基準面RPと接触したか否かの判断(ヒットチェック)を行って、接触したと判断した場合にぼかし処理を行うようにしてもよい。   Here, whether or not the moving destructible object DO has passed the reference plane RP can be determined based on the coordinate value of the destructible object DO and the coordinate value of the reference plane RP. Further, when it is determined that the destructible object DO moving from the second area AR2 toward the first area AR is in contact with the reference plane RP (hit check), and is determined to be in contact Blur processing may be performed.

破壊可能オブジェクトDOのぼかし処理は、被写界深度処理やモーションブラー処理、ブリンク処理、半透明処理などにより実現することができる。例えば、基準面RPよりも仮想カメラVCから見て奥側の領域を焦点が合う領域として設定し、基準面RPよりも手前側の第3のエリアAR3を焦点が合わない領域として設定して、ぼかしフィルタ(ブラーフィルタ)などを用いて、第3のエリアAR3に位置するオブジェクトの画像(第3のエリアAR3に相当するZ値を有するピクセル)をぼかす処理を行ってもよい。また、第3のエリアAR3に位置する破壊可能オブジェクトDOをモーションブラー処理によりぼかすようにしてもよい。例えば、1フレーム前の時間tから微小時間Δtだけ進めて破壊可能オブジェクトDOの画像を描画して合成する処理を繰り返すモーションブラー処理を行ってもよいし、破壊可能オブジェクトDOの各頂点を引き伸ばすモーションブラー処理を行ってもよい。また、第3のエリアAR3に位置する破壊可能オブジェクトDOの表示・非表示を所定期間毎に繰り返すブリンク処理(点滅処理)を行ってもよい。また、第3のエリアAR3に位置する破壊可能オブジェクトDOの各頂点のα値を変更して描画する半透明処理を行ってもよい。   The blur processing of the destructible object DO can be realized by depth-of-field processing, motion blur processing, blink processing, translucent processing, and the like. For example, a region on the back side when viewed from the virtual camera VC with respect to the reference plane RP is set as a focused region, and a third area AR3 on the near side with respect to the reference surface RP is set as a non-focused region, A blurring filter (blur filter) or the like may be used to blur the object image (pixel having a Z value corresponding to the third area AR3) located in the third area AR3. Further, the destructible object DO located in the third area AR3 may be blurred by motion blur processing. For example, a motion blur process may be performed in which the process of drawing and compositing the image of the destructible object DO is advanced by a minute time Δt from the time t one frame before, or the motion for stretching each vertex of the destructible object DO Blur processing may be performed. Moreover, you may perform the blink process (flashing process) which repeats display / non-display of the destructible object DO located in the 3rd area AR3 for every predetermined period. Moreover, you may perform the translucent process which changes and draws the alpha value of each vertex of the destructible object DO located in the 3rd area AR3.

また、図5に示すように、ぼかし処理におけるぼかし量(透明度を含む)を、第3のエリアAR3において急激に大きくするようにしてもよいし、基準面RPからの距離に応じて徐々に大きくするようにしてもよい。   Further, as shown in FIG. 5, the blurring amount (including transparency) in the blurring process may be increased rapidly in the third area AR3, or gradually increased in accordance with the distance from the reference plane RP. You may make it do.

なお、図3に示すパーティクルオブジェクトPOについても同様のぼかしを行う。すなわち、第2のエリアAR2にパーティクルの発生源を設定し、自動車同士の接触や自動車PCと壁等との接触といったイベントが発生した場合に、この発生源から、第2のエリアAR2から第1のエリアAR1に向かう方向に移動する複数のパーティクルオブジェクトPOを発生させる。そして、第2のエリアAR2から第1のエリアAR1に向かう方向に移動するパーティクルオブジェクトPOが基準面RPを通過して第3のエリアAR3に位置した場合に、該パーティクルオブジェクトPOをぼかすぼかし処理を行う。   Note that the same blur is performed on the particle object PO shown in FIG. That is, when a generation source of particles is set in the second area AR2, and an event such as contact between automobiles or contact between the automobile PC and a wall or the like occurs, from the generation area, the first to the first area AR2 A plurality of particle objects PO moving in the direction toward the area AR1 are generated. Then, when the particle object PO moving in the direction from the second area AR2 toward the first area AR1 passes through the reference plane RP and is positioned in the third area AR3, a blurring process for blurring the particle object PO is performed. Do.

上述したように、オブジェクトが第1のエリアAR1に位置する場合には、オブジェクトが画面よりも手前側に飛び出して見える。しかしながら、オブジェクトが第1のエリアAR1内のニアクリップ面NPに近いところに位置する場合(オブジェクトの飛び出し量が大きい場合)、プレーヤが該オブジェクトを立体画像として見ることができずに、単に左右の画像がブレただけの画像として見てしまう可能性があり、また、プレーヤの目に負担を与える恐れがある。   As described above, when the object is located in the first area AR1, the object appears to jump out from the screen. However, when the object is located near the near clip plane NP in the first area AR1 (when the amount of popping out of the object is large), the player cannot view the object as a stereoscopic image and simply There is a possibility that the image will be seen as a blurred image, and there is a risk of placing a burden on the eyes of the player.

そこで、本実施形態では、第1のエリアAR1内の基準面RPよりも仮想カメラVCから見て手前側の第3のエリアAR3を設定し、第3のエリアAR3に位置するオブジェクトをぼかすぼかし処理を行っている。このようにすると、プレーヤの目に近い位置にあるものは焦点が合わずにぼやけて見える、というプレーヤの目に見える実際の映像に近い状態を作り出すことができ、飛び出し量の大きなオブジェクトについても違和感のない立体画像としてプレーヤに知覚させつつ、プレーヤの目の負担を軽減することができる。例えば、図3に示すゲーム画像GIにおいて、プレーヤの目の焦点が、画面より奥側に引っ込んで見える自動車PCにあるとすると、最も飛び出して見える第3のエリアAR3に位置するオブジェクト(破壊可能オブジェクトDOやパーティクルオブジェクトPO)については焦点が合っていないためぼやけて見えるはずである。従って、第3のエリアAR3に位置するオブジェクトに対してぼかし処理を施すことで、プレーヤの目に見える実際の映像に近い状態を作り出すことができる。   Therefore, in the present embodiment, a blurring process for setting a third area AR3 in front of the reference plane RP in the first area AR1 when viewed from the virtual camera VC and blurring an object located in the third area AR3. It is carried out. In this way, it is possible to create a state close to the actual image that can be seen by the player, such that an object that is close to the player's eye looks out of focus and blurs. This makes it possible to reduce the burden on the player's eyes while allowing the player to perceive the image as a stereoscopic image having no image. For example, in the game image GI shown in FIG. 3, if the focus of the player's eyes is on the automobile PC that appears to be retracted from the screen, the object (destructible object) located in the third area AR3 that appears to protrude the most. DO and particle object PO) should be blurred because they are out of focus. Therefore, by performing blurring processing on the object located in the third area AR3, it is possible to create a state close to the actual video that can be seen by the player.

また、オブジェクトが第3のエリアAR3に位置するときに、該オブジェクトの速度を速くする制御や、該オブジェクトの移動方向を該オブジェクトがビューボリューム外に出る方向へと変化させる制御を行うようにしてもよい。このようにしても、オブジェクトが第3のエリアAR3に滞在する時間を短くすることができ、プレーヤの目の負担を軽減することができる。   Further, when the object is located in the third area AR3, control for increasing the speed of the object and control for changing the moving direction of the object to a direction in which the object goes out of the view volume are performed. Also good. Even in this case, the time during which the object stays in the third area AR3 can be shortened, and the burden on the eyes of the player can be reduced.

また、第3のエリアAR3を、仮想カメラVCから見て奥側に位置する第3のエリアと、手前側に位置する第4のエリアとに分割し、オブジェクトが第3のエリアに位置する場合に、該オブジェクトをぼかすぼかし処理を行い、オブジェクトが第4のエリアに位置する場合に、該オブジェクトの速度を速くする制御や、該オブジェクトの移動方向を変化させる制御を行うようにしてもよい。このとき、オブジェクトが第3のエリアと第4のエリアとを隔てる面を通過した場合や接触したと判断した場合に、該オブジェクトの速度を速くする制御や、該オブジェクトの移動方向を変化させる制御を行うようにしてもよい。   Further, the third area AR3 is divided into a third area located on the back side when viewed from the virtual camera VC and a fourth area located on the near side, and the object is located in the third area. In addition, blur processing for blurring the object may be performed, and when the object is located in the fourth area, control for increasing the speed of the object or control for changing the moving direction of the object may be performed. At this time, when the object passes through the surface separating the third area and the fourth area or when it is determined that the object has contacted, control for increasing the speed of the object or control for changing the moving direction of the object May be performed.

2−4.オブジェクトの視差角に基づく処理
なお、オブジェクト(破壊可能オブジェクトDOやパーティクルオブジェクトPO)の視差角に基づいて、該オブジェクトのぼかし処理を行うようにしてもよい。
2-4. Processing based on the parallax angle of an object Note that blur processing of an object (destructible object DO or particle object PO) may be performed based on the parallax angle of the object.

図6に示すように、左眼用、右眼用仮想カメラVCL、VCR(プレーヤの視点に相当)から投影面SP(表示部190の画面に相当)を見たときの輻輳角をαとし、左眼用、右眼用仮想カメラVCL、VCRからオブジェクトを見たときの輻輳角をβとすると、オブジェクトの視差角θは、θ=α−βで表すことができる。従って、オブジェクトが第1のエリアARに位置する場合(例えば、図中Aに位置する場合)には、α<βとなるため、オブジェクトの視差角θは負の値となり、オブジェクトが第2のエリアARに位置する場合(例えば、図中Bに位置する場合)には、α>βとなるため、オブジェクトの視差角θは正の値となる。   As shown in FIG. 6, the convergence angle when viewing the projection plane SP (corresponding to the screen of the display unit 190) from the left-eye and right-eye virtual cameras VCL and VCR (corresponding to the viewpoint of the player) is α, If the convergence angle when viewing the object from the left-eye and right-eye virtual cameras VCL and VCR is β, the parallax angle θ of the object can be expressed as θ = α−β. Therefore, when the object is located in the first area AR (for example, when located in A in the figure), since α <β, the parallax angle θ of the object is a negative value, and the object is in the second area When located in the area AR (for example, located in B in the figure), α> β, so the parallax angle θ of the object is a positive value.

そして、オブジェクトが基準面RP上に位置するときのオブジェクトの視差角をθ(θ<0)として、第2のエリアAR2から第1のエリアAR1に向かう方向に移動するオブジェクトの視差角θがθ<θ或いはθ≦θの条件を満たした場合に、該オブジェクトが第3のエリアR3に位置すると判断して、該オブジェクトをぼかすぼかし処理を行うようにしてもよい。 The parallax angle θ of the object moving in the direction from the second area AR2 toward the first area AR1 is defined as θ RR <0) when the object is positioned on the reference plane RP. May satisfy the condition of θ <θ R or θ ≦ θ R , it may be determined that the object is located in the third area R3 and blur processing for blurring the object may be performed.

また、オブジェクトの視差角θは、左眼用画像でのオブジェクトの描画位置と右眼用画像でのオブジェクトの描画位置とに基づいて求めることもできる。すなわち、図7(A)に示すように、左眼用画像でのオブジェクトOBLの描画位置が右眼用画像でのオブジェクトOBRの描画位置に対して右側にずれる場合には、オブジェクトが第1のエリアAR1に位置すると判断することができ、オブジェクトの視差角θが負の値であると判断することができる。例えば、描画位置を検出するための基準マーカをオブジェクトに設定しておき、左眼用画像での基準マーカMKLの描画位置と右眼用画像での基準マーカMKRの描画位置間の距離dと位置関係に基づいて、オブジェクトの視差角θを求め、求めた視差角θがθ<θ或いはθ≦θの条件を満たすか否かを判断してもよい。 Also, the parallax angle θ of the object can be obtained based on the drawing position of the object in the left-eye image and the drawing position of the object in the right-eye image. That is, as shown in FIG. 7A, when the drawing position of the object OBL in the left-eye image is shifted to the right with respect to the drawing position of the object OBR in the right-eye image, the object is the first It can be determined that the object is located in the area AR1, and it can be determined that the parallax angle θ of the object is a negative value. For example, a reference marker for detecting the drawing position is set in the object, and the distance d and the position between the drawing position of the reference marker MKL in the left eye image and the drawing position of the reference marker MKR in the right eye image are set. based on the relationship, determine the parallax angle theta of objects, the parallax angle theta may determine whether or not the condition theta <theta R or theta ≦ theta R determined.

3.処理
次に、本実施形態の画像生成システムの処理の一例について図8のフローチャートを用いて説明する。
3. Processing Next, an example of processing of the image generation system of the present embodiment will be described using the flowchart of FIG.

まず、処理部100は、左眼用、右眼用仮想カメラVCL、VCRの位置、向きに基づき投影面SPと基準面RPを設定する(ステップS10)。これにより、投影面SPよりも手前側の第1のエリアAR1と、基準面SPよりも手前側の第3のエリアAR3が設定される。   First, the processing unit 100 sets the projection plane SP and the reference plane RP based on the positions and orientations of the left-eye and right-eye virtual cameras VCL and VCR (step S10). Thereby, a first area AR1 on the near side of the projection plane SP and a third area AR3 on the near side of the reference plane SP are set.

次に、移動・動作処理部112は、第2のエリアAR2から第1のエリアAR1に向けて移動するオブジェクト(破壊可能オブジェクトDOやパーティクルオブジェクトPO)の位置、向きを演算する移動演算を行う(ステップS12)。例えば、1フレーム前のオブジェクトの位置をPとすると、オブジェクトの速度Vとオブジェクトの位置Pを、
V=V+AΔt (1)
P=P+VΔt (2)
により演算する。ここでΔtは単位時間であり、1フレームの時間(例えば、1/60秒)である。
Next, the movement / motion processing unit 112 performs a movement calculation for calculating the position and orientation of an object (destructible object DO or particle object PO) moving from the second area AR2 toward the first area AR1 ( Step S12). For example, if the position of the object one frame before is P 0 , the object speed V and the object position P are
V = V 0 + AΔt (1)
P = P 0 + VΔt (2)
Calculate by Here, Δt is a unit time, and is a time of one frame (for example, 1/60 seconds).

次に、移動・動作処理部112は、オブジェクトが第3のエリアAR3に位置するか否かを判断する(ステップS14)。   Next, the movement / motion processing unit 112 determines whether or not the object is located in the third area AR3 (step S14).

オブジェクトが第3のエリアAR3に位置しないと判断された場合(ステップS14のN)には、左眼用画像生成部124、右眼用画像生成部126は、投影面SPにオブジェクトを透視投影して描画することで、左眼用、右眼用仮想カメラVCL、VCRから見える左眼用画像、右眼用画像を生成する(ステップS16)。   If it is determined that the object is not located in the third area AR3 (N in step S14), the left-eye image generation unit 124 and the right-eye image generation unit 126 perspectively project the object onto the projection plane SP. The left-eye image and the right-eye image that are visible from the left-eye and right-eye virtual cameras VCL and VCR are generated (step S16).

また、オブジェクトが第3のエリアAR3に位置すると判断された場合(ステップS14のY)には、ぼかし処理部122、左眼用画像生成部124、右眼用画像生成部126は、オブジェクトをぼかすばかし処理を行いつつ、投影面SPにオブジェクトを透視投影して描画することで、左眼用、右眼用仮想カメラVCL、VCRから見える左眼用画像、右眼用画像を生成する(ステップS18)。   When it is determined that the object is located in the third area AR3 (Y in Step S14), the blurring processing unit 122, the left eye image generation unit 124, and the right eye image generation unit 126 blur the object. By performing perspective projection and drawing the object on the projection plane SP while performing the process, the left-eye image and the right-eye image that can be seen from the left-eye and right-eye virtual cameras VCL and VCR are generated (step S18). ).

次に、処理部100は、処理を続けるか否かを判断し(ステップS20)、処理を続ける場合には、ステップS10の処理に戻り、ステップS10以降の処理を1フレーム毎に繰り返す。   Next, the processing unit 100 determines whether or not to continue the processing (step S20). When the processing is continued, the processing unit 100 returns to the processing of step S10 and repeats the processing after step S10 for each frame.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

100 処理部、110 オブジェクト空間設定部、112 移動・演算処理部(移動制御部)、118 仮想カメラ制御部、120 画像生成部、122 ぼかし処理部、124 左眼用画像生成部、126 右眼用画像生成部、130 音生成部、160 操作部、170 記憶部、180 情報記憶媒体、190 表示部、192、音出力部、196 通信部 100 processing unit, 110 object space setting unit, 112 movement / arithmetic processing unit (movement control unit), 118 virtual camera control unit, 120 image generation unit, 122 blur processing unit, 124 left eye image generation unit, 126 right eye Image generation unit, 130 sound generation unit, 160 operation unit, 170 storage unit, 180 information storage medium, 190 display unit, 192, sound output unit, 196 communication unit

Claims (7)

オブジェクトをオブジェクト空間内で移動させる制御を行う移動制御部と、
前記オブジェクトが、前記オブジェクト空間内の基準面よりも視点から見て手前側のエリアに位置する場合に、前記オブジェクトをぼかすぼかし処理を行うぼかし処理部と、
前記オブジェクトの立体視用画像を生成する画像生成部としてコンピュータを機能させ、
前記基準面は、前記オブジェクト空間内の投影面よりも視点から見て手前側に位置する面であり、
前記投影面は、前記投影面に位置するオブジェクトの画像の視差が無くなる面であることを特徴とするプログラム。
A movement control unit that performs control to move the object in the object space;
A blur processing unit that performs a blur process to blur the object when the object is located in an area on the near side as viewed from the viewpoint of the reference plane in the object space;
Causing the computer to function as an image generating unit that generates a stereoscopic image of the object;
The reference plane is a plane located closer to the front than the projection plane in the object space,
The program according to claim 1, wherein the projection plane is a plane in which parallax of an image of an object located on the projection plane is eliminated.
請求項1において、
前記ぼかし処理部は、
前記基準面よりも視点から見て奥側のエリアから前記手前側のエリアに向けて移動する前記オブジェクトが、前記基準面を通過した場合に、前記ぼかし処理を行うことを特徴とするプログラム。
In claim 1,
The blur processing unit
A program characterized in that the blurring process is performed when the object moving from the back area to the near area from the viewpoint of the reference plane passes through the reference plane.
請求項1又は2において、
前記ぼかし処理部は、
前記基準面よりも視点から見て奥側のエリアから前記手前側のエリアに向けて移動する前記オブジェクトが、前記基準面と接触したか否かを判断し、接触したと判断した場合に、前記ぼかし処理を行うことを特徴とするプログラム。
In claim 1 or 2,
The blur processing unit
When the object moving from the back area to the near area when viewed from the viewpoint of the reference plane is in contact with the reference plane, A program characterized by performing blur processing.
請求項1において、In claim 1,
前記ぼかし処理部は、The blur processing unit
前記オブジェクトに対する視差角に基づき、前記オブジェクトが前記手前側のエリアに位置するか否かを判断することを特徴とするプログラム。A program for determining whether or not the object is located in the near area based on a parallax angle with respect to the object.
請求項1乃至4のいずれかにおいて、
前記ぼかし処理は、被写界深度処理、モーションブラー処理、ブリンク処理及び半透明処理の少なくとも1つの処理であることを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The blur process is at least one of a depth-of-field process, a motion blur process, a blink process, and a translucent process.
オブジェクトをオブジェクト空間内で移動させる制御を行う移動制御部と、
前記オブジェクトが、前記オブジェクト空間内の基準面よりも視点から見て手前側のエリアに位置する場合に、前記オブジェクトをぼかすぼかし処理を行うぼかし処理部と、
前記オブジェクトの立体視用画像を生成する画像生成部とを含み、
前記基準面は、前記オブジェクト空間内の投影面よりも視点から見て手前側に位置する面であり、
前記投影面は、前記投影面に位置するオブジェクトの画像の視差が無くなる面であることを特徴とする画像生成システム。
A movement control unit that performs control to move the object in the object space;
A blur processing unit that performs a blur process to blur the object when the object is located in an area on the near side as viewed from the viewpoint of the reference plane in the object space;
An image generation unit for generating a stereoscopic image of the object,
The reference plane is a plane located closer to the front than the projection plane in the object space,
The image generation system according to claim 1, wherein the projection plane is a plane where parallax of an image of an object located on the projection plane is eliminated.
請求項6において、In claim 6,
前記ぼかし処理部は、The blur processing unit
前記オブジェクトに対する視差角に基づき、前記オブジェクトが前記手前側のエリアに位置するか否かを判断することを特徴とする画像生成システム。An image generation system that determines whether or not the object is located in the near-side area based on a parallax angle with respect to the object.
JP2011032669A 2011-02-17 2011-02-17 Program and image generation system Expired - Fee Related JP5701638B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011032669A JP5701638B2 (en) 2011-02-17 2011-02-17 Program and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011032669A JP5701638B2 (en) 2011-02-17 2011-02-17 Program and image generation system

Publications (2)

Publication Number Publication Date
JP2012173821A JP2012173821A (en) 2012-09-10
JP5701638B2 true JP5701638B2 (en) 2015-04-15

Family

ID=46976701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011032669A Expired - Fee Related JP5701638B2 (en) 2011-02-17 2011-02-17 Program and image generation system

Country Status (1)

Country Link
JP (1) JP5701638B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3442270B2 (en) * 1997-11-25 2003-09-02 株式会社ナムコ Image generating apparatus and information storage medium

Also Published As

Publication number Publication date
JP2012173821A (en) 2012-09-10

Similar Documents

Publication Publication Date Title
US9106906B2 (en) Image generation system, image generation method, and information storage medium
JP2012253690A (en) Program, information storage medium, and image generation system
JP3442270B2 (en) Image generating apparatus and information storage medium
JP2003107603A (en) Stereophonic image generating device, stereophonic image generation information and information storage medium
JP2009237680A (en) Program, information storage medium, and image generation system
JP2012212237A (en) Image generation system, server system, program, and information storage medium
JP4772952B2 (en) Stereoscopic image generation apparatus and information storage medium
JP5620202B2 (en) Program, information storage medium, and image generation system
JP4624587B2 (en) Image generating apparatus, program, and information storage medium
JP2012249978A (en) Program, information storage medium, game device and server system
JP2011053737A (en) Program, information storage medium and image generation device
JP2005032140A (en) Image generation system, program, and information storage medium
JP5649846B2 (en) Program and image generation system
JP5766540B2 (en) Program and game system
JP2016192029A (en) Image generation system and program
JP4624588B2 (en) Image generating apparatus, program, and information storage medium
JP5701638B2 (en) Program and image generation system
JP5809428B2 (en) Game system
JP5701637B2 (en) Program and image generation system
JP2009169471A (en) Program, information storage medium, and image generation system
JP4802254B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4592087B2 (en) Image generation system, program, and information storage medium
WO2014020753A1 (en) Three-dimensional image processing device, three-dimensional image processing method, and storage medium for same
JP2003203250A (en) Shooting game device and information storage medium
JP2007164651A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131107

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150218

R150 Certificate of patent or registration of utility model

Ref document number: 5701638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees