JP6034079B2 - Computer program and computer system - Google Patents
Computer program and computer system Download PDFInfo
- Publication number
- JP6034079B2 JP6034079B2 JP2012156513A JP2012156513A JP6034079B2 JP 6034079 B2 JP6034079 B2 JP 6034079B2 JP 2012156513 A JP2012156513 A JP 2012156513A JP 2012156513 A JP2012156513 A JP 2012156513A JP 6034079 B2 JP6034079 B2 JP 6034079B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- game
- display
- reference plane
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、表示部において仮想のオブジェクトを立体表示するための、視差を有する一対の仮想二次元画像を生成する、コンピュータプログラム及びコンピュータシステムに関する。 The present invention relates to a computer program and a computer system for generating a pair of virtual two-dimensional images having parallax for stereoscopic display of a virtual object on a display unit.
近年、ゲーム機やテレビなどの映像表示装置に表示されるコンテンツとして、両眼視差を利用した立体表示の可能な画像を含むものが提供されている。そして、このようなコンテンツにおいて、表示する立体画像をユーザがより立体視できるようにする提案がなされている(特許文献1参照)。なお、この特許文献では、立体表示のシステムとして裸眼での立体視を可能とするパララックス方式(視差バリア方式)を採用した例が開示されている。 In recent years, content including images that can be stereoscopically displayed using binocular parallax has been provided as content displayed on video display devices such as game machines and televisions. In such content, a proposal has been made to allow a user to more stereoscopically view a stereoscopic image to be displayed (see Patent Document 1). This patent document discloses an example in which a parallax system (parallax barrier system) that enables stereoscopic viewing with the naked eye is adopted as a stereoscopic display system.
しかしながら、例えば可搬型のゲーム機などの場合、そこに備えられた映像表示装置が比較的小さいので立体感の向上が困難である。そのため、上記特許文献に記載された技術では、小さい映像表示装置において、ユーザが十分満足できる程度に三次元オブジェクトを立体表示することができない。特に、画面の手前側に飛び出して位置するように立体表示する場合は、画面が小さいと、飛び出し量が大きくなるようなコンテンツを作成するのが困難になる。 However, in the case of a portable game machine, for example, it is difficult to improve the stereoscopic effect because the video display device provided therein is relatively small. Therefore, with the technique described in the above-mentioned patent document, a three-dimensional object cannot be three-dimensionally displayed in a small video display device to the extent that a user can be satisfied sufficiently. In particular, in the case of three-dimensional display so as to jump out and be positioned on the front side of the screen, if the screen is small, it is difficult to create content that increases the pop-out amount.
そこで本発明は、映像表示装置に表示されたオブジェクトに対し、ユーザが得る立体感を向上させることのできるコンピュータプログラム及びコンピュータシステムを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides a computer program and a computer system that can improve a stereoscopic effect obtained by a user with respect to an object displayed on a video display device.
本発明に係るコンピュータプログラムは、コンピュータを、オブジェクトを含む仮想の三次元空間を生成する仮想空間生成手段、前記仮想三次元空間を一対の仮想カメラにより撮影し、視差を有する一対の仮想二次元画像を生成する視差画像生成手段、及び、前記仮想三次元空間内に前記仮想カメラに対面する基準面を設定し、該基準面よりも前記仮想カメラに近い側の近接領域と、その反対側の遠隔領域とで、前記仮想カメラから見た色の様相が異なるように設定する色様相設定手段、として機能させる。 A computer program according to the present invention includes a virtual space generating means for generating a virtual three-dimensional space including an object, a pair of virtual two-dimensional images having a parallax, wherein the virtual three-dimensional space is photographed by a pair of virtual cameras. And a parallax image generating means for generating a reference area that faces the virtual camera in the virtual three-dimensional space, a proximity area closer to the virtual camera than the reference plane, and a remote area on the opposite side It is made to function as a color appearance setting means for setting the color appearance as seen from the virtual camera to be different depending on the area.
このような構成により、仮想三次元空間において仮想カメラに近い近接領域と、仮想カメラから遠い遠隔領域とで色の様相が異なる。従って、基準面より仮想カメラに近いオブジェクトに対するユーザの注意を惹くことができ、オブジェクトの立体感を向上させることができる。 With such a configuration, the color appearance is different between the proximity region close to the virtual camera and the remote region far from the virtual camera in the virtual three-dimensional space. Therefore, it is possible to attract the user's attention to the object closer to the virtual camera than the reference plane, and to improve the stereoscopic effect of the object.
また、前記色様相設定手段は、1つのオブジェクトが前記基準面を跨いで位置する場合には、該オブジェクトにおいて前記近接領域に含まれる部分と前記遠隔領域に含まれる部分とで、前記仮想カメラから見た色の様相が異なるように設定することとしてもよい。 In addition, when one object is located across the reference plane, the color appearance setting unit includes a portion included in the proximity region and a portion included in the remote region in the object from the virtual camera. It is good also as setting so that the aspect of the seen color may differ.
このような構成により、基準面を跨いで位置するオブジェクトについて、基準面より手前に含まれる部分の立体感を向上させることができる。 With such a configuration, it is possible to improve the stereoscopic effect of the portion included in front of the reference plane for the object positioned across the reference plane.
また、前記基準面は、前記一対の仮想カメラが撮影した前記仮想三次元空間を投影する投影面に設定されてもよい。 The reference plane may be set as a projection plane that projects the virtual three-dimensional space captured by the pair of virtual cameras.
一般的に投影面は映像表示装置の表示面に一致するように設定される。従って、上記構成により、表示面に対するオブジェクトの奥行き表現(即ち、立体感)を強調することができる。 In general, the projection plane is set to coincide with the display plane of the video display device. Therefore, with the above configuration, it is possible to emphasize the depth expression (that is, stereoscopic effect) of the object with respect to the display surface.
また、前記色様相設定手段は、前記近接領域に存在するオブジェクトに対して、誘目性を高める処理を行うものであってもよい。 In addition, the color appearance setting unit may perform a process for increasing the attractiveness of an object existing in the proximity area.
また、前記色様相設定手段は、前記近接領域に存在するオブジェクトに対して、彩度を高める処理、明度を高める処理、輝度を高める処理、のうち少なくとも何れか一つの処理を行うものであってもよい。 Further, the color appearance setting means performs at least one of a process for increasing saturation, a process for increasing lightness, and a process for increasing luminance on an object existing in the adjacent area. Also good.
このような構成により、近接領域に存在するオブジェクトに対するユーザの注意を積極的に惹くことができ、オブジェクトの立体感を向上させることができる。 With such a configuration, it is possible to actively attract the user's attention to the object existing in the proximity area, and to improve the stereoscopic effect of the object.
また、前記色様相設定手段は、前記遠隔領域に対して誘目性を低くする処理を行うものであってもよい。 In addition, the color appearance setting unit may perform processing for reducing the attractiveness of the remote area.
また、前記色様相設定手段は、前記基準面に半透明のオブジェクトを配置することとしてもよい。 Further, the color appearance setting means may arrange a translucent object on the reference plane.
また、前記色様相設定手段は、前記遠隔領域に対して、彩度を低くする処理、明度を低くする処理、輝度を低くする処理、透過性色を重畳する処理、モノトーン化する処理、のうち少なくとも何れか一つの処理を行うものであってもよい。 Further, the color appearance setting means includes a process for lowering saturation, a process for lowering brightness, a process for lowering brightness, a process for superimposing transparent colors, and a process for making a monotone for the remote area. At least one of the processes may be performed.
このような構成により、相対的に近接領域に存在するオブジェクトに対するユーザの注意を惹くことができ、オブジェクトの立体感を向上させることができる。 With such a configuration, it is possible to attract the user's attention to an object that is present in a relatively close area, and to improve the stereoscopic effect of the object.
また、本発明に係るコンピュータシステムは、上述した何れかに記載のゲームプログラムを記憶したプログラム記憶部と、該プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備えている。 A computer system according to the present invention includes a program storage unit that stores the game program described above, and a computer that executes the program stored in the program storage unit.
本発明によれば、映像表示装置に表示されたオブジェクトに対し、ユーザが得る立体感を向上させることのできるコンピュータプログラム及びコンピュータシステムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the computer program and computer system which can improve the stereoscopic effect which a user obtains with respect to the object displayed on the video display apparatus can be provided.
以下、本発明の実施の形態に係るコンピュータプログラム及びコンピュータシステムについて、図面を参照しつつ説明する。なお、本実施の形態では、コンピュータプログラムの一例としてゲームプログラムを例示し、コンピュータシステムとして可搬型ゲーム装置を例示する。但し、本発明の適用対象はこれらに限定されず、例えば、可搬型又は据え置き型の各種コンピュータ装置、テレビ、携帯電話など、画像を含むコンテンツを表示可能な映像表示装置、及び、このような映像表示装置にて立体表示するためのコンピュータプログラムに適用することができる。 Hereinafter, a computer program and a computer system according to embodiments of the present invention will be described with reference to the drawings. In this embodiment, a game program is illustrated as an example of a computer program, and a portable game device is illustrated as a computer system. However, the application target of the present invention is not limited to these, and for example, a video display device capable of displaying content including images, such as various portable or stationary computer devices, a television, a mobile phone, and the like. The present invention can be applied to a computer program for stereoscopic display on a display device.
[ハードウェアの構成]
図1は、本発明の実施の形態に係る可搬型のゲーム装置(コンピュータシステム)1の外観構成を示す正面図である。図1に示すようにゲーム装置1は、横長の薄型直方体形状を成す下側本体2と、同様の直方体形状を成す上側本体3とを備えている。下側本体2の上辺部分と上側本体3の下辺部分との間はヒンジ4で接続されている。従って、下側本体2の前面と上側本体3の前面とが対向するように閉じたり、その状態から図1に示す状態に開いたりすることができる。
[Hardware configuration]
FIG. 1 is a front view showing an external configuration of a portable game device (computer system) 1 according to an embodiment of the present invention. As shown in FIG. 1, the
各本体2,3に設けられたデバイスについて概説すると、まず下側本体2の前面中央部には、例えば半透過型カラー液晶ディスプレイで構成された長方形状の第1ディスプレイ6が設けられている。この第1ディスプレイ6の表面にはタッチパネルが設けられており、これとタッチペン(図示せず)とで公知のポインティングデバイスが構成されている。
The device provided in each of the
第1ディスプレイ6の左側には、電源ボタン7と十字キー8とが上下に配設され、右側には、2つのボタンを含む操作ボタン9と、A,B,X,Yの4つのボタンを含む操作ボタン10とが上下に配設されている。また、操作ボタン10の下方には電源のオン/オフ状態を示す表示灯11が設けられている。更に、下側本体2の左上角部分にはLボタン12が配設され、右上角部分にはRボタン13が配設されている。
On the left side of the
一方、上側本体3の前面中央部には、例えば半透過型カラー液晶ディスプレイで構成された長方形状の第2ディスプレイ(映像表示装置)15が設けられ、その左右には、スピーカ16が配設されている。第2ディスプレイ15は、立体視可能な画像を表示できる映像表示装置であって、例えば、パララックスバリア(parallax barrier)方式(視差バリア方式)により、左目用画像と右目用画像とを表示する。従って、ユーザは裸眼により立体視することができる。なお、立体画像の表示方式は上記に限定されない。例えば、同様に裸眼立体視のできるレンチキュラ(lenticular)方式でもよいし、専用メガネを使用する、アナグリフ(anaglyph)の原理に基づく方式、偏光フィルタを用いる方式、液晶シャッタを用いる方式などでもよい。
On the other hand, a rectangular second display (video display device) 15 composed of a transflective color liquid crystal display, for example, is provided at the center of the front surface of the
図1には図示しないが、下側本体2の上辺部分であって、ゲーム装置1を開いたときの上側本体3の背面側の部分には、本実施の形態に係るゲームプログラム(コンピュータプログラム)50a等を記録したゲームメディア50を挿脱可能なメディアインタフェース(図2のメディアインタフェース45参照)が設けられている。また、上述した下側本体2に設けられたデバイスと上側本体3に設けられたデバイスとは、ヒンジ4の近傍に設けられた多導線の帯状ケーブル5を介して電気的に接続されている。
Although not shown in FIG. 1, a game program (computer program) according to the present embodiment is provided on the upper side of the lower
図2は、ゲーム装置1の内部構成を示すブロック図である。ゲーム装置1は制御部30を備えており、該制御部30は、CPU31、描画処理プロセッサ32、音声処理プロセッサ33、入力信号処理部34、RAM(Random Access Memory)35、及びROM(Read Only Memory)36を含んでいる。更にゲーム装置1は、この他にもVRAM(Video-RAM)40、D/A(Digital- Analog)変換器41、上記第1ディスプレイ6及び第2ディスプレイ15、アンプ42、上記スピーカ16、上記タッチパネル43、操作部44、メディアインタフェース45、及びバス46を備えている。そして、これらのうちCPU31、描画処理プロセッサ32、音声処理プロセッサ33、入力信号処理部34、RAM35、ROM36、操作部44、及びメディアインタフェース45は、バス46によって相互にデータ伝送可能に接続されている。
FIG. 2 is a block diagram showing an internal configuration of the
このうち操作部44は、図1に示した十字キー8、操作ボタン9,10、Lボタン12、及びRボタン13を含む操作子であり、プレイヤの操作を受け付けて、その操作内容(押圧入力の有無)に応じた操作信号をCPU31へ入力する。また、操作部44には操作子以外に電源ボタン7も含まれており、該電源ボタン7が操作されると、各部に電力が供給されてゲーム装置1が起動し、各操作子への操作入力が有効になる。
The
メディアインタフェース45は、ゲーム装置1の外部から接続された記録媒体であるゲームメディア50にアクセスして、これに記憶されたゲームプログラム50a及びゲームデータ50bを読み出す。ゲームプログラム50aは、ゲーム装置1にてプレイするゲームを実行させるプログラムであり、ゲームデータ50bは、上記ゲームを実行する上で必要なデータであって、例えば各登場キャラクタや背景の画像データ、ステータスなどの情報表示用の画像データ、効果音やBGMなどの音声データ、文字や記号によるメッセージデータ等が含まれる。なお、ゲームメディア50は、半導体メモリや、光ディスクの一種であるUMD(Universal Media Disc)(登録商標)などを採用することができる。
The
RAM35には、ゲームの進行に応じてゲームメディア50から読み込まれたゲームプログラム50a及びゲームデータ50bを格納するロードエリア、並びに、CPU31がゲームプログラム50aを処理する際に使用するためのワークエリアが設定されている。ROM36には、ゲームメディア50に記憶されているゲームプログラム50a及びゲームデータ50bの読み出し処理を制御するプログラムなど、ゲーム装置1を動作させるための基本プログラムが記憶されている。
In the
入力信号処理部34は、ユーザがタッチパネル43(第1ディスプレイ6の表面)に対してタッチペンの先端を接触させる入力操作を行った場合に、その接触点のタッチパネル43上の座標に基づいて接触点の位置情報を検出し、該位置情報を示す信号をCPU31へ出力する。
When the user performs an input operation for bringing the tip of the touch pen into contact with the touch panel 43 (the surface of the first display 6), the input
CPU31は、ゲームメディア50に記録されているゲームプログラム50a及びゲームデータ50bの全部または一部を、メディアインタフェース45を通じてRAM35に読み込み、ユーザによるタッチパネル43又は操作部44に対する操作入力に応じてこれを実行し、ゲーム進行を制御する。より具体的には、ユーザ操作によりタッチパネル43又は操作部44から信号が入力されると、CPU31は、ゲームプログラム50aに従ってその操作信号に対応する所定のゲーム進行処理を行い、その処理結果を、ゲーム進行を示す画像として第1ディスプレイ6又は第2ディスプレイ15に表示すると共に、ゲーム進行を示す音声信号をスピーカ16に出力する。
The
画像の描画は、CPU31の指示により描画処理プロセッサ32が行う。即ち、CPU31は、タッチパネル43又は操作部44から入力された信号に基づき、第1ディスプレイ6又は第2ディスプレイ15に表示すべき画像の内容を決定し、その内容に対して必要な描画データを描画処理プロセッサ32に生成させる。描画処理プロセッサ32は、生成した描画データに基づいて画像データを生成し、この画像データをVRAM40に書き込む。D/A変換器41は、VRAM40から出力された画像データを順次アナログ信号に変換し、第1ディスプレイ6又は第2ディスプレイ15へ出力(表示)する。
The drawing
上述したように本ゲーム装置1の第2ディスプレイ15は立体画像を表示でき、その描画も上記描画処理プロセッサ32が行う。例えば、仮想三次元空間に一対の仮想カメラを配置し、描画処理プロセッサ32は、夫々で撮影した互いに視差を有する左目用及び右目用の仮想二次元画像のデータを生成する。そして、この画像データはVRAM40において適宜のフォーマットで記録され、更にD/A変換器41を経て第2ディスプレイ15へ出力(表示)される。第2ディスプレイ15は、この画像データを適宜の方式(本実施の形態では、パララックスバリア方式)で出力することにより、立体視可能な画像が表示される。
As described above, the
また、CPU31は、ゲームの進行に応じて、スピーカ16から出力すべき効果音やBGM等の音声を決定し、その音声を発音するための音声データをRAM35から読み出して音声処理プロセッサ33に入力する。即ち、CPU31は、ゲームの進行に伴って発音イベントが発生すると、その発音イベントに応じた音声データ(ゲームメディア50からロードされた音声データ)をRAM35から読み出して音声処理プロセッサ33に入力する。音声処理プロセッサ33は、DSP(Digital Signal Processor)で構成されており、CPU31によって入力された音声データに対して所定の効果(例えば、リバーブ、コーラスなど)を付与したのちアナログ信号に変換して、アンプ42に出力する。アンプ42は、音声処理プロセッサ33から入力された音声信号を増幅したのちスピーカ16に出力する。
Further, the
[制御部の機能的構成]
図3は、ゲーム装置1が備える制御部30の機能的な構成を示すブロック図である。ゲーム装置1の制御部30は、ゲームメディア50から読み込んだゲームプログラム50a及びゲームデータ50bを実行することにより、ゲーム進行制御手段30a、仮想空間生成手段30b、視差画像生成手段30c、色様相設定手段30d、及び、立体画像出力手段30eなどの機能を発揮する。
[Functional configuration of control unit]
FIG. 3 is a block diagram illustrating a functional configuration of the
このうちゲーム進行制御手段30aは、ユーザによるタッチパネル43又は操作部44の操作等に応じてゲームを進行させ、プレイヤキャラクタや敵キャラクタ等の行動も制御する。仮想空間生成手段30bは、ユーザが操作するプレイヤキャラクタや敵キャラクタが行動する仮想三次元空間(各キャラクタや仮想三次元空間の一部を成すオブジェクト等を含む)を生成する。視差画像生成手段30cは、前述のように、仮想三次元空間を一対の仮想カメラにより撮影し、視差を有する一対の仮想二次元画像を生成する。色様相設定手段30dは、仮想三次元空間内に仮想カメラに対面する基準面を設定し、該基準面よりも仮想カメラに近い側の近接領域と、その反対側の遠隔領域とで、仮想カメラから見た色の様相が異なるようにする(詳しくは後述)。立体画像出力手段30eは、仮想カメラにより撮影された一対の仮想二次元画像に基づき、第2ディスプレイ15にて立体画像を表示する。なお、仮想カメラや一部のオブジェクトは、例えばユーザの操作等に応じて仮想三次元空間内を移動可能になっている。
Among these, the game progress control means 30a advances the game in accordance with the operation of the
[立体画像の表示処理]
次に、制御部30が行う立体画像の表示処理について説明する。図4は、立体表示する仮想三次元空間(以下、「仮想空間」)を表した模式的な平面図である。ここに示す例では、仮想空間100に、三次元オブジェクトを成す矩形オブジェクト101と球形オブジェクト102とが設けられている。また、仮想空間100には、左目用画像及び右目用画像を夫々撮影するために、一対の仮想カメラCL,CRが左右に配設されている。これらの仮想カメラCL,CRは交差法(互いの光軸を交差させる方式)により配設され、図4では、オブジェクト101,102が夫々の画角内に含まれている。なお、仮想カメラCL,CRの配置には平行法(互いの光軸を平行にする方式)を用いてもよい。
[Stereoscopic image display processing]
Next, a stereoscopic image display process performed by the
左右の仮想カメラCL,CRの前方所定位置には、これらに対向する投影面103が設定されている。この投影面103は、左右の仮想カメラCL,LRに対して共通する単一面であり、投影面103上のものは、左右の仮想カメラCL,CRから見て視差がゼロである。図4では、矩形オブジェクト101の途中部分を横断するようにして投影面103が設定され、換言すれば、矩形オブジェクト101は投影面103を跨いで位置している。また、球形オブジェクト102は、投影面103より遠方(仮想カメラCL,CRから離れる方)に位置している。
Projection planes 103 are set at predetermined positions in front of the left and right virtual cameras CL and CR. This
仮想カメラCL,CRは、投影面103に収まる範囲内で仮想空間100を夫々で撮影し、第2ディスプレイ15には、投影面103に投影された仮想空間100が立体的に表示される。即ち、描画処理プロセッサ32は、左右の仮想カメラCL,CRの撮影画像に対応する、一対(左目用及び右目用)の仮想二次元画像データを生成する。そして、これらを例えばパララックスバリア方式に従って出力することにより、第2ディスプレイ15には、オブジェクト101,102を含む仮想空間100が立体表示される。
The virtual cameras CL and CR each photograph the
図4の場合、矩形オブジェクト101のうち、投影面103よりも手前に位置する前部101aは、第2ディスプレイ15の画面から手前に飛び出すように表示される。一方、投影面103より遠方に位置する後部101bや、球形オブジェクト102は、第2ディスプレイ15の画面の奥方向へ引っ込んで位置するように表示される。
In the case of FIG. 4, the
[色様相設定処理]
ここで、本ゲーム装置1は、立体感をより強調するために色様相設定処理を行う。この色様相設定処理では、仮想空間100内に、仮想カメラCL,CRに対面する所定の基準面110を設定すると共に、該基準面110よりも仮想カメラCL,CRに近い側の近接領域111と、その反対側の遠隔領域112とで、異なる色の様相を設定する。以下、色様相設定処理について更に詳述する。
[Color phase setting processing]
Here, the
本実施の形態では、制御部30は、仮想空間100内の上記投影面103に重なるようにして基準面110を設定する。従って、図4に示す例では、矩形オブジェクト101がこの基準面110を跨いで位置し、球形オブジェクト102は基準面110より遠方に位置している。なお、図4では視認性を確保するために、投影面103に対して基準面110を若干ずらして表示している。そして、基準面110より手前の近接領域111に位置するオブジェクトに対して誘目性を高める処理、及び、基準面より遠方の遠隔領域112に対して誘目性を低くする処理、のうち、少なくとも一方を実行する。即ち、色様相設定処理には、誘目性を高める処理と誘目性を低くする処理とが含まれ得る。ここで、誘目性(attention value)とは、人の視覚的な注意を惹く度合いのことであり、誘目性が高いほど人の視覚的な注意を強く惹く。
In the present embodiment, the
誘目性を高める処理としては、例えば、彩度を高める処理、明度を高める処理、輝度を高める処理などが挙げられる。また、これらのうち複数の処理を同時に実行することとしてもよい。一方、誘目性を低くする処理としては、例えば、彩度を低くする処理、明度を低くする処理、輝度を低くする処理の他、透過性色を重畳する処理、編み目状などの微細パターンを重畳する処理、モノトーン化する処理なども挙げられる。また、これらのうち複数の処理を同時に実行することとしてもよい。 Examples of the process for increasing the attractiveness include a process for increasing saturation, a process for increasing lightness, and a process for increasing luminance. Moreover, it is good also as performing several processes simultaneously among these. On the other hand, as processing to reduce attractiveness, for example, processing to lower saturation, processing to lower brightness, processing to lower brightness, processing to superimpose transparent colors, and superimpose fine patterns such as stitches And a process for making a monotone. Moreover, it is good also as performing several processes simultaneously among these.
図5は、図4に示す仮想空間を立体表示するに際し、色様相設定処理を行ったときの立体画像の模式図である。このうち(a)は、近接領域111に位置するオブジェクトの表面に対して彩度を高める処理を行ったときの立体画像の模式図であり、(b)は、遠隔領域112に対して彩度を低くする処理を行ったときの立体画像の模式図である。なお、比較のため、(c)に、色様相設定処理を行っていない場合の立体画像の模式図を示す。
FIG. 5 is a schematic diagram of a stereoscopic image when a color appearance setting process is performed when the virtual space shown in FIG. 4 is stereoscopically displayed. Among these, (a) is a schematic diagram of a stereoscopic image when processing for increasing the saturation is performed on the surface of an object located in the
各オブジェクト101,102の表面には、表示フレーム毎に所定の彩度(初期値)が設定される。即ち、彩度は周辺環境(光の照度、霧などの光を散乱させる要素の有無など)に影響を受け、動画の場合には、同一箇所であっても表示されるフレーム毎に彩度の設定値が変化し得る。説明の便宜上、図4に示す状態では、矩形オブジェクト101の全表面に対し、例えば彩度の初期値が70%に設定されているものとする。
A predetermined saturation (initial value) is set for each display frame on the surfaces of the
まず、図5(a)に示す立体画像を生成する場合について説明する。図4に示すように、矩形オブジェクト101の前部101aは、基準面110の手前に位置している。従って、色様相設定手段30dは、矩形オブジェクト101のうち近接領域111に位置する前部101aの表面について、その彩度を高める処理を行う。例えば、矩形オブジェクト101の全表面の彩度は初期値が70%であるため、前部101aの表面の彩度をそれより高い90%に再設定(更新)する。これにより、図5(a)に示すように、基準面110よりも手前に位置する矩形オブジェクト101の前部101aの表面は、他の部分に比べて誘目性が向上し、ユーザの注意を喚起する。その結果、ユーザには、矩形オブジェクト101の前部101aが基準面110(即ち、第2ディスプレイ15の画面)から手前により一層飛び出しているように視認され、立体感が強調される。
First, a case where the stereoscopic image shown in FIG. 5A is generated will be described. As shown in FIG. 4, the
次に、図5(b)に示す立体画像を生成する場合について説明する。図4に示すように、矩形オブジェクト101の後部101bや球形オブジェクト102は、基準面110より遠方に位置している。従って、色様相設定手段30dは、矩形オブジェクト101の後部101bや球形オブジェクト102を含む遠隔領域112に対し、彩度を低くする処理を行う。例えば、矩形オブジェクト101の彩度は初期値が70%であるため、後部101bの表面の彩度をそれより低い40%に設定する。また、遠隔領域112に存在する他のオブジェクトや、遠隔領域112を構成する他の全要素に対しても同様に、個々に設定された初期値よりも低くなるように彩度を再設定(更新)する。これにより、図5(b)に示すように、基準面110より遠方の遠隔領域112の誘目性が、基準面110より手前に存在する矩形オブジェクト101の前部101aより低くなる。換言すれば、矩形オブジェクト101の前部101aは、他の部分に比べて相対的に誘目性が向上する。その結果、ユーザには矩形オブジェクト101の前部101aが第2ディスプレイ15の画面から手前により一層飛び出しているように視認され、立体感が強調される。
Next, a case where the stereoscopic image shown in FIG. 5B is generated will be described. As shown in FIG. 4, the
図6は、図5に示すような立体画像を生成するときの処理内容を示すフローチャートである。この図6では、動画を構成する各フレームを、1フレーム毎に生成する場合を例示しており、このような処理は、制御部30が備える仮想空間生成手段30b、視差画像生成手段30c、及び色様相設定手段30dが分担して行う。
FIG. 6 is a flowchart showing the processing contents when generating a stereoscopic image as shown in FIG. FIG. 6 illustrates a case where each frame constituting the moving image is generated for each frame, and such processing is performed by the virtual
制御部30は、はじめに仮想空間を構成する各要素の設定(更新)を行う。即ち、仮想空間を構成するオブジェクトの設定(ステップS10)、光源及び仮想カメラの設定(ステップS11)、エフェクトの設定(ステップS12)などを行う。オブジェクトの設定(ステップS10)では、ポリゴン等を用いて予めモデリングされたオブジェクトについて、1フレーム経過後の位置、形状、テクスチャなどを決定する。光源の設定(ステップS11)では、1フレーム経過後の光源の位置、向き、光度などを決定し、仮想カメラの設定(ステップS11)では、1フレーム経過後の左右の仮想カメラの位置、向き、画角などを決定する。エフェクトの設定(ステップS12)では、例えば火の粉を表現する各パーティクルの位置、色、寿命などを決定し、フォグを表現するテクスチャの色やブレンド率を決定したりする。
The
次に、制御部30は、上記のようにして設定した仮想空間に基づき、二次元画像を生成するためのレンダリング処理を行う。この処理は、左目用画像及び右目用画像の夫々について実行され、細分するとソリッド処理(ステップS20)、抜き処理(ステップS21)、トランスペアレンシー処理(ステップS22)、エフェクト処理(ステップS23)、スクリーン処理(ステップS24)などが含まれる。各処理で生成されたデータは、RAM35等に用意されたフレームバッファに順次書き込まれる。
Next, the
レンダリング処理に含まれる各処理について説明する。まず、ソリッド処理(ステップS20)では、不透明なオブジェクトを示す二次元のフレームデータを生成し、フレームバッファに書き込む。抜き処理(ステップS21)では、フレーム画像に含まれることとなる木の葉などの平面的なオブジェクトを示すフレームデータを生成し、フレームバッファに書き込む。トランスペアレンシー処理(ステップS22)では、透明なオブジェクトを示すフレームデータを生成し、フレームバッファに書き込む。 Each process included in the rendering process will be described. First, in the solid processing (step S20), two-dimensional frame data indicating an opaque object is generated and written into the frame buffer. In the extraction process (step S21), frame data indicating a planar object such as a leaf of a tree to be included in the frame image is generated and written into the frame buffer. In the transparency process (step S22), frame data indicating a transparent object is generated and written into the frame buffer.
エフェクト処理(ステップS23)では、例えば、火の粉などのパーティクルを示すフレームデータを生成し、フレームバッファに書き込む。また、例えば、フォグ用のテクスチャをブレンド率に応じて他のフレームデータと合成した結果を、フレームバッファに書き込む。スクリーン処理(ステップS24)では、仮想空間を構成するオブジェクト等に対して最も仮想カメラに近い位置に表示する二次元画像(例えば、プレイヤキャラクタの体力ゲージ、キャラクタの発言内容を示す文字列等)を示すフレームデータを生成し、フレームバッファに書き込む。 In the effect process (step S23), for example, frame data indicating particles such as sparks is generated and written to the frame buffer. Also, for example, the result of combining the fog texture with other frame data in accordance with the blend rate is written to the frame buffer. In the screen processing (step S24), a two-dimensional image (for example, a player character's physical strength gauge, a character string indicating the content of the character's remarks, etc.) displayed at a position closest to the virtual camera with respect to the objects constituting the virtual space is displayed. The frame data shown is generated and written to the frame buffer.
なお、図6に示すフローチャートは、説明の便宜上、各処理を図示した順序で実行するように記載しているが、実際には、採用するレンダリング方法に応じて異なる順序で実行したり、複数の処理を同時に実行したりする場合もある。また、仮想空間の状態に応じて必要な処理のみを実行すればよく、全ての処理を実行することが必要なわけではない。 In the flowchart shown in FIG. 6, for convenience of explanation, it is described that the processes are executed in the order shown in the figure, but actually, the processes are executed in different orders depending on the rendering method employed, In some cases, processing is executed simultaneously. Further, it is only necessary to execute necessary processes according to the state of the virtual space, and it is not necessary to execute all the processes.
色様相設定処理における彩度の再設定は、上記レンダリング処理に含まれるソリッド処理(ステップS20)にて実現できる。例えば、ソリッド処理において、各オブジェクトのテクスチャデータから、当該オブジェクトの表面の色情報として、対応する各画素の彩度(初期値)を取得する。一方、他のオブジェクトとの位置関係から、表示不要な部分を消去する隠面消去処理において、例えば公知のZバッファ法により各画素の深度値(仮想カメラからの距離)を取得する。そして、この深度値を基準面と比較し、各画素が表示する対象が基準面より手前に存在するのか遠方に存在するのかを判定する。 Saturation resetting in the hue setting processing can be realized by solid processing (step S20) included in the rendering processing. For example, in solid processing, the saturation (initial value) of each corresponding pixel is acquired from the texture data of each object as color information on the surface of the object. On the other hand, in the hidden surface erasing process for erasing a portion that does not require display from the positional relationship with another object, for example, the depth value (distance from the virtual camera) of each pixel is acquired by a known Z buffer method. Then, this depth value is compared with the reference plane, and it is determined whether the object to be displayed by each pixel is in front of or far from the reference plane.
その結果、基準面より手前に位置するオブジェクトに対応する画素に対しては、その彩度を初期値よりも高い値に更新する。これにより、図5(a)に例示したような立体画像を表示するためのフレームデータを生成することができる。また、これに替えて、ある画素について、基準面より遠方に位置する対象を表示するものと判定した場合に、当該画素の彩度を初期値よりも低い値に更新することとしてもよい。この場合には、図5(b)に例示したような立体画像を表示するためのフレームデータを生成することができる。更に、上述した両方の処理を共に実行してもよい。 As a result, for the pixel corresponding to the object located in front of the reference plane, the saturation is updated to a value higher than the initial value. Thereby, frame data for displaying a stereoscopic image as illustrated in FIG. 5A can be generated. Alternatively, when it is determined that an object located far from the reference plane is to be displayed for a certain pixel, the saturation of the pixel may be updated to a value lower than the initial value. In this case, frame data for displaying a stereoscopic image as illustrated in FIG. 5B can be generated. Furthermore, both the above-described processes may be executed together.
以上に説明したとおり、基準面110を境界とする近接領域111と遠隔領域112とで、異なる色の様相を設定することにより、基準面110よりも手前に位置するオブジェクトの立体感を高めることができる。
As described above, by setting different color appearances in the
なお、上記実施の形態では、色の様相として彩度を設定する場合を特に詳述したが、他の様相を設定する場合も同様にして実現でき、これによっても基準面110の手前に位置するオブジェクトの立体感を高めることができる。例えば、明度や輝度を設定する場合は、彩度の場合と同様に、ソリッド処理において画素ごとの明度や輝度の初期値を取得し、各画素の深度値と基準面との比較結果に基づき、各画素の明度や輝度を再設定すればよい。
In the above-described embodiment, the case where saturation is set as the color aspect has been described in detail. However, the case where other aspect is set can also be realized in the same manner, and this is also positioned in front of the
また、透過性色を重畳する処理によって色の様相を変更する場合は、上記と同様にして画素ごとの色情報(色相、彩度、明度、輝度など)の初期値を取得する。そして、深度値と基準値との比較結果に基づき、基準面より遠方に位置する対象を表示する画素に対して、透過性色を重畳した色情報に再設定(更新)すればよい。また、透過性色を重畳する処理においては、透過性色のフィルタを用いてもよい。この場合、当該フィルタを基準面又はその近傍に該基準面と平行に配置する。そして、仮想カメラで該フィルタを通じて仮想空間を撮影して画像データを生成すればよい。このような透過性色のフィルタとしては、例えば半透明の平面状の二次元オブジェクト(いわゆる、「書き割り」)を用いることができる。 Further, when the color appearance is changed by the process of superimposing the transparent color, the initial value of the color information (hue, saturation, brightness, luminance, etc.) for each pixel is acquired in the same manner as described above. Then, based on the comparison result between the depth value and the reference value, it is only necessary to reset (update) the color information in which the transparent color is superimposed on the pixel displaying the object located far from the reference surface. In the process of superimposing the transmissive color, a transmissive color filter may be used. In this case, the filter is arranged in parallel to the reference plane at or near the reference plane. Then, image data may be generated by photographing the virtual space through the filter with a virtual camera. As such a transparent color filter, for example, a translucent planar two-dimensional object (so-called “writing split”) can be used.
あるいは、当該画素の色情報に対して任意の色を所定の率によりブレンドしてもよい。更に、各画素で表示する対象の深度値に応じて、ブレンド率を変更することにより、基準面より遠方にフォグを重畳させ、遠隔領域の誘目性を低くするようにしてもよい。また、モノトーン化処理も基本的に同様であり、基準面より遠方に位置する対象を表示する画素色を、初期の色情報に応じて、無彩色あるいは茶系色などによる濃淡表示に再設定(更新)すればよい。 Alternatively, an arbitrary color may be blended at a predetermined rate with respect to the color information of the pixel. Furthermore, by changing the blend rate in accordance with the depth value of the object to be displayed in each pixel, fog may be superimposed farther from the reference plane, thereby reducing the attractiveness of the remote area. The monotoning process is basically the same, and the pixel color for displaying an object located far from the reference plane is reset to gray or dark display with an achromatic color or brown color according to the initial color information ( Update).
なお、立体感を演出する対象は三次元オブジェクトに限定されない。例えば、基準面よりも手前に文字や記号、あるいは二次元画像を配置し、これらと遠隔領域とで色の様相を異ならせることにより、文字、記号、あるいは二次元画像を、画面の手前により一層飛び出して位置するように表示させることができる。また、基準面の位置は投影面と一致する態様に限定されず、投影面から手前に又は遠方に離して位置させてもよい。 Note that the target for producing a stereoscopic effect is not limited to a three-dimensional object. For example, by placing a character, symbol, or two-dimensional image in front of the reference plane, and making these colors different from each other in the remote area, the character, symbol, or two-dimensional image can be made even more in front of the screen. It can be displayed so as to pop out and be positioned. Further, the position of the reference plane is not limited to the aspect matching the projection plane, and may be positioned away from the projection plane or far away.
本発明は、表示部において仮想のオブジェクトを立体表示するための、視差を有する一対の仮想二次元画像を生成する、コンピュータプログラム及びコンピュータシステムに適用することができる。 The present invention can be applied to a computer program and a computer system that generate a pair of virtual two-dimensional images having parallax for stereoscopic display of a virtual object on a display unit.
1 ゲーム装置(コンピュータシステム)
30b 仮想空間生成手段
30c 視差画像生成手段
30d 色様相設定手段
50a ゲームプログラム(コンピュータプログラム)
100 仮想三次元空間
103 投影面
110 基準面
111 近接領域
112 遠隔領域
CL 仮想カメラ(左目用)
CR 仮想カメラ(右目用)
1 Game device (computer system)
30b Virtual space generation means 30c Parallax image generation means 30d Color appearance setting means 50a Game program (computer program)
100 Virtual three-
CR virtual camera (for right eye)
Claims (3)
オブジェクトを含む仮想の三次元空間を生成する仮想空間生成手段、
前記仮想三次元空間を一対の仮想カメラにより撮影し、視差を有する一対の仮想二次元画像を生成する視差画像生成手段、及び、
前記仮想三次元空間内に前記仮想カメラに対面する基準面を設定し、該基準面よりも前記仮想カメラに近い側の近接領域と、その反対側の遠隔領域とで、前記仮想カメラから見た色の様相が異なるように設定する色様相設定手段、
として機能させ、
前記色様相設定手段は、前記近接領域に存在するオブジェクトに対して、誘目性を高める処理を行う、コンピュータプログラム。 Computer
Virtual space generation means for generating a virtual three-dimensional space including objects,
Parallax image generating means for capturing the virtual three-dimensional space with a pair of virtual cameras and generating a pair of virtual two-dimensional images having parallax; and
A reference plane facing the virtual camera is set in the virtual three-dimensional space, and viewed from the virtual camera in a proximity area closer to the virtual camera than the reference plane and a remote area on the opposite side Color appearance setting means for setting the color appearance to be different,
To function as,
The color appearance setting unit is a computer program that performs processing for enhancing the attractiveness of an object existing in the proximity region .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012156513A JP6034079B2 (en) | 2012-07-12 | 2012-07-12 | Computer program and computer system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012156513A JP6034079B2 (en) | 2012-07-12 | 2012-07-12 | Computer program and computer system |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016089148A Division JP6125692B2 (en) | 2016-04-27 | 2016-04-27 | Computer program and computer system |
JP2016089149A Division JP6259487B2 (en) | 2016-04-27 | 2016-04-27 | Computer program and computer system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014022772A JP2014022772A (en) | 2014-02-03 |
JP6034079B2 true JP6034079B2 (en) | 2016-11-30 |
Family
ID=50197249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012156513A Active JP6034079B2 (en) | 2012-07-12 | 2012-07-12 | Computer program and computer system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6034079B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6530453B2 (en) * | 2017-07-19 | 2019-06-12 | 株式会社カプコン | Game program and game system |
JP7304702B2 (en) * | 2019-01-30 | 2023-07-07 | 株式会社コーエーテクモゲームス | Game program, recording medium, game processing method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2478157A (en) * | 2010-02-26 | 2011-08-31 | Sony Corp | Method and apparatus for cutting between a first and second image sequence in a stereoscopic video |
JP5689637B2 (en) * | 2010-09-28 | 2015-03-25 | 任天堂株式会社 | Stereoscopic display control program, stereoscopic display control system, stereoscopic display control apparatus, and stereoscopic display control method |
JP5572532B2 (en) * | 2010-12-10 | 2014-08-13 | 任天堂株式会社 | Display control program, display control device, display control method, and display control system |
-
2012
- 2012-07-12 JP JP2012156513A patent/JP6034079B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014022772A (en) | 2014-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5791433B2 (en) | Information processing program, information processing system, information processing apparatus, and information processing method | |
WO2016203792A1 (en) | Information processing device, information processing method, and program | |
JP5947111B2 (en) | Apparatus and method for controlling a plurality of objects in a stereoscopic display | |
US20110306413A1 (en) | Entertainment device and entertainment methods | |
JP5675260B2 (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
JP5572532B2 (en) | Display control program, display control device, display control method, and display control system | |
JP2012068977A (en) | Game processing program, device, system and method | |
JP5738077B2 (en) | Display control program, display device, display system, and display control method | |
US20120075294A1 (en) | Information processing apparatus including plurality of display portions and information processing system | |
JP5689637B2 (en) | Stereoscopic display control program, stereoscopic display control system, stereoscopic display control apparatus, and stereoscopic display control method | |
JP2012073782A (en) | Image generation program, imaging device, imaging system and image generation method | |
JP2012164236A (en) | Object | |
JP2013168897A (en) | Display control program, display control apparatus, display control system, and display control method | |
JP2012174238A (en) | Image processing program, image processor, image processing method and image processing system | |
JP2012142804A (en) | Display control program, display controller, display control method, and display control system | |
JP6034079B2 (en) | Computer program and computer system | |
JP2012141819A (en) | Image processing system, image processing program, image processing method and image processing device | |
JP2012059008A (en) | Program, information storage medium and image generation system | |
JP6259487B2 (en) | Computer program and computer system | |
JP6125692B2 (en) | Computer program and computer system | |
JP2012164235A (en) | Program, information storage medium, reader, and server | |
JP7116410B2 (en) | Program and image generation system | |
JP5685079B2 (en) | Image processing apparatus, image processing program, image processing method, and image processing system | |
JP5777332B2 (en) | GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME METHOD | |
JP5770018B2 (en) | Display control program, display control apparatus, display control method, and display control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161027 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6034079 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |