JP6034079B2 - Computer program and computer system - Google Patents

Computer program and computer system Download PDF

Info

Publication number
JP6034079B2
JP6034079B2 JP2012156513A JP2012156513A JP6034079B2 JP 6034079 B2 JP6034079 B2 JP 6034079B2 JP 2012156513 A JP2012156513 A JP 2012156513A JP 2012156513 A JP2012156513 A JP 2012156513A JP 6034079 B2 JP6034079 B2 JP 6034079B2
Authority
JP
Japan
Prior art keywords
virtual
game
display
reference plane
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012156513A
Other languages
Japanese (ja)
Other versions
JP2014022772A (en
Inventor
祐介 時田
祐介 時田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2012156513A priority Critical patent/JP6034079B2/en
Publication of JP2014022772A publication Critical patent/JP2014022772A/en
Application granted granted Critical
Publication of JP6034079B2 publication Critical patent/JP6034079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、表示部において仮想のオブジェクトを立体表示するための、視差を有する一対の仮想二次元画像を生成する、コンピュータプログラム及びコンピュータシステムに関する。   The present invention relates to a computer program and a computer system for generating a pair of virtual two-dimensional images having parallax for stereoscopic display of a virtual object on a display unit.

近年、ゲーム機やテレビなどの映像表示装置に表示されるコンテンツとして、両眼視差を利用した立体表示の可能な画像を含むものが提供されている。そして、このようなコンテンツにおいて、表示する立体画像をユーザがより立体視できるようにする提案がなされている(特許文献1参照)。なお、この特許文献では、立体表示のシステムとして裸眼での立体視を可能とするパララックス方式(視差バリア方式)を採用した例が開示されている。   In recent years, content including images that can be stereoscopically displayed using binocular parallax has been provided as content displayed on video display devices such as game machines and televisions. In such content, a proposal has been made to allow a user to more stereoscopically view a stereoscopic image to be displayed (see Patent Document 1). This patent document discloses an example in which a parallax system (parallax barrier system) that enables stereoscopic viewing with the naked eye is adopted as a stereoscopic display system.

特開2012−3350JP2012-3350

しかしながら、例えば可搬型のゲーム機などの場合、そこに備えられた映像表示装置が比較的小さいので立体感の向上が困難である。そのため、上記特許文献に記載された技術では、小さい映像表示装置において、ユーザが十分満足できる程度に三次元オブジェクトを立体表示することができない。特に、画面の手前側に飛び出して位置するように立体表示する場合は、画面が小さいと、飛び出し量が大きくなるようなコンテンツを作成するのが困難になる。   However, in the case of a portable game machine, for example, it is difficult to improve the stereoscopic effect because the video display device provided therein is relatively small. Therefore, with the technique described in the above-mentioned patent document, a three-dimensional object cannot be three-dimensionally displayed in a small video display device to the extent that a user can be satisfied sufficiently. In particular, in the case of three-dimensional display so as to jump out and be positioned on the front side of the screen, if the screen is small, it is difficult to create content that increases the pop-out amount.

そこで本発明は、映像表示装置に表示されたオブジェクトに対し、ユーザが得る立体感を向上させることのできるコンピュータプログラム及びコンピュータシステムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a computer program and a computer system that can improve a stereoscopic effect obtained by a user with respect to an object displayed on a video display device.

本発明に係るコンピュータプログラムは、コンピュータを、オブジェクトを含む仮想の三次元空間を生成する仮想空間生成手段、前記仮想三次元空間を一対の仮想カメラにより撮影し、視差を有する一対の仮想二次元画像を生成する視差画像生成手段、及び、前記仮想三次元空間内に前記仮想カメラに対面する基準面を設定し、該基準面よりも前記仮想カメラに近い側の近接領域と、その反対側の遠隔領域とで、前記仮想カメラから見た色の様相が異なるように設定する色様相設定手段、として機能させる。   A computer program according to the present invention includes a virtual space generating means for generating a virtual three-dimensional space including an object, a pair of virtual two-dimensional images having a parallax, wherein the virtual three-dimensional space is photographed by a pair of virtual cameras. And a parallax image generating means for generating a reference area that faces the virtual camera in the virtual three-dimensional space, a proximity area closer to the virtual camera than the reference plane, and a remote area on the opposite side It is made to function as a color appearance setting means for setting the color appearance as seen from the virtual camera to be different depending on the area.

このような構成により、仮想三次元空間において仮想カメラに近い近接領域と、仮想カメラから遠い遠隔領域とで色の様相が異なる。従って、基準面より仮想カメラに近いオブジェクトに対するユーザの注意を惹くことができ、オブジェクトの立体感を向上させることができる。   With such a configuration, the color appearance is different between the proximity region close to the virtual camera and the remote region far from the virtual camera in the virtual three-dimensional space. Therefore, it is possible to attract the user's attention to the object closer to the virtual camera than the reference plane, and to improve the stereoscopic effect of the object.

また、前記色様相設定手段は、1つのオブジェクトが前記基準面を跨いで位置する場合には、該オブジェクトにおいて前記近接領域に含まれる部分と前記遠隔領域に含まれる部分とで、前記仮想カメラから見た色の様相が異なるように設定することとしてもよい。   In addition, when one object is located across the reference plane, the color appearance setting unit includes a portion included in the proximity region and a portion included in the remote region in the object from the virtual camera. It is good also as setting so that the aspect of the seen color may differ.

このような構成により、基準面を跨いで位置するオブジェクトについて、基準面より手前に含まれる部分の立体感を向上させることができる。   With such a configuration, it is possible to improve the stereoscopic effect of the portion included in front of the reference plane for the object positioned across the reference plane.

また、前記基準面は、前記一対の仮想カメラが撮影した前記仮想三次元空間を投影する投影面に設定されてもよい。   The reference plane may be set as a projection plane that projects the virtual three-dimensional space captured by the pair of virtual cameras.

一般的に投影面は映像表示装置の表示面に一致するように設定される。従って、上記構成により、表示面に対するオブジェクトの奥行き表現(即ち、立体感)を強調することができる。   In general, the projection plane is set to coincide with the display plane of the video display device. Therefore, with the above configuration, it is possible to emphasize the depth expression (that is, stereoscopic effect) of the object with respect to the display surface.

また、前記色様相設定手段は、前記近接領域に存在するオブジェクトに対して、誘目性を高める処理を行うものであってもよい。   In addition, the color appearance setting unit may perform a process for increasing the attractiveness of an object existing in the proximity area.

また、前記色様相設定手段は、前記近接領域に存在するオブジェクトに対して、彩度を高める処理、明度を高める処理、輝度を高める処理、のうち少なくとも何れか一つの処理を行うものであってもよい。   Further, the color appearance setting means performs at least one of a process for increasing saturation, a process for increasing lightness, and a process for increasing luminance on an object existing in the adjacent area. Also good.

このような構成により、近接領域に存在するオブジェクトに対するユーザの注意を積極的に惹くことができ、オブジェクトの立体感を向上させることができる。   With such a configuration, it is possible to actively attract the user's attention to the object existing in the proximity area, and to improve the stereoscopic effect of the object.

また、前記色様相設定手段は、前記遠隔領域に対して誘目性を低くする処理を行うものであってもよい。   In addition, the color appearance setting unit may perform processing for reducing the attractiveness of the remote area.

また、前記色様相設定手段は、前記基準面に半透明のオブジェクトを配置することとしてもよい。   Further, the color appearance setting means may arrange a translucent object on the reference plane.

また、前記色様相設定手段は、前記遠隔領域に対して、彩度を低くする処理、明度を低くする処理、輝度を低くする処理、透過性色を重畳する処理、モノトーン化する処理、のうち少なくとも何れか一つの処理を行うものであってもよい。   Further, the color appearance setting means includes a process for lowering saturation, a process for lowering brightness, a process for lowering brightness, a process for superimposing transparent colors, and a process for making a monotone for the remote area. At least one of the processes may be performed.

このような構成により、相対的に近接領域に存在するオブジェクトに対するユーザの注意を惹くことができ、オブジェクトの立体感を向上させることができる。   With such a configuration, it is possible to attract the user's attention to an object that is present in a relatively close area, and to improve the stereoscopic effect of the object.

また、本発明に係るコンピュータシステムは、上述した何れかに記載のゲームプログラムを記憶したプログラム記憶部と、該プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備えている。   A computer system according to the present invention includes a program storage unit that stores the game program described above, and a computer that executes the program stored in the program storage unit.

本発明によれば、映像表示装置に表示されたオブジェクトに対し、ユーザが得る立体感を向上させることのできるコンピュータプログラム及びコンピュータシステムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the computer program and computer system which can improve the stereoscopic effect which a user obtains with respect to the object displayed on the video display apparatus can be provided.

ゲーム装置(コンピュータシステム)の外観構成を示す正面図である。It is a front view which shows the external appearance structure of a game device (computer system). ゲーム装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a game device. 制御部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a control part. 仮想三次元空間を表した模式的な平面図である。It is a typical top view showing virtual three-dimensional space. 色様相設定処理を施した仮想空間の立体画像の模式図である。It is a schematic diagram of the three-dimensional image of the virtual space which performed the color appearance setting process. 立体画像の生成処理内容を示すフローチャートである。It is a flowchart which shows the production | generation processing content of a stereo image.

以下、本発明の実施の形態に係るコンピュータプログラム及びコンピュータシステムについて、図面を参照しつつ説明する。なお、本実施の形態では、コンピュータプログラムの一例としてゲームプログラムを例示し、コンピュータシステムとして可搬型ゲーム装置を例示する。但し、本発明の適用対象はこれらに限定されず、例えば、可搬型又は据え置き型の各種コンピュータ装置、テレビ、携帯電話など、画像を含むコンテンツを表示可能な映像表示装置、及び、このような映像表示装置にて立体表示するためのコンピュータプログラムに適用することができる。   Hereinafter, a computer program and a computer system according to embodiments of the present invention will be described with reference to the drawings. In this embodiment, a game program is illustrated as an example of a computer program, and a portable game device is illustrated as a computer system. However, the application target of the present invention is not limited to these, and for example, a video display device capable of displaying content including images, such as various portable or stationary computer devices, a television, a mobile phone, and the like. The present invention can be applied to a computer program for stereoscopic display on a display device.

[ハードウェアの構成]
図1は、本発明の実施の形態に係る可搬型のゲーム装置(コンピュータシステム)1の外観構成を示す正面図である。図1に示すようにゲーム装置1は、横長の薄型直方体形状を成す下側本体2と、同様の直方体形状を成す上側本体3とを備えている。下側本体2の上辺部分と上側本体3の下辺部分との間はヒンジ4で接続されている。従って、下側本体2の前面と上側本体3の前面とが対向するように閉じたり、その状態から図1に示す状態に開いたりすることができる。
[Hardware configuration]
FIG. 1 is a front view showing an external configuration of a portable game device (computer system) 1 according to an embodiment of the present invention. As shown in FIG. 1, the game apparatus 1 includes a lower main body 2 having a horizontally long thin rectangular parallelepiped shape and an upper main body 3 having a similar rectangular parallelepiped shape. A hinge 4 is connected between the upper side portion of the lower body 2 and the lower side portion of the upper body 3. Therefore, it can be closed so that the front surface of the lower main body 2 and the front surface of the upper main body 3 face each other, or can be opened from that state to the state shown in FIG.

各本体2,3に設けられたデバイスについて概説すると、まず下側本体2の前面中央部には、例えば半透過型カラー液晶ディスプレイで構成された長方形状の第1ディスプレイ6が設けられている。この第1ディスプレイ6の表面にはタッチパネルが設けられており、これとタッチペン(図示せず)とで公知のポインティングデバイスが構成されている。   The device provided in each of the main bodies 2 and 3 will be outlined. First, a rectangular first display 6 made of, for example, a transflective color liquid crystal display is provided in the center of the front surface of the lower main body 2. A touch panel is provided on the surface of the first display 6, and this and a touch pen (not shown) constitute a known pointing device.

第1ディスプレイ6の左側には、電源ボタン7と十字キー8とが上下に配設され、右側には、2つのボタンを含む操作ボタン9と、A,B,X,Yの4つのボタンを含む操作ボタン10とが上下に配設されている。また、操作ボタン10の下方には電源のオン/オフ状態を示す表示灯11が設けられている。更に、下側本体2の左上角部分にはLボタン12が配設され、右上角部分にはRボタン13が配設されている。   On the left side of the first display 6, a power button 7 and a cross key 8 are arranged up and down, and on the right side are an operation button 9 including two buttons and four buttons A, B, X, and Y. Including operation buttons 10 are arranged up and down. In addition, an indicator lamp 11 indicating a power on / off state is provided below the operation button 10. Further, an L button 12 is disposed at the upper left corner of the lower body 2 and an R button 13 is disposed at the upper right corner.

一方、上側本体3の前面中央部には、例えば半透過型カラー液晶ディスプレイで構成された長方形状の第2ディスプレイ(映像表示装置)15が設けられ、その左右には、スピーカ16が配設されている。第2ディスプレイ15は、立体視可能な画像を表示できる映像表示装置であって、例えば、パララックスバリア(parallax barrier)方式(視差バリア方式)により、左目用画像と右目用画像とを表示する。従って、ユーザは裸眼により立体視することができる。なお、立体画像の表示方式は上記に限定されない。例えば、同様に裸眼立体視のできるレンチキュラ(lenticular)方式でもよいし、専用メガネを使用する、アナグリフ(anaglyph)の原理に基づく方式、偏光フィルタを用いる方式、液晶シャッタを用いる方式などでもよい。   On the other hand, a rectangular second display (video display device) 15 composed of a transflective color liquid crystal display, for example, is provided at the center of the front surface of the upper body 3, and speakers 16 are provided on the left and right sides thereof. ing. The second display 15 is a video display device capable of displaying a stereoscopically visible image, and displays a left-eye image and a right-eye image, for example, by a parallax barrier method (parallax barrier method). Therefore, the user can view stereoscopically with the naked eye. Note that the stereoscopic image display method is not limited to the above. For example, a lenticular method capable of autostereoscopic viewing similarly, a method using dedicated glasses, a method based on the anaglyph principle, a method using a polarizing filter, a method using a liquid crystal shutter, or the like may be used.

図1には図示しないが、下側本体2の上辺部分であって、ゲーム装置1を開いたときの上側本体3の背面側の部分には、本実施の形態に係るゲームプログラム(コンピュータプログラム)50a等を記録したゲームメディア50を挿脱可能なメディアインタフェース(図2のメディアインタフェース45参照)が設けられている。また、上述した下側本体2に設けられたデバイスと上側本体3に設けられたデバイスとは、ヒンジ4の近傍に設けられた多導線の帯状ケーブル5を介して電気的に接続されている。   Although not shown in FIG. 1, a game program (computer program) according to the present embodiment is provided on the upper side of the lower main body 2 and on the rear side of the upper main body 3 when the game apparatus 1 is opened. A media interface (see the media interface 45 in FIG. 2) is provided in which the game media 50 in which 50a is recorded can be inserted and removed. The device provided in the lower main body 2 and the device provided in the upper main body 3 are electrically connected via a multi-conductor band-shaped cable 5 provided in the vicinity of the hinge 4.

図2は、ゲーム装置1の内部構成を示すブロック図である。ゲーム装置1は制御部30を備えており、該制御部30は、CPU31、描画処理プロセッサ32、音声処理プロセッサ33、入力信号処理部34、RAM(Random Access Memory)35、及びROM(Read Only Memory)36を含んでいる。更にゲーム装置1は、この他にもVRAM(Video-RAM)40、D/A(Digital- Analog)変換器41、上記第1ディスプレイ6及び第2ディスプレイ15、アンプ42、上記スピーカ16、上記タッチパネル43、操作部44、メディアインタフェース45、及びバス46を備えている。そして、これらのうちCPU31、描画処理プロセッサ32、音声処理プロセッサ33、入力信号処理部34、RAM35、ROM36、操作部44、及びメディアインタフェース45は、バス46によって相互にデータ伝送可能に接続されている。   FIG. 2 is a block diagram showing an internal configuration of the game apparatus 1. The game apparatus 1 includes a control unit 30. The control unit 30 includes a CPU 31, a drawing processor 32, a sound processor 33, an input signal processor 34, a RAM (Random Access Memory) 35, and a ROM (Read Only Memory). ) Contains 36. Further, the game apparatus 1 includes a VRAM (Video-RAM) 40, a D / A (Digital-Analog) converter 41, the first display 6 and the second display 15, the amplifier 42, the speaker 16, and the touch panel. 43, an operation unit 44, a media interface 45, and a bus 46. Among these components, the CPU 31, the drawing processor 32, the audio processor 33, the input signal processor 34, the RAM 35, the ROM 36, the operation unit 44, and the media interface 45 are connected to each other via a bus 46 so as to be able to transmit data to each other. .

このうち操作部44は、図1に示した十字キー8、操作ボタン9,10、Lボタン12、及びRボタン13を含む操作子であり、プレイヤの操作を受け付けて、その操作内容(押圧入力の有無)に応じた操作信号をCPU31へ入力する。また、操作部44には操作子以外に電源ボタン7も含まれており、該電源ボタン7が操作されると、各部に電力が供給されてゲーム装置1が起動し、各操作子への操作入力が有効になる。   The operation unit 44 is an operation unit including the cross key 8, the operation buttons 9 and 10, the L button 12 and the R button 13 shown in FIG. An operation signal corresponding to the presence or absence) is input to the CPU 31. The operation unit 44 also includes a power button 7 in addition to the operator. When the power button 7 is operated, power is supplied to each unit and the game apparatus 1 is activated to operate each operator. The input is valid.

メディアインタフェース45は、ゲーム装置1の外部から接続された記録媒体であるゲームメディア50にアクセスして、これに記憶されたゲームプログラム50a及びゲームデータ50bを読み出す。ゲームプログラム50aは、ゲーム装置1にてプレイするゲームを実行させるプログラムであり、ゲームデータ50bは、上記ゲームを実行する上で必要なデータであって、例えば各登場キャラクタや背景の画像データ、ステータスなどの情報表示用の画像データ、効果音やBGMなどの音声データ、文字や記号によるメッセージデータ等が含まれる。なお、ゲームメディア50は、半導体メモリや、光ディスクの一種であるUMD(Universal Media Disc)(登録商標)などを採用することができる。   The media interface 45 accesses the game media 50, which is a recording medium connected from the outside of the game apparatus 1, and reads the game program 50a and game data 50b stored therein. The game program 50a is a program for executing a game to be played on the game device 1, and the game data 50b is data necessary for executing the above-described game, and includes, for example, each character and background image data, status Image data for information display such as sound data such as sound effects and BGM, message data using characters and symbols, and the like. The game media 50 may employ a semiconductor memory, UMD (Universal Media Disc) (registered trademark), which is a kind of optical disc, or the like.

RAM35には、ゲームの進行に応じてゲームメディア50から読み込まれたゲームプログラム50a及びゲームデータ50bを格納するロードエリア、並びに、CPU31がゲームプログラム50aを処理する際に使用するためのワークエリアが設定されている。ROM36には、ゲームメディア50に記憶されているゲームプログラム50a及びゲームデータ50bの読み出し処理を制御するプログラムなど、ゲーム装置1を動作させるための基本プログラムが記憶されている。   In the RAM 35, a load area for storing the game program 50a and the game data 50b read from the game media 50 in accordance with the progress of the game, and a work area for use when the CPU 31 processes the game program 50a are set. Has been. The ROM 36 stores a basic program for operating the game apparatus 1, such as a program for controlling the reading process of the game program 50a and the game data 50b stored in the game media 50.

入力信号処理部34は、ユーザがタッチパネル43(第1ディスプレイ6の表面)に対してタッチペンの先端を接触させる入力操作を行った場合に、その接触点のタッチパネル43上の座標に基づいて接触点の位置情報を検出し、該位置情報を示す信号をCPU31へ出力する。   When the user performs an input operation for bringing the tip of the touch pen into contact with the touch panel 43 (the surface of the first display 6), the input signal processing unit 34 is based on the coordinates of the touch point on the touch panel 43. Is detected, and a signal indicating the position information is output to the CPU 31.

CPU31は、ゲームメディア50に記録されているゲームプログラム50a及びゲームデータ50bの全部または一部を、メディアインタフェース45を通じてRAM35に読み込み、ユーザによるタッチパネル43又は操作部44に対する操作入力に応じてこれを実行し、ゲーム進行を制御する。より具体的には、ユーザ操作によりタッチパネル43又は操作部44から信号が入力されると、CPU31は、ゲームプログラム50aに従ってその操作信号に対応する所定のゲーム進行処理を行い、その処理結果を、ゲーム進行を示す画像として第1ディスプレイ6又は第2ディスプレイ15に表示すると共に、ゲーム進行を示す音声信号をスピーカ16に出力する。   The CPU 31 reads all or part of the game program 50a and the game data 50b recorded in the game media 50 into the RAM 35 through the media interface 45, and executes them according to the operation input to the touch panel 43 or the operation unit 44 by the user. And control the game progress. More specifically, when a signal is input from the touch panel 43 or the operation unit 44 by a user operation, the CPU 31 performs a predetermined game progress process corresponding to the operation signal according to the game program 50a, and the process result is displayed as a game. An image indicating the progress is displayed on the first display 6 or the second display 15 and an audio signal indicating the progress of the game is output to the speaker 16.

画像の描画は、CPU31の指示により描画処理プロセッサ32が行う。即ち、CPU31は、タッチパネル43又は操作部44から入力された信号に基づき、第1ディスプレイ6又は第2ディスプレイ15に表示すべき画像の内容を決定し、その内容に対して必要な描画データを描画処理プロセッサ32に生成させる。描画処理プロセッサ32は、生成した描画データに基づいて画像データを生成し、この画像データをVRAM40に書き込む。D/A変換器41は、VRAM40から出力された画像データを順次アナログ信号に変換し、第1ディスプレイ6又は第2ディスプレイ15へ出力(表示)する。   The drawing processor 32 performs drawing of an image in accordance with an instruction from the CPU 31. That is, the CPU 31 determines the contents of an image to be displayed on the first display 6 or the second display 15 based on a signal input from the touch panel 43 or the operation unit 44, and draws necessary drawing data for the contents. The processor 32 is generated. The drawing processor 32 generates image data based on the generated drawing data, and writes this image data into the VRAM 40. The D / A converter 41 sequentially converts the image data output from the VRAM 40 into an analog signal and outputs (displays) it to the first display 6 or the second display 15.

上述したように本ゲーム装置1の第2ディスプレイ15は立体画像を表示でき、その描画も上記描画処理プロセッサ32が行う。例えば、仮想三次元空間に一対の仮想カメラを配置し、描画処理プロセッサ32は、夫々で撮影した互いに視差を有する左目用及び右目用の仮想二次元画像のデータを生成する。そして、この画像データはVRAM40において適宜のフォーマットで記録され、更にD/A変換器41を経て第2ディスプレイ15へ出力(表示)される。第2ディスプレイ15は、この画像データを適宜の方式(本実施の形態では、パララックスバリア方式)で出力することにより、立体視可能な画像が表示される。   As described above, the second display 15 of the game apparatus 1 can display a stereoscopic image, and the drawing processor 32 also draws the stereoscopic image. For example, a pair of virtual cameras are arranged in a virtual three-dimensional space, and the rendering processor 32 generates data of virtual two-dimensional images for left eye and right eye that have a parallax taken with each other. This image data is recorded in an appropriate format in the VRAM 40, and further output (displayed) to the second display 15 via the D / A converter 41. The second display 15 outputs a stereoscopically viewable image by outputting the image data by an appropriate method (a parallax barrier method in the present embodiment).

また、CPU31は、ゲームの進行に応じて、スピーカ16から出力すべき効果音やBGM等の音声を決定し、その音声を発音するための音声データをRAM35から読み出して音声処理プロセッサ33に入力する。即ち、CPU31は、ゲームの進行に伴って発音イベントが発生すると、その発音イベントに応じた音声データ(ゲームメディア50からロードされた音声データ)をRAM35から読み出して音声処理プロセッサ33に入力する。音声処理プロセッサ33は、DSP(Digital Signal Processor)で構成されており、CPU31によって入力された音声データに対して所定の効果(例えば、リバーブ、コーラスなど)を付与したのちアナログ信号に変換して、アンプ42に出力する。アンプ42は、音声処理プロセッサ33から入力された音声信号を増幅したのちスピーカ16に出力する。   Further, the CPU 31 determines sound effects such as sound effects and BGM to be output from the speaker 16 in accordance with the progress of the game, reads out sound data for generating the sound from the RAM 35, and inputs the sound data to the sound processor 33. . That is, when a sound generation event occurs with the progress of the game, the CPU 31 reads out sound data corresponding to the sound generation event (voice data loaded from the game media 50) from the RAM 35 and inputs it to the sound processing processor 33. The audio processor 33 is configured by a DSP (Digital Signal Processor), and after giving a predetermined effect (for example, reverb, chorus, etc.) to the audio data input by the CPU 31, it is converted into an analog signal, Output to amplifier 42. The amplifier 42 amplifies the audio signal input from the audio processor 33 and then outputs it to the speaker 16.

[制御部の機能的構成]
図3は、ゲーム装置1が備える制御部30の機能的な構成を示すブロック図である。ゲーム装置1の制御部30は、ゲームメディア50から読み込んだゲームプログラム50a及びゲームデータ50bを実行することにより、ゲーム進行制御手段30a、仮想空間生成手段30b、視差画像生成手段30c、色様相設定手段30d、及び、立体画像出力手段30eなどの機能を発揮する。
[Functional configuration of control unit]
FIG. 3 is a block diagram illustrating a functional configuration of the control unit 30 included in the game apparatus 1. The control unit 30 of the game apparatus 1 executes the game program 50a and the game data 50b read from the game media 50, so that the game progress control means 30a, the virtual space generation means 30b, the parallax image generation means 30c, the color appearance setting means Functions such as 30d and stereoscopic image output means 30e are exhibited.

このうちゲーム進行制御手段30aは、ユーザによるタッチパネル43又は操作部44の操作等に応じてゲームを進行させ、プレイヤキャラクタや敵キャラクタ等の行動も制御する。仮想空間生成手段30bは、ユーザが操作するプレイヤキャラクタや敵キャラクタが行動する仮想三次元空間(各キャラクタや仮想三次元空間の一部を成すオブジェクト等を含む)を生成する。視差画像生成手段30cは、前述のように、仮想三次元空間を一対の仮想カメラにより撮影し、視差を有する一対の仮想二次元画像を生成する。色様相設定手段30dは、仮想三次元空間内に仮想カメラに対面する基準面を設定し、該基準面よりも仮想カメラに近い側の近接領域と、その反対側の遠隔領域とで、仮想カメラから見た色の様相が異なるようにする(詳しくは後述)。立体画像出力手段30eは、仮想カメラにより撮影された一対の仮想二次元画像に基づき、第2ディスプレイ15にて立体画像を表示する。なお、仮想カメラや一部のオブジェクトは、例えばユーザの操作等に応じて仮想三次元空間内を移動可能になっている。   Among these, the game progress control means 30a advances the game in accordance with the operation of the touch panel 43 or the operation unit 44 by the user, and controls actions of the player character, enemy character, and the like. The virtual space generation unit 30b generates a virtual three-dimensional space (including an object that forms a part of each character and the virtual three-dimensional space) in which a player character or an enemy character operated by the user acts. As described above, the parallax image generation unit 30c captures a virtual three-dimensional space with a pair of virtual cameras, and generates a pair of virtual two-dimensional images having parallax. The color appearance setting means 30d sets a reference plane facing the virtual camera in the virtual three-dimensional space, and the virtual camera includes a proximity area closer to the virtual camera than the reference plane and a remote area on the opposite side. The color appearance seen from the above should be different (details will be described later). The stereoscopic image output means 30e displays a stereoscopic image on the second display 15 based on a pair of virtual two-dimensional images photographed by the virtual camera. Note that the virtual camera and some objects are movable in the virtual three-dimensional space in accordance with, for example, a user operation.

[立体画像の表示処理]
次に、制御部30が行う立体画像の表示処理について説明する。図4は、立体表示する仮想三次元空間(以下、「仮想空間」)を表した模式的な平面図である。ここに示す例では、仮想空間100に、三次元オブジェクトを成す矩形オブジェクト101と球形オブジェクト102とが設けられている。また、仮想空間100には、左目用画像及び右目用画像を夫々撮影するために、一対の仮想カメラCL,CRが左右に配設されている。これらの仮想カメラCL,CRは交差法(互いの光軸を交差させる方式)により配設され、図4では、オブジェクト101,102が夫々の画角内に含まれている。なお、仮想カメラCL,CRの配置には平行法(互いの光軸を平行にする方式)を用いてもよい。
[Stereoscopic image display processing]
Next, a stereoscopic image display process performed by the control unit 30 will be described. FIG. 4 is a schematic plan view showing a virtual three-dimensional space (hereinafter referred to as “virtual space”) for stereoscopic display. In the example shown here, a rectangular object 101 and a spherical object 102 forming a three-dimensional object are provided in the virtual space 100. In addition, in the virtual space 100, a pair of virtual cameras CL and CR are arranged on the left and right in order to shoot a left-eye image and a right-eye image, respectively. These virtual cameras CL and CR are arranged by a crossing method (a method of crossing the optical axes of each other). In FIG. 4, objects 101 and 102 are included in the respective angles of view. Note that a parallel method (a method in which the optical axes of the virtual cameras CL and CR are arranged parallel to each other) may be used.

左右の仮想カメラCL,CRの前方所定位置には、これらに対向する投影面103が設定されている。この投影面103は、左右の仮想カメラCL,LRに対して共通する単一面であり、投影面103上のものは、左右の仮想カメラCL,CRから見て視差がゼロである。図4では、矩形オブジェクト101の途中部分を横断するようにして投影面103が設定され、換言すれば、矩形オブジェクト101は投影面103を跨いで位置している。また、球形オブジェクト102は、投影面103より遠方(仮想カメラCL,CRから離れる方)に位置している。   Projection planes 103 are set at predetermined positions in front of the left and right virtual cameras CL and CR. This projection plane 103 is a single plane common to the left and right virtual cameras CL and LR, and the projection plane 103 has zero parallax when viewed from the left and right virtual cameras CL and CR. In FIG. 4, the projection plane 103 is set so as to cross the middle portion of the rectangular object 101, in other words, the rectangular object 101 is located across the projection plane 103. The spherical object 102 is located farther from the projection plane 103 (away from the virtual cameras CL and CR).

仮想カメラCL,CRは、投影面103に収まる範囲内で仮想空間100を夫々で撮影し、第2ディスプレイ15には、投影面103に投影された仮想空間100が立体的に表示される。即ち、描画処理プロセッサ32は、左右の仮想カメラCL,CRの撮影画像に対応する、一対(左目用及び右目用)の仮想二次元画像データを生成する。そして、これらを例えばパララックスバリア方式に従って出力することにより、第2ディスプレイ15には、オブジェクト101,102を含む仮想空間100が立体表示される。   The virtual cameras CL and CR each photograph the virtual space 100 within a range that can be accommodated on the projection plane 103, and the virtual space 100 projected on the projection plane 103 is displayed in a three-dimensional manner on the second display 15. That is, the drawing processor 32 generates a pair of virtual left- and right-eye image data (for left eye and right eye) corresponding to the captured images of the left and right virtual cameras CL and CR. Then, by outputting these in accordance with, for example, the parallax barrier method, the virtual space 100 including the objects 101 and 102 is stereoscopically displayed on the second display 15.

図4の場合、矩形オブジェクト101のうち、投影面103よりも手前に位置する前部101aは、第2ディスプレイ15の画面から手前に飛び出すように表示される。一方、投影面103より遠方に位置する後部101bや、球形オブジェクト102は、第2ディスプレイ15の画面の奥方向へ引っ込んで位置するように表示される。   In the case of FIG. 4, the front part 101 a located in front of the projection plane 103 in the rectangular object 101 is displayed so as to jump out from the screen of the second display 15. On the other hand, the rear portion 101b located far from the projection plane 103 and the spherical object 102 are displayed so as to be retracted and located in the back direction of the screen of the second display 15.

[色様相設定処理]
ここで、本ゲーム装置1は、立体感をより強調するために色様相設定処理を行う。この色様相設定処理では、仮想空間100内に、仮想カメラCL,CRに対面する所定の基準面110を設定すると共に、該基準面110よりも仮想カメラCL,CRに近い側の近接領域111と、その反対側の遠隔領域112とで、異なる色の様相を設定する。以下、色様相設定処理について更に詳述する。
[Color phase setting processing]
Here, the game apparatus 1 performs a color appearance setting process in order to further enhance the stereoscopic effect. In this color appearance setting process, a predetermined reference surface 110 facing the virtual cameras CL and CR is set in the virtual space 100, and the proximity region 111 closer to the virtual cameras CL and CR than the reference surface 110 A different color appearance is set in the remote area 112 on the opposite side. Hereinafter, the color appearance setting process will be described in more detail.

本実施の形態では、制御部30は、仮想空間100内の上記投影面103に重なるようにして基準面110を設定する。従って、図4に示す例では、矩形オブジェクト101がこの基準面110を跨いで位置し、球形オブジェクト102は基準面110より遠方に位置している。なお、図4では視認性を確保するために、投影面103に対して基準面110を若干ずらして表示している。そして、基準面110より手前の近接領域111に位置するオブジェクトに対して誘目性を高める処理、及び、基準面より遠方の遠隔領域112に対して誘目性を低くする処理、のうち、少なくとも一方を実行する。即ち、色様相設定処理には、誘目性を高める処理と誘目性を低くする処理とが含まれ得る。ここで、誘目性(attention value)とは、人の視覚的な注意を惹く度合いのことであり、誘目性が高いほど人の視覚的な注意を強く惹く。   In the present embodiment, the control unit 30 sets the reference plane 110 so as to overlap the projection plane 103 in the virtual space 100. Therefore, in the example shown in FIG. 4, the rectangular object 101 is located across the reference plane 110, and the spherical object 102 is located far from the reference plane 110. In FIG. 4, the reference plane 110 is displayed with a slight shift with respect to the projection plane 103 in order to ensure visibility. Then, at least one of a process for increasing the attractiveness for an object located in the proximity area 111 in front of the reference plane 110 and a process for reducing the attractiveness for the remote area 112 far from the reference plane is performed. Run. That is, the color appearance setting process may include a process for increasing the attractiveness and a process for reducing the attractiveness. Here, the attention value is the degree to which a person's visual attention is attracted, and the higher the attractiveness, the stronger the visual attention of the person.

誘目性を高める処理としては、例えば、彩度を高める処理、明度を高める処理、輝度を高める処理などが挙げられる。また、これらのうち複数の処理を同時に実行することとしてもよい。一方、誘目性を低くする処理としては、例えば、彩度を低くする処理、明度を低くする処理、輝度を低くする処理の他、透過性色を重畳する処理、編み目状などの微細パターンを重畳する処理、モノトーン化する処理なども挙げられる。また、これらのうち複数の処理を同時に実行することとしてもよい。   Examples of the process for increasing the attractiveness include a process for increasing saturation, a process for increasing lightness, and a process for increasing luminance. Moreover, it is good also as performing several processes simultaneously among these. On the other hand, as processing to reduce attractiveness, for example, processing to lower saturation, processing to lower brightness, processing to lower brightness, processing to superimpose transparent colors, and superimpose fine patterns such as stitches And a process for making a monotone. Moreover, it is good also as performing several processes simultaneously among these.

図5は、図4に示す仮想空間を立体表示するに際し、色様相設定処理を行ったときの立体画像の模式図である。このうち(a)は、近接領域111に位置するオブジェクトの表面に対して彩度を高める処理を行ったときの立体画像の模式図であり、(b)は、遠隔領域112に対して彩度を低くする処理を行ったときの立体画像の模式図である。なお、比較のため、(c)に、色様相設定処理を行っていない場合の立体画像の模式図を示す。   FIG. 5 is a schematic diagram of a stereoscopic image when a color appearance setting process is performed when the virtual space shown in FIG. 4 is stereoscopically displayed. Among these, (a) is a schematic diagram of a stereoscopic image when processing for increasing the saturation is performed on the surface of an object located in the close region 111, and (b) is a saturation for the remote region 112. It is a schematic diagram of a stereo image when the process which makes low is performed. For comparison, (c) shows a schematic diagram of a stereoscopic image when the color appearance setting process is not performed.

各オブジェクト101,102の表面には、表示フレーム毎に所定の彩度(初期値)が設定される。即ち、彩度は周辺環境(光の照度、霧などの光を散乱させる要素の有無など)に影響を受け、動画の場合には、同一箇所であっても表示されるフレーム毎に彩度の設定値が変化し得る。説明の便宜上、図4に示す状態では、矩形オブジェクト101の全表面に対し、例えば彩度の初期値が70%に設定されているものとする。   A predetermined saturation (initial value) is set for each display frame on the surfaces of the objects 101 and 102. In other words, the saturation is affected by the surrounding environment (such as the illuminance of light and the presence or absence of elements that scatter light such as fog). The set value can change. For convenience of explanation, in the state shown in FIG. 4, for example, the initial value of saturation is set to 70% with respect to the entire surface of the rectangular object 101.

まず、図5(a)に示す立体画像を生成する場合について説明する。図4に示すように、矩形オブジェクト101の前部101aは、基準面110の手前に位置している。従って、色様相設定手段30dは、矩形オブジェクト101のうち近接領域111に位置する前部101aの表面について、その彩度を高める処理を行う。例えば、矩形オブジェクト101の全表面の彩度は初期値が70%であるため、前部101aの表面の彩度をそれより高い90%に再設定(更新)する。これにより、図5(a)に示すように、基準面110よりも手前に位置する矩形オブジェクト101の前部101aの表面は、他の部分に比べて誘目性が向上し、ユーザの注意を喚起する。その結果、ユーザには、矩形オブジェクト101の前部101aが基準面110(即ち、第2ディスプレイ15の画面)から手前により一層飛び出しているように視認され、立体感が強調される。   First, a case where the stereoscopic image shown in FIG. 5A is generated will be described. As shown in FIG. 4, the front part 101 a of the rectangular object 101 is located in front of the reference plane 110. Therefore, the color appearance setting unit 30d performs a process of increasing the saturation of the surface of the front part 101a located in the proximity region 111 of the rectangular object 101. For example, since the initial value of the saturation of the entire surface of the rectangular object 101 is 70%, the saturation of the surface of the front part 101a is reset (updated) to 90% higher than that. As a result, as shown in FIG. 5A, the surface of the front portion 101a of the rectangular object 101 located in front of the reference plane 110 has improved attractiveness compared to other portions, and attracted the user's attention. To do. As a result, the user visually recognizes that the front part 101a of the rectangular object 101 protrudes further from the reference plane 110 (that is, the screen of the second display 15), and the stereoscopic effect is emphasized.

次に、図5(b)に示す立体画像を生成する場合について説明する。図4に示すように、矩形オブジェクト101の後部101bや球形オブジェクト102は、基準面110より遠方に位置している。従って、色様相設定手段30dは、矩形オブジェクト101の後部101bや球形オブジェクト102を含む遠隔領域112に対し、彩度を低くする処理を行う。例えば、矩形オブジェクト101の彩度は初期値が70%であるため、後部101bの表面の彩度をそれより低い40%に設定する。また、遠隔領域112に存在する他のオブジェクトや、遠隔領域112を構成する他の全要素に対しても同様に、個々に設定された初期値よりも低くなるように彩度を再設定(更新)する。これにより、図5(b)に示すように、基準面110より遠方の遠隔領域112の誘目性が、基準面110より手前に存在する矩形オブジェクト101の前部101aより低くなる。換言すれば、矩形オブジェクト101の前部101aは、他の部分に比べて相対的に誘目性が向上する。その結果、ユーザには矩形オブジェクト101の前部101aが第2ディスプレイ15の画面から手前により一層飛び出しているように視認され、立体感が強調される。   Next, a case where the stereoscopic image shown in FIG. 5B is generated will be described. As shown in FIG. 4, the rear part 101 b and the spherical object 102 of the rectangular object 101 are located farther from the reference plane 110. Therefore, the color appearance setting unit 30d performs a process of lowering the saturation on the remote area 112 including the rear part 101b of the rectangular object 101 and the spherical object 102. For example, since the initial value of the saturation of the rectangular object 101 is 70%, the saturation of the surface of the rear part 101b is set to 40% lower than that. Similarly, for other objects existing in the remote area 112 and all other elements constituting the remote area 112, the saturation is reset (updated) so that it is lower than the individually set initial value. ) As a result, as shown in FIG. 5B, the attractiveness of the remote area 112 far from the reference plane 110 is lower than that of the front portion 101 a of the rectangular object 101 existing in front of the reference plane 110. In other words, the front part 101a of the rectangular object 101 is relatively more attractive than the other parts. As a result, the user visually recognizes that the front portion 101a of the rectangular object 101 protrudes further from the screen of the second display 15, and the stereoscopic effect is enhanced.

図6は、図5に示すような立体画像を生成するときの処理内容を示すフローチャートである。この図6では、動画を構成する各フレームを、1フレーム毎に生成する場合を例示しており、このような処理は、制御部30が備える仮想空間生成手段30b、視差画像生成手段30c、及び色様相設定手段30dが分担して行う。   FIG. 6 is a flowchart showing the processing contents when generating a stereoscopic image as shown in FIG. FIG. 6 illustrates a case where each frame constituting the moving image is generated for each frame, and such processing is performed by the virtual space generating unit 30b, the parallax image generating unit 30c, and the like included in the control unit 30. The color aspect setting means 30d performs the sharing.

制御部30は、はじめに仮想空間を構成する各要素の設定(更新)を行う。即ち、仮想空間を構成するオブジェクトの設定(ステップS10)、光源及び仮想カメラの設定(ステップS11)、エフェクトの設定(ステップS12)などを行う。オブジェクトの設定(ステップS10)では、ポリゴン等を用いて予めモデリングされたオブジェクトについて、1フレーム経過後の位置、形状、テクスチャなどを決定する。光源の設定(ステップS11)では、1フレーム経過後の光源の位置、向き、光度などを決定し、仮想カメラの設定(ステップS11)では、1フレーム経過後の左右の仮想カメラの位置、向き、画角などを決定する。エフェクトの設定(ステップS12)では、例えば火の粉を表現する各パーティクルの位置、色、寿命などを決定し、フォグを表現するテクスチャの色やブレンド率を決定したりする。   The control unit 30 first sets (updates) each element constituting the virtual space. That is, the setting of objects constituting the virtual space (step S10), the setting of light sources and virtual cameras (step S11), the setting of effects (step S12), and the like are performed. In the object setting (step S10), the position, shape, texture, etc. after the elapse of one frame are determined for an object modeled in advance using a polygon or the like. In the light source setting (step S11), the position, orientation, luminous intensity, etc. of the light source after one frame elapses are determined. In the virtual camera setting (step S11), the position, orientation, Determine the angle of view. In the effect setting (step S12), for example, the position, color, life and the like of each particle expressing sparks are determined, and the texture color and blend ratio expressing fog are determined.

次に、制御部30は、上記のようにして設定した仮想空間に基づき、二次元画像を生成するためのレンダリング処理を行う。この処理は、左目用画像及び右目用画像の夫々について実行され、細分するとソリッド処理(ステップS20)、抜き処理(ステップS21)、トランスペアレンシー処理(ステップS22)、エフェクト処理(ステップS23)、スクリーン処理(ステップS24)などが含まれる。各処理で生成されたデータは、RAM35等に用意されたフレームバッファに順次書き込まれる。   Next, the control unit 30 performs a rendering process for generating a two-dimensional image based on the virtual space set as described above. This processing is executed for each of the left-eye image and the right-eye image. When subdivided, solid processing (step S20), removal processing (step S21), transparency processing (step S22), effect processing (step S23), and screen processing are performed. (Step S24) and the like are included. Data generated by each process is sequentially written in a frame buffer prepared in the RAM 35 or the like.

レンダリング処理に含まれる各処理について説明する。まず、ソリッド処理(ステップS20)では、不透明なオブジェクトを示す二次元のフレームデータを生成し、フレームバッファに書き込む。抜き処理(ステップS21)では、フレーム画像に含まれることとなる木の葉などの平面的なオブジェクトを示すフレームデータを生成し、フレームバッファに書き込む。トランスペアレンシー処理(ステップS22)では、透明なオブジェクトを示すフレームデータを生成し、フレームバッファに書き込む。   Each process included in the rendering process will be described. First, in the solid processing (step S20), two-dimensional frame data indicating an opaque object is generated and written into the frame buffer. In the extraction process (step S21), frame data indicating a planar object such as a leaf of a tree to be included in the frame image is generated and written into the frame buffer. In the transparency process (step S22), frame data indicating a transparent object is generated and written into the frame buffer.

エフェクト処理(ステップS23)では、例えば、火の粉などのパーティクルを示すフレームデータを生成し、フレームバッファに書き込む。また、例えば、フォグ用のテクスチャをブレンド率に応じて他のフレームデータと合成した結果を、フレームバッファに書き込む。スクリーン処理(ステップS24)では、仮想空間を構成するオブジェクト等に対して最も仮想カメラに近い位置に表示する二次元画像(例えば、プレイヤキャラクタの体力ゲージ、キャラクタの発言内容を示す文字列等)を示すフレームデータを生成し、フレームバッファに書き込む。   In the effect process (step S23), for example, frame data indicating particles such as sparks is generated and written to the frame buffer. Also, for example, the result of combining the fog texture with other frame data in accordance with the blend rate is written to the frame buffer. In the screen processing (step S24), a two-dimensional image (for example, a player character's physical strength gauge, a character string indicating the content of the character's remarks, etc.) displayed at a position closest to the virtual camera with respect to the objects constituting the virtual space is displayed. The frame data shown is generated and written to the frame buffer.

なお、図6に示すフローチャートは、説明の便宜上、各処理を図示した順序で実行するように記載しているが、実際には、採用するレンダリング方法に応じて異なる順序で実行したり、複数の処理を同時に実行したりする場合もある。また、仮想空間の状態に応じて必要な処理のみを実行すればよく、全ての処理を実行することが必要なわけではない。   In the flowchart shown in FIG. 6, for convenience of explanation, it is described that the processes are executed in the order shown in the figure, but actually, the processes are executed in different orders depending on the rendering method employed, In some cases, processing is executed simultaneously. Further, it is only necessary to execute necessary processes according to the state of the virtual space, and it is not necessary to execute all the processes.

色様相設定処理における彩度の再設定は、上記レンダリング処理に含まれるソリッド処理(ステップS20)にて実現できる。例えば、ソリッド処理において、各オブジェクトのテクスチャデータから、当該オブジェクトの表面の色情報として、対応する各画素の彩度(初期値)を取得する。一方、他のオブジェクトとの位置関係から、表示不要な部分を消去する隠面消去処理において、例えば公知のZバッファ法により各画素の深度値(仮想カメラからの距離)を取得する。そして、この深度値を基準面と比較し、各画素が表示する対象が基準面より手前に存在するのか遠方に存在するのかを判定する。   Saturation resetting in the hue setting processing can be realized by solid processing (step S20) included in the rendering processing. For example, in solid processing, the saturation (initial value) of each corresponding pixel is acquired from the texture data of each object as color information on the surface of the object. On the other hand, in the hidden surface erasing process for erasing a portion that does not require display from the positional relationship with another object, for example, the depth value (distance from the virtual camera) of each pixel is acquired by a known Z buffer method. Then, this depth value is compared with the reference plane, and it is determined whether the object to be displayed by each pixel is in front of or far from the reference plane.

その結果、基準面より手前に位置するオブジェクトに対応する画素に対しては、その彩度を初期値よりも高い値に更新する。これにより、図5(a)に例示したような立体画像を表示するためのフレームデータを生成することができる。また、これに替えて、ある画素について、基準面より遠方に位置する対象を表示するものと判定した場合に、当該画素の彩度を初期値よりも低い値に更新することとしてもよい。この場合には、図5(b)に例示したような立体画像を表示するためのフレームデータを生成することができる。更に、上述した両方の処理を共に実行してもよい。   As a result, for the pixel corresponding to the object located in front of the reference plane, the saturation is updated to a value higher than the initial value. Thereby, frame data for displaying a stereoscopic image as illustrated in FIG. 5A can be generated. Alternatively, when it is determined that an object located far from the reference plane is to be displayed for a certain pixel, the saturation of the pixel may be updated to a value lower than the initial value. In this case, frame data for displaying a stereoscopic image as illustrated in FIG. 5B can be generated. Furthermore, both the above-described processes may be executed together.

以上に説明したとおり、基準面110を境界とする近接領域111と遠隔領域112とで、異なる色の様相を設定することにより、基準面110よりも手前に位置するオブジェクトの立体感を高めることができる。   As described above, by setting different color appearances in the proximity area 111 and the remote area 112 with the reference plane 110 as a boundary, the stereoscopic effect of an object positioned in front of the reference plane 110 can be enhanced. it can.

なお、上記実施の形態では、色の様相として彩度を設定する場合を特に詳述したが、他の様相を設定する場合も同様にして実現でき、これによっても基準面110の手前に位置するオブジェクトの立体感を高めることができる。例えば、明度や輝度を設定する場合は、彩度の場合と同様に、ソリッド処理において画素ごとの明度や輝度の初期値を取得し、各画素の深度値と基準面との比較結果に基づき、各画素の明度や輝度を再設定すればよい。   In the above-described embodiment, the case where saturation is set as the color aspect has been described in detail. However, the case where other aspect is set can also be realized in the same manner, and this is also positioned in front of the reference plane 110. The stereoscopic effect of the object can be enhanced. For example, when setting brightness and brightness, as in the case of saturation, the initial value of brightness and brightness for each pixel is obtained in solid processing, and based on the comparison result between the depth value of each pixel and the reference plane, What is necessary is just to reset the brightness and brightness | luminance of each pixel.

また、透過性色を重畳する処理によって色の様相を変更する場合は、上記と同様にして画素ごとの色情報(色相、彩度、明度、輝度など)の初期値を取得する。そして、深度値と基準値との比較結果に基づき、基準面より遠方に位置する対象を表示する画素に対して、透過性色を重畳した色情報に再設定(更新)すればよい。また、透過性色を重畳する処理においては、透過性色のフィルタを用いてもよい。この場合、当該フィルタを基準面又はその近傍に該基準面と平行に配置する。そして、仮想カメラで該フィルタを通じて仮想空間を撮影して画像データを生成すればよい。このような透過性色のフィルタとしては、例えば半透明の平面状の二次元オブジェクト(いわゆる、「書き割り」)を用いることができる。   Further, when the color appearance is changed by the process of superimposing the transparent color, the initial value of the color information (hue, saturation, brightness, luminance, etc.) for each pixel is acquired in the same manner as described above. Then, based on the comparison result between the depth value and the reference value, it is only necessary to reset (update) the color information in which the transparent color is superimposed on the pixel displaying the object located far from the reference surface. In the process of superimposing the transmissive color, a transmissive color filter may be used. In this case, the filter is arranged in parallel to the reference plane at or near the reference plane. Then, image data may be generated by photographing the virtual space through the filter with a virtual camera. As such a transparent color filter, for example, a translucent planar two-dimensional object (so-called “writing split”) can be used.

あるいは、当該画素の色情報に対して任意の色を所定の率によりブレンドしてもよい。更に、各画素で表示する対象の深度値に応じて、ブレンド率を変更することにより、基準面より遠方にフォグを重畳させ、遠隔領域の誘目性を低くするようにしてもよい。また、モノトーン化処理も基本的に同様であり、基準面より遠方に位置する対象を表示する画素色を、初期の色情報に応じて、無彩色あるいは茶系色などによる濃淡表示に再設定(更新)すればよい。   Alternatively, an arbitrary color may be blended at a predetermined rate with respect to the color information of the pixel. Furthermore, by changing the blend rate in accordance with the depth value of the object to be displayed in each pixel, fog may be superimposed farther from the reference plane, thereby reducing the attractiveness of the remote area. The monotoning process is basically the same, and the pixel color for displaying an object located far from the reference plane is reset to gray or dark display with an achromatic color or brown color according to the initial color information ( Update).

なお、立体感を演出する対象は三次元オブジェクトに限定されない。例えば、基準面よりも手前に文字や記号、あるいは二次元画像を配置し、これらと遠隔領域とで色の様相を異ならせることにより、文字、記号、あるいは二次元画像を、画面の手前により一層飛び出して位置するように表示させることができる。また、基準面の位置は投影面と一致する態様に限定されず、投影面から手前に又は遠方に離して位置させてもよい。   Note that the target for producing a stereoscopic effect is not limited to a three-dimensional object. For example, by placing a character, symbol, or two-dimensional image in front of the reference plane, and making these colors different from each other in the remote area, the character, symbol, or two-dimensional image can be made even more in front of the screen. It can be displayed so as to pop out and be positioned. Further, the position of the reference plane is not limited to the aspect matching the projection plane, and may be positioned away from the projection plane or far away.

本発明は、表示部において仮想のオブジェクトを立体表示するための、視差を有する一対の仮想二次元画像を生成する、コンピュータプログラム及びコンピュータシステムに適用することができる。   The present invention can be applied to a computer program and a computer system that generate a pair of virtual two-dimensional images having parallax for stereoscopic display of a virtual object on a display unit.

1 ゲーム装置(コンピュータシステム)
30b 仮想空間生成手段
30c 視差画像生成手段
30d 色様相設定手段
50a ゲームプログラム(コンピュータプログラム)
100 仮想三次元空間
103 投影面
110 基準面
111 近接領域
112 遠隔領域
CL 仮想カメラ(左目用)
CR 仮想カメラ(右目用)
1 Game device (computer system)
30b Virtual space generation means 30c Parallax image generation means 30d Color appearance setting means 50a Game program (computer program)
100 Virtual three-dimensional space 103 Projection plane 110 Reference plane 111 Proximity area 112 Remote area CL Virtual camera (for left eye)
CR virtual camera (for right eye)

Claims (3)

コンピュータを、
オブジェクトを含む仮想の三次元空間を生成する仮想空間生成手段、
前記仮想三次元空間を一対の仮想カメラにより撮影し、視差を有する一対の仮想二次元画像を生成する視差画像生成手段、及び、
前記仮想三次元空間内に前記仮想カメラに対面する基準面を設定し、該基準面よりも前記仮想カメラに近い側の近接領域と、その反対側の遠隔領域とで、前記仮想カメラから見た色の様相が異なるように設定する色様相設定手段、
として機能させ
前記色様相設定手段は、前記近接領域に存在するオブジェクトに対して、誘目性を高める処理を行う、コンピュータプログラム。
Computer
Virtual space generation means for generating a virtual three-dimensional space including objects,
Parallax image generating means for capturing the virtual three-dimensional space with a pair of virtual cameras and generating a pair of virtual two-dimensional images having parallax; and
A reference plane facing the virtual camera is set in the virtual three-dimensional space, and viewed from the virtual camera in a proximity area closer to the virtual camera than the reference plane and a remote area on the opposite side Color appearance setting means for setting the color appearance to be different,
To function as,
The color appearance setting unit is a computer program that performs processing for enhancing the attractiveness of an object existing in the proximity region .
前記色様相設定手段は、前記近接領域に存在するオブジェクトに対して、彩度を高める処理、明度を高める処理、輝度を高める処理、のうち少なくとも何れか一つの処理を行う、請求項1に記載のコンピュータプログラム。 The color appearance setting unit, to the object existing in the proximity area, performs processing to increase the color saturation, treatment for increasing the brightness, processing to increase the luminance, at least one of the processing of the, according to claim 1 Computer program. 請求項1又は2に記載のゲームプログラムを記憶したプログラム記憶部と、該プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備えたコンピュータシステム。 Computer system including a program storage unit for storing a game program according to claim 1 or 2, and a computer for executing a program stored in the program storage unit.
JP2012156513A 2012-07-12 2012-07-12 Computer program and computer system Active JP6034079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012156513A JP6034079B2 (en) 2012-07-12 2012-07-12 Computer program and computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012156513A JP6034079B2 (en) 2012-07-12 2012-07-12 Computer program and computer system

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2016089148A Division JP6125692B2 (en) 2016-04-27 2016-04-27 Computer program and computer system
JP2016089149A Division JP6259487B2 (en) 2016-04-27 2016-04-27 Computer program and computer system

Publications (2)

Publication Number Publication Date
JP2014022772A JP2014022772A (en) 2014-02-03
JP6034079B2 true JP6034079B2 (en) 2016-11-30

Family

ID=50197249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012156513A Active JP6034079B2 (en) 2012-07-12 2012-07-12 Computer program and computer system

Country Status (1)

Country Link
JP (1) JP6034079B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6530453B2 (en) * 2017-07-19 2019-06-12 株式会社カプコン Game program and game system
JP7304702B2 (en) * 2019-01-30 2023-07-07 株式会社コーエーテクモゲームス Game program, recording medium, game processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2478157A (en) * 2010-02-26 2011-08-31 Sony Corp Method and apparatus for cutting between a first and second image sequence in a stereoscopic video
JP5689637B2 (en) * 2010-09-28 2015-03-25 任天堂株式会社 Stereoscopic display control program, stereoscopic display control system, stereoscopic display control apparatus, and stereoscopic display control method
JP5572532B2 (en) * 2010-12-10 2014-08-13 任天堂株式会社 Display control program, display control device, display control method, and display control system

Also Published As

Publication number Publication date
JP2014022772A (en) 2014-02-03

Similar Documents

Publication Publication Date Title
JP5791433B2 (en) Information processing program, information processing system, information processing apparatus, and information processing method
WO2016203792A1 (en) Information processing device, information processing method, and program
JP5947111B2 (en) Apparatus and method for controlling a plurality of objects in a stereoscopic display
US20110306413A1 (en) Entertainment device and entertainment methods
JP5675260B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5572532B2 (en) Display control program, display control device, display control method, and display control system
JP2012068977A (en) Game processing program, device, system and method
JP5738077B2 (en) Display control program, display device, display system, and display control method
US20120075294A1 (en) Information processing apparatus including plurality of display portions and information processing system
JP5689637B2 (en) Stereoscopic display control program, stereoscopic display control system, stereoscopic display control apparatus, and stereoscopic display control method
JP2012073782A (en) Image generation program, imaging device, imaging system and image generation method
JP2012164236A (en) Object
JP2013168897A (en) Display control program, display control apparatus, display control system, and display control method
JP2012174238A (en) Image processing program, image processor, image processing method and image processing system
JP2012142804A (en) Display control program, display controller, display control method, and display control system
JP6034079B2 (en) Computer program and computer system
JP2012141819A (en) Image processing system, image processing program, image processing method and image processing device
JP2012059008A (en) Program, information storage medium and image generation system
JP6259487B2 (en) Computer program and computer system
JP6125692B2 (en) Computer program and computer system
JP2012164235A (en) Program, information storage medium, reader, and server
JP7116410B2 (en) Program and image generation system
JP5685079B2 (en) Image processing apparatus, image processing program, image processing method, and image processing system
JP5777332B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME METHOD
JP5770018B2 (en) Display control program, display control apparatus, display control method, and display control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161027

R150 Certificate of patent or registration of utility model

Ref document number: 6034079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250