JP5002678B2 - Image generation apparatus, image generation method, and computer program used for image generation apparatus - Google Patents

Image generation apparatus, image generation method, and computer program used for image generation apparatus Download PDF

Info

Publication number
JP5002678B2
JP5002678B2 JP2010110687A JP2010110687A JP5002678B2 JP 5002678 B2 JP5002678 B2 JP 5002678B2 JP 2010110687 A JP2010110687 A JP 2010110687A JP 2010110687 A JP2010110687 A JP 2010110687A JP 5002678 B2 JP5002678 B2 JP 5002678B2
Authority
JP
Japan
Prior art keywords
virtual
diffusion
line
dimensional space
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010110687A
Other languages
Japanese (ja)
Other versions
JP2011238142A (en
Inventor
和弥 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010110687A priority Critical patent/JP5002678B2/en
Publication of JP2011238142A publication Critical patent/JP2011238142A/en
Application granted granted Critical
Publication of JP5002678B2 publication Critical patent/JP5002678B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、立体感を高めた画像を生成する装置等に関する。   The present invention relates to an apparatus for generating an image with enhanced stereoscopic effect.

ゲーム機等の画像を立体的に描画する技術として、いわゆる3Dコンピュータグラフィックス処理が周知である。この処理では、仮想3次元空間にオブジェクトを配置し、それれらのオブジェクトを3次元空間に配置された仮想カメラで撮影して2次元画像を生成し、その2次元画像に対応した画像信号を表示装置に出力するといった手順で画像が生成される。近年では、視差をもつ左眼用画像と右眼用画像とを生成し、観察者の左眼及び右眼に対応する画像を観察させることにより、立体感の高い3次元映像を観察者に提示するゲーム機も提案されている。   A so-called 3D computer graphics process is well known as a technique for rendering an image of a game machine or the like three-dimensionally. In this processing, objects are arranged in a virtual three-dimensional space, those objects are photographed with a virtual camera arranged in the three-dimensional space, a two-dimensional image is generated, and an image signal corresponding to the two-dimensional image is generated. An image is generated by a procedure such as outputting to a display device. In recent years, a left-eye image and a right-eye image with parallax are generated, and an image corresponding to the left eye and the right eye of the observer is observed to present a three-dimensional image with a high stereoscopic effect to the observer. A game machine has also been proposed.

特開平9−161095号公報Japanese Patent Laid-Open No. 9-161095

仮想3次元空間内にて、多数のオブジェクトが拡散する様子、一例として爆発で生じた無数の破片が飛び散る様子を表現する場合、従来の技術では、自然現象といった現実の世界での事象に忠実な、リアリティの高い画像を描画することを目的としてオブジェクトの拡散を表現することが優先されている。例えば、爆発で生じた破片を描く場合には、物理法則に従って破片の軌道を演算し、得られた軌道に沿って仮想3次元空間内で破片を移動させつつ仮想カメラで逐次撮影するといった手順が取られている。オブジェクトが拡散する状況に応じた制御を行うことにより、立体感を高めるような技術はこれまで提案されていない。   When expressing how a large number of objects diffuse in a virtual three-dimensional space, for example, a state where countless fragments generated by explosions are scattered, the conventional technology is faithful to events in the real world such as natural phenomena. Priority is given to expressing object diffusion for the purpose of rendering highly realistic images. For example, when drawing debris resulting from an explosion, the procedure is to calculate the trajectory of the debris according to the laws of physics, and sequentially photograph with a virtual camera while moving the debris in the virtual three-dimensional space along the obtained trajectory. Has been taken. Until now, no technique has been proposed that enhances the three-dimensional effect by performing control according to the situation in which the object diffuses.

そこで、本発明はオブジェクトが拡散する状況に応じた制御を行うことにより、画像の立体感を高めることが可能な画像生成装置等を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image generation apparatus and the like that can enhance the stereoscopic effect of an image by performing control according to a situation in which an object diffuses.

本発明の画像生成装置は、仮想3次元空間(120)にて、複数の拡散オブジェクト(110)が所定の基準点(B)から時間の経過とともに拡散するように各拡散オブジェクトを移動させ、前記拡散オブジェクトを前記仮想3次元空間に設定されたカメラ視点(A)から撮影した画像を生成し、該画像を表示装置(4)の画面上に表示させる画像生成装置(1)であって、前記表示装置の画面に対する観察者の視線を検出する視線検出手段(10)と、前記視線検出手段の検出結果に基づいて、前記仮想3次元空間内で前記カメラ視点から前記観察者が視ている方向を視線方向(Pb)として判別する視線方向判別手段(2)と、前記カメラ視点と前記基準点とを結ぶ方向に対して前記視線方向がずれている角度を偏角(θ)として判別する偏角判別手段(2)と、前記偏角が小さいときには前記カメラ視点に向かって移動する拡散オブジェクトの個数が増加し、前記偏角が大きいときには前記視線方向を横切る方向に移動する拡散オブジェクトの個数が増加するように、前記偏角に基づいて前記仮想3次元空間における前記拡散オブジェクトの分布を制御する分布制御手段(2)と、を備えたものである。   The image generation apparatus of the present invention moves each diffusion object in the virtual three-dimensional space (120) so that the plurality of diffusion objects (110) diffuse from a predetermined reference point (B) over time, An image generation device (1) for generating an image obtained by capturing a diffusion object from a camera viewpoint (A) set in the virtual three-dimensional space and displaying the image on a screen of a display device (4), A line-of-sight detection means (10) for detecting the line of sight of the observer with respect to the screen of the display device, and a direction in which the observer is viewing from the camera viewpoint in the virtual three-dimensional space based on the detection result of the line-of-sight detection means And gaze direction discriminating means (2) for discriminating as the gaze direction (Pb) and the angle at which the gaze direction is deviated from the direction connecting the camera viewpoint and the reference point as a declination angle (θ). The number of diffusing objects that move toward the camera viewpoint when the declination is small and the number of diffusing objects that move in the direction crossing the line-of-sight direction when the declination is large Distribution control means (2) for controlling the distribution of the diffusion object in the virtual three-dimensional space based on the declination so as to increase.

また、本発明の画像生成方法は、仮想3次元空間(120)にて、複数の拡散オブジェクト(110)を所定の基準点(B)から時間の経過とともに拡散するように各拡散オブジェクトを移動させ、前記拡散オブジェクトを前記仮想3次元空間に設定されたカメラ視点(A)から撮影した画像を生成し、該画像を表示装置(4)の画面上に表示させる画像生成方法であって、視線検出手段(10)を利用して、前記表示装置の画面に対する観察者の視線を検出する工程と、前記視線検出手段の検出結果に基づいて、前記仮想3次元空間内で前記カメラ視点から前記観察者が視ている方向を視線方向(Pb)として判別する工程と、前記カメラ視点と前記基準点とを結ぶ方向に対して前記視線方向がずれている角度を偏角(θ)として判別する工程と、前記偏角が小さいときには前記カメラ視点に向かって移動する拡散オブジェクトの個数が増加し、前記偏角が大きいときには前記視線方向を横切る方向に移動する拡散オブジェクトの個数が増加するように、前記偏角に基づいて前記仮想3次元空間における前記拡散オブジェクトの分布を制御する工程と、を備えたものである。   In the image generation method of the present invention, each diffusion object is moved in the virtual three-dimensional space (120) so that the plurality of diffusion objects (110) are diffused from the predetermined reference point (B) with time. An image generation method for generating an image obtained by photographing the diffusion object from a camera viewpoint (A) set in the virtual three-dimensional space, and displaying the image on a screen of a display device (4), the line-of-sight detection Detecting the observer's line of sight with respect to the screen of the display device using the means (10), and based on the detection result of the line-of-sight detection means, the observer from the camera viewpoint in the virtual three-dimensional space; Determining the direction in which the visual line is viewed as the visual line direction (Pb), and determining the angle at which the visual line direction is deviated from the direction connecting the camera viewpoint and the reference point as the deflection angle (θ) The number of diffusing objects that move toward the camera viewpoint increases when the declination is small, and the number of diffusing objects that move in the direction crossing the line-of-sight direction increases when the declination is large. Controlling the distribution of the diffusion object in the virtual three-dimensional space based on the declination.

さらに、本発明のコンピュータプログラムは、仮想3次元空間(120)にて、複数の拡散オブジェクト(110)を所定の基準点(B)から時間の経過とともに拡散するように各拡散オブジェクトを移動させ、前記拡散オブジェクトを前記仮想3次元空間に設定されたカメラ視点(A)から撮影した画像を生成し、該画像を表示装置(4)の画面上に表示させる画像生成装置のコンピュータ(2)を、前記表示装置の画面に対する観察者の視線を検出する視線検出手段(10)の検出結果に基づいて、前記仮想3次元空間内で前記カメラ視点から前記観察者が視ている方向を視線方向(Pb)として判別する視線方向判別手段、前記カメラ視点と前記基準点とを結ぶ方向に対して前記視線方向がずれている角度を偏角(θ)として判別する偏角判別手段、及び前記偏角が小さいときには前記カメラ視点に向かって移動する拡散オブジェクトの個数が増加し、前記偏角が大きいときには前記視線方向を横切る方向に移動する拡散オブジェクトの個数が増加するように、前記偏角に基づいて前記仮想3次元空間における前記拡散オブジェクトの分布を制御する分布制御手段、として機能させるように構成されたものである。   Furthermore, the computer program of the present invention moves each diffusion object in the virtual three-dimensional space (120) so that the plurality of diffusion objects (110) are diffused from the predetermined reference point (B) over time, A computer (2) of an image generation device that generates an image obtained by capturing the diffusion object from a camera viewpoint (A) set in the virtual three-dimensional space and displays the image on a screen of a display device (4). Based on the detection result of the line-of-sight detection means (10) for detecting the line of sight of the observer with respect to the screen of the display device, the direction of the observer looking from the camera viewpoint in the virtual three-dimensional space is determined as the line-of-sight direction (Pb ) Gaze direction discriminating means that discriminates the angle of deviation of the gaze direction from the direction connecting the camera viewpoint and the reference point as a declination angle (θ). The number of diffusing objects that move toward the camera viewpoint increases when the angle discriminating means and the declination are small, and the number of diffusing objects that move in the direction crossing the viewing direction increases when the declination is large. Further, it is configured to function as distribution control means for controlling the distribution of the diffusion object in the virtual three-dimensional space based on the declination angle.

本発明においては、カメラ視点と拡散オブジェクトが拡散する基準点とを結ぶ方向に対する視線方向の偏角が小さいときは、その基準点又はその近傍を観察者が視ているとみなすことができる。この場合、カメラ視点に向かって移動する拡散オブジェクトの個数を増加させることにより、拡散オブジェクトが画像の奥から観察者に向かってくるような視覚効果を高め、それにより、画像の立体感を強調することができる。一方、偏角が大きいときは、観察者が基準点から離れた方向を視ているとみなすことができる。この場合、観察者の視線方向を横切る方向に移動する拡散オブジェクトの個数を増加させることにより、拡散オブジェクトが視野を通り過ぎていくような視覚効果を高めることができる。そして、観察者の視野に含まれている他のオブジェクトとの比較により、画像の奥行感が増し、それにより画像の立体感を強調することができる。なお、拡散の基準点は、複数の拡散オブジェクトが拡散しつつ移動する様子を表現するための基準として適宜に定められた点であれば足り、拡散に対する物理的な起点であることを要しない。例えば、拡散オブジェクトが特定の位置を起点として拡散するような場合には、その起点を便宜的に基準点として定めることが可能であるが、複数の拡散オブジェクトが複数の起点から拡散するような場合には、それらの拡散オブジェクトの拡散開始時点における重心位置といったように、拡散オブジェクトの集合体を代表する上で都合がよい適宜な位置を基準点として定めればよい。また、基準点は時間の経過とともに移動してもよい。   In the present invention, when the declination of the viewing direction with respect to the direction connecting the camera viewpoint and the reference point where the diffusing object diffuses is small, it can be considered that the observer is viewing the reference point or its vicinity. In this case, by increasing the number of diffusing objects that move toward the camera viewpoint, the visual effect that the diffusing objects come from the back of the image toward the viewer is enhanced, thereby enhancing the stereoscopic effect of the image. be able to. On the other hand, when the declination is large, it can be considered that the observer is looking in a direction away from the reference point. In this case, by increasing the number of diffusing objects that move in the direction crossing the viewing direction of the observer, it is possible to enhance the visual effect that the diffusing objects pass through the field of view. Then, by comparing with other objects included in the visual field of the observer, the sense of depth of the image is increased, thereby enhancing the stereoscopic effect of the image. Note that the diffusion reference point need only be a point appropriately determined as a reference for expressing a state in which a plurality of diffusion objects move while diffusing, and does not need to be a physical starting point for diffusion. For example, when a diffuse object diffuses from a specific position, it is possible to set that origin as a reference point for convenience, but when multiple diffuse objects diffuse from multiple origins In this case, an appropriate position that is convenient for representing a collection of diffusion objects, such as the position of the center of gravity of the diffusion objects at the start of diffusion, may be determined as a reference point. In addition, the reference point may move with time.

本発明の一形態において、前記分布制御手段は、前記拡散オブジェクトの個数を増加させるべき方向を主方向として判別し、前記拡散オブジェクトが他の領域よりも高密度で分布する高密度領域(111)を前記主方向に沿って生じさせることにより、前記偏角に応じて前記拡散オブジェクトの分布を変化させてもよい。偏角に応じた主方向に沿って高密度領域を生じさせることにより、立体感が強調されるような方向に移動する拡散オブジェクトの個数を他の領域のそれよりも増加させて立体感をさらに強調することができる。   In one aspect of the present invention, the distribution control means determines a direction in which the number of diffusion objects should be increased as a main direction, and the high density region (111) in which the diffusion objects are distributed at a higher density than other regions. May be generated along the main direction to change the distribution of the diffused object according to the declination. By creating a high-density region along the main direction according to the declination, the number of diffuse objects that move in a direction that enhances the three-dimensional effect is increased more than that of the other regions, further increasing the three-dimensional effect. Can be emphasized.

本発明の一形態において、前記分布制御手段は、所定の基本分布に従って前記仮想3次元空間に配置される拡散オブジェクトとは別に、前記拡散オブジェクトの個数を増加させるべき方向としての主方向に沿って移動する拡散オブジェクトを前記仮想3次元空間に追加して配置してもよい。さらに具体的な形態として、前記分布制御手段は、前記拡散オブジェクトを前記所定の基本分布に従って前記仮想3次元空間に配置するために必要な拡散オブジェクトの位置を演算する基本位置演算手段(25)と、前記主方向に沿って前記拡散オブジェクトを追加して配置するために必要な拡散オブジェクトの位置を演算する追加位置演算手段(26)と、前記基本位置演算手段及び前記追加位置演算手段にて演算された位置のそれぞれに従って前記拡散オブジェクトを配置するオブジェクト配置手段(2)とを備えてもよい。このように拡散オブジェクトを追加した場合には、基本分布に操作を加えることなく、偏角に応じた主方向に沿って移動する拡散オブジェクトを追加するだけで高密度領域を生じさせることができる。例えば、基本位置演算手段及び追加位置演算手段のそれぞれに関数式等を実装した論理モデルを実装し、それらが演算した位置に従って拡散オブジェクトを配置することにより、高密度領域を主方向に沿って配置することが可能である。   In one aspect of the present invention, the distribution control means is arranged along a main direction as a direction in which the number of the diffusion objects should be increased separately from the diffusion objects arranged in the virtual three-dimensional space according to a predetermined basic distribution. A moving diffusion object may be arranged in addition to the virtual three-dimensional space. As a more specific form, the distribution control means includes basic position calculation means (25) for calculating the position of the diffusion object necessary for arranging the diffusion object in the virtual three-dimensional space according to the predetermined basic distribution. The additional position calculation means (26) for calculating the position of the diffusion object necessary for adding and arranging the diffusion object along the main direction, and the basic position calculation means and the additional position calculation means And object placement means (2) for placing the diffused object according to each of the positions. When a diffusion object is added in this way, a high-density region can be generated simply by adding a diffusion object that moves along the main direction according to the declination without performing any operation on the basic distribution. For example, a high-density area is arranged along the main direction by implementing a logical model in which a functional expression or the like is implemented in each of the basic position calculating means and the additional position calculating means, and arranging diffusion objects according to the positions calculated by them. Is possible.

また、他の形態として、前記分布制御手段は、所定の基本分布に従って前記仮想3次元空間に配置されるべき拡散オブジェクトのうち、少なくとも一部の拡散オブジェクトの位置を、前記拡散オブジェクトの個数を増加させるべき方向としての主方向に沿って集まるように補正して前記仮想3次元空間に配置することにより、前記高濃度領域を生じさせてもよい。さらに具体的な形態として、前記分布制御手段は、前記拡散オブジェクトを前記所定の基本分布に従って前記仮想3次元空間に配置するために必要な拡散オブジェクトの位置を演算する基本位置演算手段(25)と、少なくとも一部の拡散オブジェクトが前記主方向に沿って集まるように前記基本位置演算手段にて演算された位置を補正する位置補正手段(27)と、前記位置補正手段による補正後の位置に従って前記拡散オブジェクトを配置するオブジェクト配置手段(2)とを備えてもよい。このように拡散オブジェクトの位置を補正すれば、仮想3次元空間に配置されるべき拡散オブへクトの総数を増加させることなく高密度領域を生じさせることができる。   In another form, the distribution control means increases the position of at least some of the diffuse objects among the diffuse objects to be arranged in the virtual three-dimensional space according to a predetermined basic distribution, and increases the number of the diffuse objects. The high-concentration region may be generated by correcting and arranging in the virtual three-dimensional space so as to gather along the main direction as a direction to be generated. As a more specific form, the distribution control means includes basic position calculation means (25) for calculating the position of the diffusion object necessary for arranging the diffusion object in the virtual three-dimensional space according to the predetermined basic distribution. The position correcting means (27) for correcting the position calculated by the basic position calculating means so that at least a part of the diffused objects gather along the main direction, and the position corrected by the position correcting means You may provide the object arrangement | positioning means (2) which arrange | positions a spreading | diffusion object. If the position of the diffusion object is corrected in this way, a high-density region can be generated without increasing the total number of diffusion objects to be arranged in the virtual three-dimensional space.

本発明の一形態においては、前記視線方向を横切る方向に移動する拡散オブジェクトの速度を、前記カメラ視点から拡散オブジェクトまでの距離が小さいときは大きいときよりも遅くなるように変化させる速度制御手段(2)をさらに備えてもよい。観察者に近い位置を横切る拡散オブジェクトの速度を遅くさせることにより、その拡散オブジェクトが視線を通り過ぎる時間を増加させ、観察者に立体感の強調効果をより長時間意識させることができる。   In one aspect of the present invention, a speed control unit that changes the speed of the diffusing object moving in the direction crossing the line-of-sight direction so as to be slower when the distance from the camera viewpoint to the diffusing object is small than when it is large. 2) may be further provided. By slowing down the speed of the diffusing object that crosses the position close to the observer, the time for the diffusing object to pass the line of sight can be increased, and the observer can be aware of the effect of enhancing the stereoscopic effect for a longer time.

本発明の一形態において、前記仮想3次元空間には、左眼用仮想カメラ(121L)と右眼用仮想カメラ(121R)とが視差に相当する距離を隔てて設けられ、前記左眼用仮想カメラと前記右眼用カメラとがそれぞれ撮影した画像を利用して3次元映像が観察者に提示されるようにしてもよい。この場合には、拡散オブジェクトの分布の制御により、立体感をさらに高めることができる。   In one embodiment of the present invention, in the virtual three-dimensional space, a left-eye virtual camera (121L) and a right-eye virtual camera (121R) are provided at a distance corresponding to parallax, and the left-eye virtual camera is provided. A three-dimensional image may be presented to an observer using images captured by the camera and the right-eye camera. In this case, the stereoscopic effect can be further enhanced by controlling the distribution of the diffusion objects.

なお、以上の説明では本発明の理解を容易にするために添付図面の参照符号を括弧書きにて付記したが、それにより本発明が図示の形態に限定されるものではない。   In addition, in the above description, in order to make an understanding of this invention easy, the reference sign of the accompanying drawing was attached in parenthesis, but this invention is not limited to the form of illustration by it.

以上に説明したように、本発明によれば、カメラ視点と拡散オブジェクトが拡散する基準点とを結ぶ方向に対する視線方向の偏角の大小に応じて、特定方向に向かう拡散オブジェクトの個数を増加させることにより、画像の奥から観察者に向かってより多くの拡散オブジェクトが向かってくるような視覚効果を高め、あるいは、より多くの拡散オブジェクトが観察者の視野を通り過ぎていくような視覚効果を高め、それにより、画像の立体感を強調することができる。   As described above, according to the present invention, the number of diffusing objects toward a specific direction is increased according to the magnitude of the declination of the viewing direction with respect to the direction connecting the camera viewpoint and the reference point where the diffusing object diffuses. This enhances the visual effect that more diffuse objects are directed toward the viewer from the back of the image, or the visual effect that more diffuse objects pass through the viewer's field of view. Thereby, it is possible to enhance the stereoscopic effect of the image.

本発明の一形態に係る画像生成装置として構成されたゲーム機のブロック図。1 is a block diagram of a game machine configured as an image generation device according to one embodiment of the present invention. ゲーム画面の一例を示す図。The figure which shows an example of a game screen. 仮想3次元空間にオブジェクトを配置した例を示す斜視図。The perspective view which shows the example which has arrange | positioned the object in virtual three-dimensional space. 図3の仮想3次元空間の平面図。FIG. 4 is a plan view of the virtual three-dimensional space in FIG. 3. 拡散オブジェクトとしての破片の基本分布の一例を示す図。The figure which shows an example of the basic distribution of the fragment as a diffusion object. 偏角が小さいときの高密度領域の向きを示す図。The figure which shows direction of a high-density area | region when a declination is small. 偏角が大きいときの高密度領域の向きを示す図。The figure which shows direction of a high-density area | region when a declination is large. 高密度領域を描画するために利用される破片追加領域の一例を示す図。The figure which shows an example of the fragment addition area | region utilized in order to draw a high-density area | region. 画像処理部の機能ブロック図。The functional block diagram of an image process part. 拡散画像処理部の一形態に係る機能ブロック図。The functional block diagram concerning one form of a diffusion image processing part. 画像処理部が実行する拡散イベント処理ルーチンを示すフローチャート。The flowchart which shows the spreading | diffusion event processing routine which an image process part performs. 拡散画像処理部の他の形態に係る機能ブロック図。The functional block diagram which concerns on the other form of a diffusion image process part. カメラ視点から拡散オブジェクトの距離に応じて速度を変化させるための処理を追加したフローチャート。The flowchart which added the process for changing a speed according to the distance of a diffusion object from a camera viewpoint.

以下、図面を参照して本発明に係る画像生成装置をゲーム機として構成した一形態を説明する。なお、本形態のゲーム機は、プレイヤがその操作対象に設定されたキャラクタ(プレイヤキャラクタと呼ぶことがある。)を操作して仮想的なゲーム空間を探索し、所定のミッションを遂行できるか否かを競うアクションタイプのゲームを提供するものである。また、本形態のゲーム機は、視差がある左眼用の画像と右眼用の画像とを共通の表示装置上に表示させ、それらの画像を3Dグラスを通じてプレイヤに左眼と右眼とで分けて観察させることにより、プレイヤにゲーム画面を3次元映像として提示する機能を有している。以下では、3次元映像の提示を前提としてゲーム機を説明する。3Dグラスを利用した3次元映像の提示方法としては、表示装置の画面上に、偏光方向が異なる左眼用フィルタと右眼用フィルタとを交互にライン状に配置し、それらのフィルタに合わせて左眼用画像と右眼用画像とを交互にライン状に合成して1フレームの画像を表示し、その画像を3Dグラスの偏光フィルタを介して観察させる偏光方式と、左眼用画像と右眼用画像とを所定の周期で交互に表示させ、その周期に同期して3Dグラスの左右のシャッタを交互に開閉するシーケンシャル方式とが存在する。以下の形態では、偏光方式で3次元映像を提示するものとして説明する。ゲーム機は、商業施設等に設置される商用のゲーム機として構成されてもよいし、家庭用ゲーム機として構成されてもよい。   Hereinafter, an embodiment in which an image generating apparatus according to the present invention is configured as a game machine will be described with reference to the drawings. Note that in the game machine of this embodiment, whether or not a player can perform a predetermined mission by searching a virtual game space by operating a character (sometimes referred to as a player character) set as an operation target. An action-type game for competing with each other is provided. In addition, the game machine of the present embodiment displays a left-eye image and a right-eye image with parallax on a common display device, and displays these images to the player through the 3D glasses with the left and right eyes. By separately observing, it has a function of presenting the game screen as a three-dimensional image to the player. Below, a game machine is demonstrated on the assumption of presentation of a three-dimensional image. As a method for presenting a 3D image using 3D glasses, a filter for the left eye and a filter for the right eye having different polarization directions are alternately arranged in a line on the screen of the display device, and according to these filters. A left-eye image and a right-eye image are alternately combined into a line to display a one-frame image, and the image is observed through a 3D glass polarizing filter. There is a sequential method in which images for an eye are alternately displayed at a predetermined cycle, and left and right shutters of the 3D glasses are alternately opened and closed in synchronization with the cycle. In the following embodiment, a description will be given assuming that a three-dimensional image is presented by a polarization method. The game machine may be configured as a commercial game machine installed in a commercial facility or the like, or may be configured as a home game machine.

図1はゲーム機1における制御系の概略を示している。その制御系は、制御ユニット2を含んでいる。制御ユニット2は、マイクロプロセッサとその動作に必要な主記憶装置(RAM、ROM)等の周辺装置とを組み合わせたコンピュータユニットである。制御ユニット2には、ゲームの入力装置3、表示装置としてのモニタ(一例として液晶ディスプレイ装置)4、スピーカユニット5、及び外部記憶装置6が接続されている。その他にも制御ユニット2には各種の周辺装置が接続され得るが、それらの図示は省略する。   FIG. 1 shows an outline of a control system in the game machine 1. The control system includes a control unit 2. The control unit 2 is a computer unit that combines a microprocessor and peripheral devices such as a main memory (RAM, ROM) necessary for its operation. Connected to the control unit 2 are a game input device 3, a monitor (a liquid crystal display device as an example) 4 as a display device, a speaker unit 5, and an external storage device 6. In addition, although various peripheral devices can be connected to the control unit 2, they are not shown.

入力装置3は、プレイヤの操作を受け付ける複数の操作部(不図示)を含み、それらの操作部の操作に対応した信号を制御ユニット2に出力する。入力装置3は、拳銃を模したガン型コントローラ7を含んでいる。ガン型コントローラ7は、プレイヤに与えられる武器を象徴する入力装置として設けられている。プレイヤは、モニタ4の画面に適宜に表示される標的にガン型コントローラ7の銃口7aを向け、トリガレバー7bを操作することにより、その標的を銃撃することができる。ガン型コントローラ7には、銃口7aがモニタ4の画面上のどの位置に向けられているかを検出する照準検出センサ8が装備されている。また、ゲーム機1には、プレイヤが、モニタ4の画面に表示される3次元映像を見るための3Dグラス9が装備されている。3Dグラス9は、左眼用及び右眼用の偏光フィルタが設けられた、いわゆる偏光グラスである。   The input device 3 includes a plurality of operation units (not shown) that accept operations of the player, and outputs signals corresponding to the operations of these operation units to the control unit 2. The input device 3 includes a gun-type controller 7 simulating a handgun. The gun-type controller 7 is provided as an input device that symbolizes a weapon given to the player. The player can shoot the target by directing the muzzle 7a of the gun-type controller 7 to a target appropriately displayed on the screen of the monitor 4 and operating the trigger lever 7b. The gun-type controller 7 is equipped with an aim detection sensor 8 that detects which position on the screen of the monitor 4 the muzzle 7a is directed to. In addition, the game machine 1 is equipped with a 3D glass 9 for a player to view a 3D image displayed on the screen of the monitor 4. The 3D glass 9 is a so-called polarizing glass provided with polarizing filters for the left eye and the right eye.

3Dグラス9には、これを装着したプレイヤ(観察者)の視線、すなわちプレイヤがモニタ4の画面のどこを視ているかを検出する視線検出センサ10が取り付けられている。照準検出センサ8及び視線検出センサ10には、公知の種々のセンサを利用することができる。一例として、観察対象(モニタ4)の周囲の複数箇所から観察者(プレイヤ)に向けて照射される赤外光を、観察者側に設けられた受光部で受光して、その受光状況から受光部が向けられている方向を検出する方式のセンサを照準検出センサ8及び視線検出センサ10としてそれぞれ用いることができる。あるいは、モニタ4の周囲にカメラを設置し、そのカメラが撮影した画像を処理することにより、銃口7aが向けられている方向、あるいはプレイヤの視線を検出してもよい。さらには、ジャイロセンサ、地磁気センサ、加速度センサなどの各種センサを利用して銃口7aが向けられている方向、あるいはプレイヤの視線を検出してもよい。   The 3D glass 9 is provided with a line-of-sight detection sensor 10 that detects the line of sight of the player (observer) wearing the 3D glass 9, that is, where the player is looking on the screen of the monitor 4. Various known sensors can be used as the aiming detection sensor 8 and the line-of-sight detection sensor 10. As an example, infrared light emitted toward a viewer (player) from a plurality of locations around the observation target (monitor 4) is received by a light receiving unit provided on the viewer side, and received from the light reception state. Sensors that detect the direction in which the part is directed can be used as the aim detection sensor 8 and the line-of-sight detection sensor 10, respectively. Alternatively, a camera may be installed around the monitor 4 and an image captured by the camera may be processed to detect the direction in which the muzzle 7a is directed or the line of sight of the player. Furthermore, the direction in which the muzzle 7a is directed or the line of sight of the player may be detected using various sensors such as a gyro sensor, a geomagnetic sensor, and an acceleration sensor.

外部記憶装置6は、磁気記憶媒体、光学記憶媒体、EEPROMといった不揮発性の記憶媒体を含む記憶装置である。外部記憶装置6には、制御ユニット2の基本的な制御を実現するためのオペレーティングシステムの他に、ゲームを所定の手順で実行するためのアプリケーションソフトウエアとしてのゲームプログラム11、及びそのゲームプログラム11が適宜に参照するゲームデータ12が記録されている。制御ユニット2がゲームプログラム11を読み取って実行することにより、制御ユニット2にはゲームの実行に必要な各種の論理的装置が生成される。その論理的装置の一つとして、制御ユニット2には画像処理部13が形成される。画像処理部13は、モニタ4に表示させるべき画像を生成するために必要な各種の演算処理を実行する。画像処理部13には拡散画像処理部14が設けられる。拡散画像処理部14は、ゲーム中に発生する拡散オブジェクトに対応した画像を表示させるために必要な演算を実行する。拡散イベントとは、多数のオブジェクト(それらを拡散オブジェクトと呼ぶことがある。)が所定の基準点から時間の経過とともにゲーム空間内で拡散するイベントである。画像処理部13及びその拡散画像処理部14の詳細は後述する。   The external storage device 6 is a storage device including a nonvolatile storage medium such as a magnetic storage medium, an optical storage medium, or an EEPROM. In the external storage device 6, in addition to an operating system for realizing basic control of the control unit 2, a game program 11 as application software for executing a game in a predetermined procedure, and the game program 11 The game data 12 to be referred to as appropriate is recorded. When the control unit 2 reads and executes the game program 11, various logical devices necessary for executing the game are generated in the control unit 2. As one of the logical devices, an image processing unit 13 is formed in the control unit 2. The image processing unit 13 executes various arithmetic processes necessary for generating an image to be displayed on the monitor 4. The image processing unit 13 is provided with a diffusion image processing unit 14. The diffusion image processing unit 14 performs calculations necessary for displaying an image corresponding to the diffusion object generated during the game. A diffusion event is an event in which a large number of objects (sometimes referred to as diffusion objects) diffuse in a game space over time from a predetermined reference point. Details of the image processing unit 13 and the diffusion image processing unit 14 will be described later.

図2はモニタ4に表示されるゲーム画面の一例を示している。そのゲーム画面100には、プレイヤキャラクタPCが移動する場として設定された屋内等のゲーム空間の様子を示すメイン画像101が表示される。そのメイン画像101には、ゲーム空間に配置された柱102、103、箱104、あるいはキャラクタ105といった各種のオブジェクトが存在する。プレイヤキャラクタPCは表示されてもよいし、表示が省略されてもよい。敵のキャラクタ105は、ゲーム機1の制御ユニット2によって操作される。あるいは、ゲーム機1とネットワークを介して接続された他のゲーム機のプレイヤによりキャラクタ105が操作されてもよい。メイン画像101には、プレイヤが視ている位置を示す視点マーカ106及びその視点マーカ106を左右に挟む一対のカーソル107が表示される。視点マーカ106の表示位置は、視線検出センサ10が検出した視線と一致するように制御される。照準検出センサ8が検出した照準位置、つまり銃口7aが向けられた位置を示す照準マーカ108もメイン画像101に表示される。   FIG. 2 shows an example of a game screen displayed on the monitor 4. On the game screen 100, a main image 101 showing a state of a game space such as indoors set as a place where the player character PC moves is displayed. The main image 101 includes various objects such as pillars 102 and 103, a box 104, or a character 105 arranged in the game space. The player character PC may be displayed or may not be displayed. The enemy character 105 is operated by the control unit 2 of the game machine 1. Alternatively, the character 105 may be operated by a player of another game machine connected to the game machine 1 via a network. In the main image 101, a viewpoint marker 106 indicating the position viewed by the player and a pair of cursors 107 sandwiching the viewpoint marker 106 on the left and right are displayed. The display position of the viewpoint marker 106 is controlled to coincide with the line of sight detected by the line-of-sight detection sensor 10. An aiming marker 108 indicating the aiming position detected by the aiming detection sensor 8, that is, the position where the muzzle 7a is directed, is also displayed in the main image 101.

メイン画像101は、視線検出センサ10が検出した視線の変化に応じて上下左右にスクロールされる。視線検出センサ10は3Dグラス9に取り付けられている。したがって、プレイヤが頭を動かせば、それに連動して視線検出センサ10が検出する視線も変化し、頭を動かした方向へと画面がスクロールされる。それにより、プレイヤに、ゲーム空間をあたかも実際に移動しているかのような感覚を直感的に認識させることができる。ただし、プレイヤの頭は絶えず細かく動いていることが通例であり、それらの動きに逐一追従してメイン画像101をスクロールすることはゲーム画面が絶えず揺れる不都合が生じる。また、プレイヤがメイン画像101内の周辺をちらりと見て、視線を中央に戻すといった一時的な視線の変化に追従してメイン画像101をスクロールさせたならば、メイン画像101が却って見づらくなるおそれもある。そのため、プレイヤの視線の変化に対するメイン画像101のスクロール処理には、意図的な不感帯、あるいは応答遅れが設定される。したがって、メイン画像101の中心点Cmと視点マーカ106とは常に一致するとは限らず、図2に示されたように、視点マーカ106がメイン画像101の中心点Cmからずれている場合がある。図2の例では、柱102の陰からキャラクタ105が現れたことにプレイヤが気付いて、そのキャラクタ105に視線を移した直後といった状況である。なお、ゲーム画面100には、上記の他にも、ゲージ109その他の各種の情報が適宜に表示される。   The main image 101 is scrolled up, down, left, and right according to the change in the line of sight detected by the line-of-sight detection sensor 10. The line-of-sight detection sensor 10 is attached to the 3D glass 9. Therefore, if the player moves his / her head, the line of sight detected by the line-of-sight detection sensor 10 changes accordingly, and the screen is scrolled in the direction in which the head is moved. Thereby, the player can intuitively recognize a feeling as if the user is actually moving in the game space. However, it is customary that the player's head is constantly moving finely, and scrolling the main image 101 by following these movements one by one causes an inconvenience that the game screen constantly shakes. Also, if the player scrolls the main image 101 following a temporary change in the line of sight, such as looking around the periphery of the main image 101 and returning the line of sight to the center, the main image 101 may be difficult to see. is there. Therefore, an intentional dead zone or a response delay is set in the scroll process of the main image 101 in response to a change in the line of sight of the player. Therefore, the center point Cm of the main image 101 and the viewpoint marker 106 do not always coincide with each other, and the viewpoint marker 106 may be displaced from the center point Cm of the main image 101 as shown in FIG. In the example of FIG. 2, the player notices that the character 105 has appeared from behind the pillar 102 and has just moved his / her line of sight to the character 105. In addition to the above, gauge 109 and other various information are appropriately displayed on game screen 100.

上記のようなメイン画像101をモニタ4に表示させるため、画像処理部13は、いわゆる3Dコンピュータグラフィックス処理の手順に従ってメイン画像101を描画する。以下、その描画方法を説明する。図3は、メイン画像101を描画するために画像処理部13が制御ユニット2のメモリ上に論理的に生成する仮想3次元空間の一例を示し、図4はその仮想3次元空間の平面図である。仮想3次元空間120は、メイン画像101として表示されるゲーム空間を3次元モデルとして表現したものである。仮想3次元空間120には、メイン画像101に含まれるべき柱102、103、箱104、キャラクタ105といったオブジェクトが配置される。仮想3次元空間120には、2台の仮想カメラ121L、121Rが配置される。仮想カメラ121Lは左眼用の画像を生成するために設けられ、仮想カメラ121Rは右眼用の画像を生成するために設けられる。カメラ121L、121Rの間隔は3次元映像を生成するために必要な視差に基づいて設定される。立体視用の画像を生成する必要がない場合、仮想カメラは1台で足りる。   In order to display the main image 101 as described above on the monitor 4, the image processing unit 13 renders the main image 101 in accordance with a so-called 3D computer graphics processing procedure. The drawing method will be described below. FIG. 3 shows an example of a virtual three-dimensional space that the image processing unit 13 logically generates on the memory of the control unit 2 in order to draw the main image 101. FIG. 4 is a plan view of the virtual three-dimensional space. is there. The virtual three-dimensional space 120 represents a game space displayed as the main image 101 as a three-dimensional model. In the virtual three-dimensional space 120, objects such as pillars 102 and 103, a box 104, and a character 105 to be included in the main image 101 are arranged. In the virtual three-dimensional space 120, two virtual cameras 121L and 121R are arranged. The virtual camera 121L is provided for generating an image for the left eye, and the virtual camera 121R is provided for generating an image for the right eye. The interval between the cameras 121L and 121R is set based on the parallax necessary for generating a 3D video. If it is not necessary to generate a stereoscopic image, a single virtual camera is sufficient.

仮想カメラ121L、121Rの位置はそれらの中間にあるカメラ視点Aで代表される。カメラ視点Aは、プレイヤキャラクタPCのゲーム空間内における視点に相当する。カメラ視点Aの位置は、プレイヤが、プレイヤキャラクタを操作するために入力装置3に与えた指示に基づいて制御ユニット2が決定する。仮想カメラ121L、121Rによる仮想3次元空間120の撮影方向Paは、視線検出センサ10が検出したプレイヤの視線に基づいて制御ユニット2が決定する。ただし、図2を参照して説明したように、視線検出センサ10が検出した視線の方向(視線方向と呼ぶ。)Pbと撮影方向Paとは必ずしも一致しない。図3の例では、撮影方向Paと視線方向Pbとの間に角度δのズレが生じている。なお、仮想3次元空間120におけるオブジェクトの位置は、撮影方向PaをZ軸とするX−Y−Z軸の3軸直交座標系(ワールド座標系)に従って3次元座標で定義される。   The positions of the virtual cameras 121L and 121R are represented by the camera viewpoint A located between them. The camera viewpoint A corresponds to the viewpoint in the game space of the player character PC. The position of the camera viewpoint A is determined by the control unit 2 based on an instruction given by the player to the input device 3 in order to operate the player character. The shooting direction Pa of the virtual three-dimensional space 120 by the virtual cameras 121L and 121R is determined by the control unit 2 based on the line of sight of the player detected by the line-of-sight detection sensor 10. However, as described with reference to FIG. 2, the line-of-sight direction (referred to as the line-of-sight direction) Pb detected by the line-of-sight detection sensor 10 does not necessarily match the imaging direction Pa. In the example of FIG. 3, there is a deviation of the angle δ between the photographing direction Pa and the line-of-sight direction Pb. Note that the position of the object in the virtual three-dimensional space 120 is defined by three-dimensional coordinates according to a three-axis orthogonal coordinate system (world coordinate system) of the XYZ axes with the shooting direction Pa as the Z axis.

画像処理部13では、カメラ視点Aと撮影方向Paとに従って各仮想カメラ121L、121Rの位置及び向きを制御しつつ、それらのカメラ121L、121Rにて3次元空間120を仮想的に撮影する。それらの処理は、要する、仮想3次元空間120を仮想カメラ121L、121Rの結像面に投影した2次元画像を演算する処理である。画像処理部13は、得られた2次元画像(左眼用画像と右眼用画像)を偏光方式による3次元映像として提示できるようにフレームメモリ上で合成して描画し、描画された画像データに対応する画像信号を所定の周期でモニタ4に出力する。これによりメイン画像101がモニタ4に表示される。なお、メイン画像101に重ね合わされるべきゲージ109その他の表示要素はフレームメモリに適宜に重ね合わせて描画される。仮想3次元空間120におけるオブジェクトの配置、カメラ視点A及び撮影方向Paに応じた仮想カメラ121L、121Rの制御、あるいは仮想カメラ121L、121Rによる撮影といった一連の処理は、3Dコンピュータグラフィックス処理におけるモデリング処理、レンダリング処理といった周知の処理を用いて行なわれる。   The image processing unit 13 virtually photographs the three-dimensional space 120 with the cameras 121L and 121R while controlling the positions and orientations of the virtual cameras 121L and 121R according to the camera viewpoint A and the photographing direction Pa. These processes are required to calculate a two-dimensional image obtained by projecting the virtual three-dimensional space 120 onto the image planes of the virtual cameras 121L and 121R. The image processing unit 13 synthesizes and draws the obtained two-dimensional image (the image for the left eye and the image for the right eye) on the frame memory so that the image can be presented as a three-dimensional image by the polarization method, and the drawn image data Is output to the monitor 4 at a predetermined cycle. As a result, the main image 101 is displayed on the monitor 4. Note that the gauge 109 and other display elements to be overlaid on the main image 101 are drawn on the frame memory as appropriate. A series of processing such as object placement in the virtual three-dimensional space 120, control of the virtual cameras 121L and 121R according to the camera viewpoint A and the shooting direction Pa, or shooting by the virtual cameras 121L and 121R is a modeling process in 3D computer graphics processing. This is performed using a known process such as a rendering process.

本形態のゲーム機1では、ゲーム中に所定の拡散イベント発生条件が成立すると、仮想3次元空間120内において拡散イベントが発生する。拡散イベントの概要は上述したが、その具体例としては、図3に示した箱104が爆発し、無数の破片(拡散オブジェクトに相当する。)が箱104の中心に設定された基準点Bから時間の経過とともに周囲に拡散(飛散)するイベントを拡散イベントとして考える。この場合、図3に多数の矢印で示したように、基準点Bを起点として様々な方向の速度ベクトルを持つ破片が発生すると考えれば、それらの破片が拡散する範囲は、図中に一点鎖線Dで示したように、基準点Bを中心として時間の経過とともにドーム状に徐々に広がるとみなすことができる。   In the game machine 1 of the present embodiment, a diffusion event occurs in the virtual three-dimensional space 120 when a predetermined diffusion event generation condition is satisfied during the game. Although the outline of the diffusion event has been described above, as a specific example, the box 104 shown in FIG. 3 explodes, and countless pieces (corresponding to the diffusion object) from the reference point B set at the center of the box 104. An event that diffuses (scatters) to the surroundings over time is considered as a diffusion event. In this case, as shown by a large number of arrows in FIG. 3, if it is assumed that fragments having velocity vectors in various directions from the reference point B are generated, the range in which these fragments diffuse is indicated by a one-dot chain line in the figure. As indicated by D, it can be regarded that the reference point B is gradually spread in a dome shape with the passage of time.

図5Aは、破片110が基準点Bの周囲に満遍なく拡散すると仮定したときの拡散範囲Dの一例を示している。破片110が拡散する様子をメイン画像101に表示するためには、拡散イベント発生時点で与えられる初期条件、例えば、爆発で与えられるエネルギーといった物理量であって、破片110の初期加速度といった破片110の軌道の演算に必要な各種の条件、及び、イベント発生時点からの経過時間tとをパラメータとして、破片110の軌道を演算するための関数式(運動方程式)を物理法則に従って構築し、その関数式を実装した論理モデルをコンピュータに実装して当該モデルにより破片110の位置を逐次演算し、それらの演算結果に従って仮想3次元空間120内における破片110の位置を変化させて仮想カメラ121L、121Rで撮影すればよい。以下では、図5Aに示したように破片110が拡散範囲D内でほぼ等しく分布する状態を記述する関数式を含んだ論理モデルを基本モデルと呼ぶ。その基本モデルにて演算された位置に破片110を配置したときの破片110の分布が基本分布に相当する。   FIG. 5A shows an example of the diffusion range D when it is assumed that the fragments 110 diffuse evenly around the reference point B. FIG. In order to display the state in which the fragments 110 diffuse in the main image 101, the initial condition given at the time of the diffusion event, for example, a physical quantity such as energy given by the explosion, and the trajectory of the fragments 110 such as the initial acceleration of the fragments 110 A function formula (motion equation) for calculating the trajectory of the shard 110 is constructed according to the physical law, using various conditions necessary for the calculation of the above and the elapsed time t from the time of the event occurrence as parameters. The mounted logical model is mounted on a computer, the position of the fragment 110 is sequentially calculated by the model, the position of the fragment 110 in the virtual three-dimensional space 120 is changed according to the calculation result, and the virtual cameras 121L and 121R are photographed. That's fine. Hereinafter, as shown in FIG. 5A, a logical model including a functional expression describing a state in which the fragments 110 are almost equally distributed within the diffusion range D is referred to as a basic model. The distribution of the fragments 110 when the fragments 110 are arranged at the position calculated by the basic model corresponds to the basic distribution.

上述した基本モデルを利用して破片110を描画した場合、破片110が物理法則に従って飛散する様子を正しく表現することができる。しかしながら、本形態のゲーム機1では、拡散範囲Dの破片110の分布に変化を与えることにより、立体感を強調する処理が行なわれる。その破片110の分布の変化は、図3に示したように、カメラ視点Aと拡散の基準点Bとを結ぶ方向Poに対するプレイヤの視線方向Pbのずれ角度を偏角θとしたときに、その偏角θに基づいて制御される。例えば、図5Bに示したように、視線方向Pbが基準点Bの近傍に向けられて偏角θが相対的に小さい場合には、その視線方向Pbと逆方向、つまり基準点Bからカメラ視点Aに向かう方向Eを軸として、破片110の密度が他の領域よりも相対的に大きい高密度領域111を生じさせる。これにより、プレイヤに向かって多数の破片110が飛んでくるような効果を生じさせて立体感を強調することができる。一方、図5Cに示したように、視線方向Pbが基準点Bの方向から離れた方向に向けられて偏角θが相対的に大きい場合には、その視線方向Pbを横切る方向Fを軸として高密度領域111を生じさせる。これにより、プレイヤの目の前を多数の破片110が横切るような効果を生じさせて立体感を強調することができる。これらの軸E、Fが主方向に相当する。   When the debris 110 is drawn using the basic model described above, it is possible to correctly represent how the debris 110 scatters according to the physical laws. However, in the game machine 1 of the present embodiment, the process of enhancing the stereoscopic effect is performed by changing the distribution of the fragments 110 in the diffusion range D. As shown in FIG. 3, the change in the distribution of the fragments 110 is obtained when the deviation angle of the player's line-of-sight direction Pb with respect to the direction Po connecting the camera viewpoint A and the diffusion reference point B is defined as the declination angle θ. Control is based on the deflection angle θ. For example, as shown in FIG. 5B, when the line-of-sight direction Pb is directed to the vicinity of the reference point B and the declination angle θ is relatively small, the camera viewpoint is viewed from the direction opposite to the line-of-sight direction Pb, that is, from the reference point B. A high-density region 111 in which the density of the fragments 110 is relatively larger than other regions is generated with the direction E toward A as an axis. As a result, it is possible to enhance the stereoscopic effect by producing an effect that a large number of pieces 110 fly toward the player. On the other hand, as shown in FIG. 5C, when the line-of-sight direction Pb is directed away from the direction of the reference point B and the declination angle θ is relatively large, the direction F crossing the line-of-sight direction Pb is used as an axis. A high density region 111 is produced. As a result, it is possible to enhance the stereoscopic effect by producing an effect that a large number of pieces 110 cross the front of the player. These axes E and F correspond to the main direction.

上記のような高密度領域111を生じさせるためには、例えば、図6に示したように、基準点Bを頂点とする円錐形でかつ中心軸Gに近付くほど破片110の密度が高くなる破片追加領域112を、基準点Bが図5Aの拡散範囲Dの基準点Bと一致し、かつ中心軸Gの向きが偏角θに応じた主方向と一致するようにして、図5Aの拡散範囲Dに重ね合わせればよい。そのような手法を実現するためには、拡散イベント発生時点で与えられる初期条件、例えば、爆発で与えられるエネルギーと、イベント発生時点からの経過時間tとをパラメータとして、破片追加領域112が生成されるように破片110の軌道を演算するための関数式(運動方程式)を構築し、その関数式を実装した論理モデルをコンピュータに実装して当該モデルにより破片110の位置を逐次演算し、それらの演算結果と偏角θとに従って、仮想3次元空間120内の拡散範囲Dに破片追加領域112を重ね合わせて配置すればよい。以下では、破片追加領域112を記述する関数式を含んだ論理モデルを3D効果強調モデルと呼ぶ。なお、以上では、基本モデル及び3D効果強調モデルのいずれも、破片110の軌道、あるいは位置を演算するための論理モデルとして説明したが、それらのモデルは破片110に限らず、拡散イベントで表示されるべき各種の拡散オブジェクトの軌道、あるいは位置の演算に適用される。つまり、本形態では、拡散オブジェクトの一例として、爆発で飛び散る破片110を取り挙げているに過ぎない。   In order to generate the high-density region 111 as described above, for example, as illustrated in FIG. 6, a fragment having a conical shape having a reference point B as an apex, and the density of the fragments 110 increases as the distance from the central axis G increases. The additional area 112 is set such that the reference point B coincides with the reference point B of the diffusion range D of FIG. 5A and the direction of the central axis G coincides with the main direction according to the declination angle θ. D may be superimposed on D. In order to realize such a method, the fragment additional region 112 is generated using the initial condition given at the time of the diffusion event occurrence, for example, the energy given by the explosion and the elapsed time t from the event occurrence time as parameters. A functional expression (equation of motion) for calculating the trajectory of the fragment 110 is constructed so that a logical model that implements the functional expression is mounted on a computer, and the position of the fragment 110 is sequentially calculated using the model. According to the calculation result and the deviation angle θ, the debris addition region 112 may be arranged so as to overlap the diffusion range D in the virtual three-dimensional space 120. Hereinafter, a logical model including a function formula describing the fragment addition area 112 is referred to as a 3D effect enhancement model. In the above description, both the basic model and the 3D effect enhancement model have been described as logical models for calculating the trajectory or position of the fragment 110. However, these models are not limited to the fragment 110, and are displayed as diffusion events. This is applied to the calculation of the trajectory or position of various diffuse objects. That is, in this embodiment, as an example of the diffusion object, only the debris 110 scattered by explosion is taken up.

次に、上記の方法でメイン画像101を生成するための画像処理部13の構成を説明する。図7に示したように、画像処理部13には、シーン構築部20と、左眼用画像演算部21Lと、右眼用画像演算部21Rと、画像合成部22と、画像信号生成部23とが設けられている。拡散画像処理部14は、シーン構築部20に対応付けて設けられている。シーン構築部20は、仮想3次元空間120に各種のオブジェクトを配置するとともに、仮想カメラ121L、121Rをカメラ視点A及び撮影方向Paに応じて仮想3次元空間120に配置する。また、シーン構築部20は、拡散イベントが発生している場合、破片110の3次元空間120内における位置座標を演算するために必要な情報を拡散画像処理部14に引き渡し、拡散画像処理部14から破片110の位置座標を受取ってそれらの位置に破片110を配置する。拡散画像処理部14の処理は後述する。   Next, the configuration of the image processing unit 13 for generating the main image 101 by the above method will be described. As shown in FIG. 7, the image processing unit 13 includes a scene construction unit 20, a left eye image calculation unit 21 </ b> L, a right eye image calculation unit 21 </ b> R, an image composition unit 22, and an image signal generation unit 23. And are provided. The diffusion image processing unit 14 is provided in association with the scene construction unit 20. The scene construction unit 20 arranges various objects in the virtual three-dimensional space 120 and arranges the virtual cameras 121L and 121R in the virtual three-dimensional space 120 according to the camera viewpoint A and the shooting direction Pa. In addition, when a diffusion event occurs, the scene construction unit 20 passes information necessary for calculating the position coordinates of the fragments 110 in the three-dimensional space 120 to the diffusion image processing unit 14, and the diffusion image processing unit 14. The position coordinates of the fragments 110 are received from and the fragments 110 are arranged at those positions. The processing of the diffusion image processing unit 14 will be described later.

左眼用画像演算部21Lは、シーン構築部20が構築した仮想3次元空間120を、左眼用仮想カメラ121Lから撮影して2次元の左眼用画像を描画するために必要な演算を実行する。右眼用画像演算部21Rは、シーン構築部20が構築した仮想3次元空間120を、右眼用仮想カメラ121Rから撮影して2次元の右眼用画像を描画するために必要な演算を実行する。画像合成部22は、両画像演算部21L、21Rが演算した画像を合成することにより、3Dグラス9を介して3次元映像を観察させるために必要な画像データを合成する。画像信号生成部23は、画像合成部22が合成した画像データを所定の画像信号に変換してモニタ4に出力する。   The left-eye image calculation unit 21L performs a calculation necessary for photographing the virtual three-dimensional space 120 constructed by the scene construction unit 20 from the left-eye virtual camera 121L and rendering a two-dimensional left-eye image. To do. The right-eye image calculation unit 21R performs a calculation necessary for photographing the virtual three-dimensional space 120 constructed by the scene construction unit 20 from the right-eye virtual camera 121R and rendering a two-dimensional right-eye image. To do. The image synthesis unit 22 synthesizes the image data necessary for observing the 3D video through the 3D glass 9 by synthesizing the images calculated by the image calculation units 21L and 21R. The image signal generation unit 23 converts the image data combined by the image combining unit 22 into a predetermined image signal and outputs it to the monitor 4.

図8は、拡散画像処理部14の構成を示している。拡散画像処理部14は、基本モデル演算部25と、3D効果強調モデル部26とを有している。基本モデル演算部25は、上述した基本モデルを実装し、拡散イベント発生時の初期条件(エネルギー、初期加速度等)とイベント発生時点からの経過時間tとに基づいて、図5Aに示す拡散範囲Dにおける各破片110の位置を演算する。なお、基本モデル演算部25における破片110の位置は、ひとまず図5Aに示したモデル座標系Xd−Yd−Zdに従って行なわれ、その後に、仮想3次元空間120のワールド座標系X−Y−Zに従って座標変換される。一方、3D効果強調モデル部26は、上述した3D効果強調モデルを実装し、上記の初期条件に基づいて図6に示した破片追加領域112における各破片110の位置を自らのモデル座標系に従って演算する。また、3D効果強調モデル部26は、偏角θに応じて、破片追加領域112の軸Gのワールド座標系X−Y−Zにおける向きを決定し、その向きに従って、破片110の位置をワールド座標系X−Y−Zにおける座標に変換する。なお、軸Gの向きは、上述したように偏角θが小さいときは軸Gがカメラ視点Aに向かうように、偏角θが大きいときは軸Gが視線方向Pbを横切る方向に向かうように決定される。偏角θに閾値を設定し、偏角θと閾値との大小関係に応じて軸Gの向きを二段階で変化させてもよいし、偏角θの変化に応じて軸Gの向きを多段階にあるいは無段階に変化させてもよい。破片110の位置及び軸Gの向きをワールド座標系において定義するため、拡散画像処理部14には、シーン構築部20から基準点Bのワールド座標系における座標及び撮影方向Paを特定する情報も与えられる。ただし、破片110のワールド座標系への座標変換及び軸Gの向きの決定をシーン構築部20にて行ってもよい。   FIG. 8 shows the configuration of the diffusion image processing unit 14. The diffusion image processing unit 14 includes a basic model calculation unit 25 and a 3D effect enhancement model unit 26. The basic model calculation unit 25 implements the basic model described above, and based on the initial conditions (energy, initial acceleration, etc.) at the time of occurrence of the diffusion event and the elapsed time t from the event occurrence time, the diffusion range D shown in FIG. 5A. The position of each piece 110 is calculated. Note that the position of the fragment 110 in the basic model calculation unit 25 is first performed in accordance with the model coordinate system Xd-Yd-Zd shown in FIG. 5A, and then in accordance with the world coordinate system XYZ in the virtual three-dimensional space 120. The coordinates are converted. On the other hand, the 3D effect enhancement model unit 26 implements the 3D effect enhancement model described above, and calculates the position of each fragment 110 in the fragment addition region 112 shown in FIG. 6 according to its own model coordinate system based on the above initial conditions. To do. Further, the 3D effect enhancement model unit 26 determines the orientation of the axis G of the debris addition region 112 in the world coordinate system XYZ according to the declination angle θ, and the position of the debris 110 is set to the world coordinates according to the orientation. Convert to coordinates in the system XYZ. The direction of the axis G is such that the axis G is directed toward the camera viewpoint A when the declination angle θ is small as described above, and the axis G is directed in a direction crossing the line-of-sight direction Pb when the declination angle θ is large. It is determined. A threshold value may be set for the deflection angle θ, and the direction of the axis G may be changed in two steps according to the magnitude relationship between the deflection angle θ and the threshold value, or the direction of the axis G may be varied according to the change of the deflection angle θ. It may be changed step by step or steplessly. In order to define the position of the fragment 110 and the direction of the axis G in the world coordinate system, the diffusion image processing unit 14 is also given information specifying the coordinates of the reference point B in the world coordinate system and the shooting direction Pa from the scene construction unit 20. It is done. However, the scene construction unit 20 may perform coordinate conversion of the fragments 110 into the world coordinate system and determination of the direction of the axis G.

両モデル部25、26で演算された破片110の座標は、合成されて画像処理部13のシーン構築部20に返される。シーン構築部20は、拡散画像処理部14から返された破片110等の拡散オブジェクト(破片110)の位置座標に従って、それらの拡散オブジェクトを仮想3次元空間120に配置する。これにより、図5Bあるいは図5Cに示したように、偏角θに応じた向きで高密度領域111が生じている拡散範囲Dがメイン画像101に描画される。   The coordinates of the fragments 110 calculated by both model units 25 and 26 are synthesized and returned to the scene construction unit 20 of the image processing unit 13. The scene construction unit 20 arranges these diffusion objects in the virtual three-dimensional space 120 according to the position coordinates of the diffusion objects (debris 110) such as the fragments 110 returned from the diffusion image processing unit 14. As a result, as shown in FIG. 5B or FIG. 5C, the diffusion range D in which the high-density region 111 occurs in the direction corresponding to the deflection angle θ is drawn on the main image 101.

図9は、拡散画像処理部14が拡散オブジェクトの座標を演算するために所定の周期で実行する拡散イベント処理ルーチンを示すフローチャートである。拡散画像処理部14は、まずステップS1で拡散イベント発生条件が成立しているか否かを判別し、成立していなければ今回のルーチンを終了する。一方、ステップS1にて拡散イベントの発生条件が成立している場合、拡散画像処理部14はステップS2へ進んで拡散オブジェクトの位置を演算するための初期条件を取得する。初期条件は、拡散オブジェクトに与えられる速度ベクトルを特定するために必要な情報である。続くステップS3で、拡散画像処理部14は偏角θを取得する。偏角θは、制御ユニット2が決定したカメラ視点Aと基準点B、及び視線方向Pbとから与えられる。次のステップS4において、拡散画像処理部14は拡散オブジェクトの座標を演算し、さらにステップS5で演算した座標をシーン構築部20に出力する。座標の演算手順は上述した通りである。その後、拡散画像処理部14は拡散イベントの終了条件が成立したか否かを判別する。終了条件は、例えば拡散イベントの発生時点からの所定時間が経過したか否か、あるいは拡散オブジェクトが全て地上に落ちるなどして、消滅したとみなしてよいか否か、といった様々な観点から定めてよい。   FIG. 9 is a flowchart showing a diffusion event processing routine executed by the diffusion image processing unit 14 at a predetermined cycle in order to calculate the coordinates of the diffusion object. First, in step S1, the diffusion image processing unit 14 determines whether or not a diffusion event occurrence condition is satisfied. If not, the current routine is terminated. On the other hand, if the diffusion event generation condition is satisfied in step S1, the diffusion image processing unit 14 proceeds to step S2 and acquires an initial condition for calculating the position of the diffusion object. The initial condition is information necessary for specifying the velocity vector given to the diffusion object. In subsequent step S3, the diffusion image processing unit 14 acquires the declination angle θ. The deflection angle θ is given from the camera viewpoint A, the reference point B, and the line-of-sight direction Pb determined by the control unit 2. In the next step S4, the diffusion image processing unit 14 calculates the coordinates of the diffusion object, and further outputs the coordinates calculated in step S5 to the scene construction unit 20. The coordinate calculation procedure is as described above. Thereafter, the diffusion image processing unit 14 determines whether or not a diffusion event end condition is satisfied. The end condition is determined from various viewpoints, for example, whether a predetermined time has elapsed since the occurrence of the diffusion event, or whether all the diffusion objects can be regarded as extinguished by dropping to the ground. Good.

イベント終了条件が成立していない場合、拡散画像処理部14はステップS7に進み、経過時間tを更新する。ここで更新される時間は、モニタ4における画像の描画周期(フレームレート)に等しい。その後、拡散画像処理部14はステップS3の処理に戻る。これにより、拡散イベント発生以降の偏角θの変化に対して、拡散範囲Dにおける高密度領域111の向きを追従させることができる。また、経過時間tが逐次更新されることにより、拡散範囲Dは徐々に拡大する。そして、ステップS6で拡散イベントの終了条件が成立したと判断されると、拡散画像処理部14は今回のルーチンを終了する。   If the event end condition is not satisfied, the diffusion image processing unit 14 proceeds to step S7 and updates the elapsed time t. The time updated here is equal to the image drawing cycle (frame rate) on the monitor 4. Thereafter, the diffusion image processing unit 14 returns to the process of step S3. Thereby, the direction of the high-density region 111 in the diffusion range D can be made to follow the change in the deflection angle θ after the occurrence of the diffusion event. Moreover, the diffusion range D is gradually expanded by sequentially updating the elapsed time t. When it is determined in step S6 that the diffusion event end condition is satisfied, the diffusion image processing unit 14 ends the current routine.

以上の形態では、視線検出センサ10が視線検出手段に相当し、制御ユニット2が視線方向判別手段に相当する。また、制御ユニット2は、図9又は図11のステップS3の処理を実行することにより偏角判別手段として機能し、図9又は図11のステップS4及びステップS5を実行しかつステップS5で出力される座標に拡散オブジェクトとしての破片110を配置することにより分布制御手段として機能する。また、図8の基本モデル演算部25が基本位置演算手段に、3D効果強調モデル演算部26が追加位置演算手段にそれぞれ相当し、図10の分布補正部27が位置補正手段に相当する。そして、制御ユニット2は、拡散画像処理部14にて演算された位置に破片110を配置することにより、オブジェクト配置手段として機能する。   In the above embodiment, the line-of-sight detection sensor 10 corresponds to the line-of-sight detection means, and the control unit 2 corresponds to the line-of-sight direction determination means. Further, the control unit 2 functions as a declination angle discriminating unit by executing the process of step S3 of FIG. 9 or FIG. 11, executes step S4 and step S5 of FIG. 9 or FIG. 11, and is output in step S5. It functions as a distribution control means by arranging the fragments 110 as diffusion objects at the coordinates. 8 corresponds to the basic position calculation means, the 3D effect enhancement model calculation section 26 corresponds to the additional position calculation means, and the distribution correction section 27 in FIG. 10 corresponds to the position correction means. The control unit 2 functions as an object placement unit by placing the fragments 110 at the positions calculated by the diffusion image processing unit 14.

本発明は上述した形態に限定されず、種々の形態にて実施することが可能である。例えば、上記の形態では、基本モデルを利用して演算された破片110の位置に、3D効果強調モデルを利用して演算された破片110の位置を重ね合わせることにより、図5Aの拡散範囲Dに図6の破片追加領域112を追加して、偏角θに応じた方向に高密度領域111を生じさせている。しかしながら、偏角θに応じた方向に拡散オブジェクトをより高密度で配置させるためには、拡散オブジェクトを追加する形態に限らない。例えば、図5Aのような拡散範囲Dに含まれている拡散オブジェクトとしての破片110の一部に関してその速度ベクトルの方向、つまりは、破片110が拡散する方向を変更することにより、拡散範囲Dにおける分布に変化を与えて高密度領域111を生じさせてもよい。その場合、拡散画像処理部14は、例えば図10に示したように、基本モデル演算部25にて演算された破片110の座標を分布補正部27に与え、その分布補正部27にて、偏角θに応じて主方向を判別し、その判別した主方向に一部の破片110が集まるようにそれらの一部の破片110の座標を変更することにより、偏角θに対応した方向に高密度領域111を生じさせるように構成されてもよい。また、破片追加領域112を追加する場合、その領域112内における破片110の分布は必ずしも軸Gの中心に向かって密度が高くなるよう設定されることを要しない。破片追加領域112において破片110を均等に分布させた場合でも、その領域112を拡散範囲Dに追加すれば高密度領域111を生じさせることが可能である。   This invention is not limited to the form mentioned above, It can implement with a various form. For example, in the above embodiment, the position of the fragment 110 calculated using the 3D effect enhancement model is superimposed on the position of the fragment 110 calculated using the basic model, thereby obtaining the diffusion range D of FIG. 5A. The debris addition region 112 of FIG. 6 is added, and the high density region 111 is generated in the direction corresponding to the declination angle θ. However, in order to arrange the diffusion objects at a higher density in the direction according to the deflection angle θ, the configuration is not limited to a mode in which the diffusion objects are added. For example, by changing the direction of the velocity vector of a part of the fragment 110 as the diffusion object included in the diffusion range D as shown in FIG. 5A, that is, the direction in which the fragment 110 diffuses, The high density region 111 may be generated by changing the distribution. In that case, the diffusion image processing unit 14 gives the coordinates of the fragments 110 calculated by the basic model calculation unit 25 to the distribution correction unit 27, as shown in FIG. The main direction is determined according to the angle θ, and the coordinates of the partial fragments 110 are changed so that the partial fragments 110 gather in the determined main direction, thereby increasing the direction in the direction corresponding to the deviation angle θ. It may be configured to produce a density region 111. Further, when adding the fragment addition region 112, the distribution of the fragments 110 in the region 112 does not necessarily need to be set so that the density increases toward the center of the axis G. Even when the fragments 110 are evenly distributed in the fragment addition region 112, if the region 112 is added to the diffusion range D, the high-density region 111 can be generated.

上記の形態では、拡散オブジェクトの分布密度を偏角θに応じて変化させているが、立体感を強調するためのさらなる処理として、カメラ視点Aから拡散オブジェクトまでの距離に応じて拡散オブジェクトの速度に変化を与えてもよい。例えば、偏角θが大きくて、視線方向Pbを横切る方向により多くの拡散オブジェクトを飛散させる場合には、カメラ視点Aから拡散オブジェクトまでの距離に応じて拡散オブジェクトの速度に変化を与えてもよい。すなわち、カメラ視点Aの近くを拡散オブジェクトが横切る場合には、それらの拡散オブジェクトがプレイヤキャラクタの手前を短時間に通り過ぎてしまう。そのため、視線方向Pbを横切る方向により多くの拡散オブジェクトを配置したとしても、それらによる立体感の強調効果が早期に失われる。そこで、カメラ視点Aからの距離が近い拡散オブジェクトは、カメラ視点Aに対してより遠方にある拡散オブジェクトよりも速度を遅くし、それにより、奥行感をより長い時間意識させて立体感をさらに強調することができる。   In the above embodiment, the distribution density of the diffuse object is changed according to the deflection angle θ. However, as a further process for enhancing the stereoscopic effect, the speed of the diffuse object is determined according to the distance from the camera viewpoint A to the diffuse object. May be changed. For example, in the case where a large number of diffusing objects are scattered in a direction crossing the line-of-sight direction Pb with a large declination angle θ, the speed of the diffusing object may be changed according to the distance from the camera viewpoint A to the diffusing object. . That is, when diffusion objects cross near the camera viewpoint A, these diffusion objects pass in front of the player character in a short time. Therefore, even if more diffusion objects are arranged in the direction crossing the line-of-sight direction Pb, the effect of enhancing the stereoscopic effect due to them is lost early. Therefore, a diffused object that is close to the camera viewpoint A has a slower speed than a diffused object that is farther away from the camera viewpoint A, thereby further enhancing the stereoscopic effect by making the sense of depth longer. can do.

図11は、上記のようにカメラ視点Aから拡散オブジェクトまでの距離に応じて速度を変化させる場合に制御ユニット2が実行する拡散イベント処理ルーチンを示している。図11においては、ステップS1〜S4、S5〜S7は図9の同一番号のステップと同一の処理であり、説明を省略する。図11のルーチンの特徴は、ステップS4にて破片110の位置を演算した後、制御ユニット2がステップS10に進んでカメラ視点Aから破片110までの距離を演算し、その距離が一定未満の破片110については、ステップS4にて演算された位置よりも基準点Bに近付くようにその位置を補正することにより、カメラ視点Aに近い破片110の速度をカメラ視点Aから遠い破片110のそれよりも遅くする。その後、制御ユニット2はステップS5の処理に進む。このステップS10の処理を実行することにより、制御ユニット2は速度制御手段として機能する。   FIG. 11 shows a diffusion event processing routine executed by the control unit 2 when the speed is changed according to the distance from the camera viewpoint A to the diffusion object as described above. In FIG. 11, steps S1 to S4 and S5 to S7 are the same processes as the steps with the same numbers in FIG. The routine shown in FIG. 11 is characterized in that after the position of the shard 110 is calculated in step S4, the control unit 2 proceeds to step S10 to calculate the distance from the camera viewpoint A to the shard 110, and the distance is less than a certain value. For 110, the position of the shard 110 closer to the camera viewpoint A is made faster than that of the shard 110 far from the camera viewpoint A by correcting the position so as to be closer to the reference point B than the position calculated in step S 4. Slow down. Thereafter, the control unit 2 proceeds to the process of step S5. By executing the processing of step S10, the control unit 2 functions as a speed control means.

本発明において、拡散オブジェクトは、所定の基準点から時間の経過とともに拡散するように描かれるべきオブジェクトである限り、適宜に変更されてよい。例えば、鳥、魚等のオブジェクトの群れが拡散する様子を表現する場合において、それら群内の適当な位置に基準点を設定し、その群内のオブジェクトの分布を偏角θに基づいて上記と同様に制御してもよい。群れが拡散しつつ移動する場合には、基準点もその移動に応じて漸次移動させてよい。つまり、基準点は仮想3次元空間内の一定の位置に固定されることを必ずしも要しない。   In the present invention, the diffusion object may be appropriately changed as long as it is an object that should be drawn so as to diffuse with the passage of time from a predetermined reference point. For example, when expressing how a group of objects such as birds and fish is diffused, a reference point is set at an appropriate position in the group, and the distribution of the objects in the group is calculated based on the argument θ. You may control similarly. When the swarm moves while diffusing, the reference point may be gradually moved according to the movement. That is, the reference point does not necessarily need to be fixed at a certain position in the virtual three-dimensional space.

上記の形態においては、拡散オブジェクトとしての破片を物理法則に従って拡散させた場合の軌道を演算できるように基本モデルを構築したが、基本モデルはそのような物理法則を利用した例に限らない。上述した鳥等の群れを基本モデルで処理する場合には、その群れが拡散する様子を任意に設定して基本モデルを構築することができる。要するに、基本モデルは、偏角θに応じて拡散オブジェクトの分布を変化させる前の段階において、所定の基本分布に従って拡散オブジェクトを配置するために必要な拡散オブジェクトの位置を演算するためのものであればよく、その基本モデルによって決定される拡散オブジェクトの基本分布に対して、偏角θに応じた分布の変化を、拡散オブジェクトの特定方向への追加、あるいは基本モデルによる分布の補正といった手法を利用して実現できればよい。   In the above embodiment, the basic model is constructed so that the trajectory when the fragments as the diffusion object are diffused according to the physical law can be calculated, but the basic model is not limited to the example using such a physical law. When the above-mentioned flock of birds or the like is processed with the basic model, it is possible to construct a basic model by arbitrarily setting how the flock spreads. In short, the basic model is for calculating the position of the diffusing object necessary for arranging the diffusing object according to the predetermined basic distribution in the stage before changing the distribution of the diffusing object according to the argument θ. It is only necessary to use a method such as adding a change in the distribution object according to the declination angle θ to the specific direction of the diffuse object or correcting the distribution using the basic model for the basic distribution of the diffuse object determined by the basic model. It just needs to be realized.

上記の形態では、仮想カメラによる撮影方向とプレイヤの視線方向との間にずれが生じ得る場合について説明したが、検出された視線の方向と撮影方向とが常に一致するように仮想カメラを制御する場合であっても、カメラ視点と拡散オブジェクトの基準点とを結ぶ方向に対する視線方向の偏角に基づいて拡散オブジェクトの分布を制御すればよい。   In the above embodiment, a case has been described in which a deviation may occur between the shooting direction of the virtual camera and the viewing direction of the player, but the virtual camera is controlled so that the detected viewing direction and the shooting direction always coincide. Even in this case, it is only necessary to control the distribution of the diffusing object based on the deflection angle of the viewing direction with respect to the direction connecting the camera viewpoint and the reference point of the diffusing object.

上記の形態では、仮想3次元空間内にプレイヤがあたかも実在し、そのプレイヤから見た仮想3次元空間の様子が表示されるように、プレイヤの眼の位置に仮想カメラを配置してプレイヤが見ている方向と仮想カメラの撮影方向とを一致させる、いわゆる主観視点にてゲーム画面を描画する例を挙げて本発明を説明している。しかし、本発明は、プレイヤの操作対象となるキャラクタ(プレイヤキャラクタ)とは異なる、いわゆる客観視点(例えばプレイヤキャラクタの背後の位置)にカメラを配置し、プレイヤキャラクタ及びそれ以外の周囲の標的等を含んだ様子をゲーム画面に描画する例にも適用可能である。客観視点にてゲーム画面を描く場合、上述した偏角に加えて、他の要素を拡散オブジェクトの分布の制御に反映させてもよい。例えば、プレイヤキャラクタに拡散オブジェクトが当たるか否かによって拡散オブジェクトを増加させるべき方向を変更するといった制御を加えてもよい。   In the above form, the virtual camera is placed at the eye position of the player so that the player can see the virtual three-dimensional space as viewed from the player. The present invention is described by taking an example in which a game screen is drawn from a so-called subjective viewpoint in which the current direction matches the shooting direction of the virtual camera. However, according to the present invention, a camera is arranged at a so-called objective viewpoint (for example, a position behind the player character) that is different from the character (player character) to be operated by the player, and the player character and other surrounding targets, etc. The present invention can also be applied to an example of drawing a state of inclusion on a game screen. When drawing a game screen from an objective viewpoint, in addition to the above-described declination, other elements may be reflected in the control of the diffusion object distribution. For example, a control of changing the direction in which the diffusion object should be increased may be added depending on whether or not the diffusion object hits the player character.

上記の形態では、左眼用画像と右眼用画像とを生成して観察者に3次元映像を提示するための画像生成装置を例示したが、本発明はこれに限らない。単一の仮想カメラにて仮想3次元空間を撮影した画像を観察者に提示するための画像生成装置に本発明を適用した場合でも、拡散オブジェクトの分布の変化により観察者が感じ取る立体感を高めることが可能である。さらに、本発明はゲーム機に適用される形態に限らず、各種の用途の画像生成に適用することができる。   In the above embodiment, the image generation apparatus for generating the left-eye image and the right-eye image and presenting the 3D video to the observer is exemplified, but the present invention is not limited to this. Even when the present invention is applied to an image generation apparatus for presenting an image obtained by photographing a virtual three-dimensional space with a single virtual camera to an observer, the stereoscopic effect perceived by the observer due to a change in the distribution of diffuse objects is enhanced. It is possible. Furthermore, the present invention is not limited to a form applied to a game machine, and can be applied to image generation for various uses.

1 ゲーム機(画像生成装置)
2 制御ユニット(視線方向判別手段、偏角判別手段、分布制御手段、速度制御手段)
10 視線検出センサ(視線検出手段)
11 ゲームプログラム
13 画像処理部
14 拡散画像処理部
25 基本モデル演算部(基本位置演算手段)
26 3D効果強調モデル部(追加位置演算手段)
27 分布補正部(位置補正手段)
100 ゲーム画面
101 メイン画像
110 破片(拡散オブジェクト)
111 高密度領域
120 仮想3次元空間
121L 左眼用仮想カメラ
121R 右眼用仮想カメラ
A カメラ視点
B 基準点
Cm メイン画像の中心点
D 拡散範囲
G 中心軸
PC プレイヤキャラクタ
Pa 撮影方向
Pb 視線方向
θ 偏角
1 Game console (image generator)
2 Control unit (gaze direction discrimination means, declination discrimination means, distribution control means, speed control means)
10 Gaze detection sensor (Gaze detection means)
DESCRIPTION OF SYMBOLS 11 Game program 13 Image processing part 14 Diffusion image processing part 25 Basic model calculating part (basic position calculating means)
26 3D effect enhancement model part (additional position calculation means)
27 Distribution correction unit (position correction means)
100 Game screen 101 Main image 110 Fragment (Diffusion object)
111 High-density area 120 Virtual three-dimensional space 121L Left-eye virtual camera 121R Right-eye virtual camera A Camera viewpoint B Reference point Cm Center point of main image D Diffusion range G Center axis PC Player character Pa Shooting direction Pb Line-of-sight direction θ Bias Corner

Claims (10)

仮想3次元空間にて、複数の拡散オブジェクトが所定の基準点から時間の経過とともに拡散するように各拡散オブジェクトを移動させ、前記拡散オブジェクトを前記仮想3次元空間に設定されたカメラ視点から撮影した画像を生成し、該画像を表示装置の画面上に表示させる画像生成装置であって、
前記表示装置の画面に対する観察者の視線を検出する視線検出手段と、
前記視線検出手段の検出結果に基づいて、前記仮想3次元空間内で前記カメラ視点から前記観察者が視ている方向を視線方向として判別する視線方向判別手段と、
前記カメラ視点と前記基準点とを結ぶ方向に対して前記視線方向がずれている角度を偏角として判別する偏角判別手段と、
前記偏角が小さいときには前記カメラ視点に向かって移動する拡散オブジェクトの個数が増加し、前記偏角が大きいときには前記視線方向を横切る方向に移動する拡散オブジェクトの個数が増加するように、前記偏角に基づいて前記仮想3次元空間における前記拡散オブジェクトの分布を制御する分布制御手段と、
を備えた画像生成装置。
In the virtual three-dimensional space, each diffusion object is moved so that a plurality of diffusion objects diffuse from a predetermined reference point as time elapses, and the diffusion object is photographed from the camera viewpoint set in the virtual three-dimensional space. An image generation device that generates an image and displays the image on a screen of a display device,
Line-of-sight detection means for detecting the line of sight of the viewer with respect to the screen of the display device;
Based on the detection result of the line-of-sight detection means, the line-of-sight direction determining means for determining the direction that the observer is viewing from the camera viewpoint as the line-of-sight direction in the virtual three-dimensional space;
Declination determination means for determining an angle at which the line-of-sight direction is deviated from a direction connecting the camera viewpoint and the reference point as a declination;
When the declination is small, the number of diffusing objects that move toward the camera viewpoint increases, and when the declination is large, the number of diffusing objects that move in a direction crossing the line-of-sight direction increases. Distribution control means for controlling the distribution of the diffusion object in the virtual three-dimensional space based on
An image generation apparatus comprising:
前記分布制御手段は、前記拡散オブジェクトの個数を増加させるべき方向を主方向として判別し、前記拡散オブジェクトが他の領域よりも高密度で分布する高密度領域を前記主方向に沿って生じさせることにより、前記偏角に応じて前記拡散オブジェクトの分布を変化させる請求項1に記載の画像生成装置。   The distribution control means determines a direction in which the number of diffusion objects should be increased as a main direction, and generates a high-density region along the main direction in which the diffusion object is distributed at a higher density than other regions. The image generation apparatus according to claim 1, wherein the distribution of the diffusion object is changed according to the deviation angle. 前記分布制御手段は、所定の基本分布に従って前記仮想3次元空間に配置される拡散オブジェクトとは別に、前記拡散オブジェクトの個数を増加させるべき方向としての主方向に沿って移動する拡散オブジェクトを前記仮想3次元空間に追加して配置する請求項1に記載の画像生成装置。   The distribution control means includes a virtual object that moves along a main direction as a direction in which the number of the diffused objects should be increased, separately from the diffused objects arranged in the virtual three-dimensional space according to a predetermined basic distribution. The image generating apparatus according to claim 1, wherein the image generating apparatus is additionally arranged in a three-dimensional space. 前記分布制御手段は、前記拡散オブジェクトを前記所定の基本分布に従って前記仮想3次元空間に配置するために必要な拡散オブジェクトの位置を演算する基本位置演算手段と、前記主方向に沿って前記拡散オブジェクトを追加して配置するために必要な拡散オブジェクトの位置を演算する追加位置演算手段と、前記基本位置演算手段及び前記追加演算手段にて演算された位置のそれぞれに従って前記拡散オブジェクトを配置するオブジェクト配置手段とを備えている請求項3に記載の画像生成装置。   The distribution control means includes basic position calculation means for calculating a position of a diffusion object necessary for arranging the diffusion object in the virtual three-dimensional space according to the predetermined basic distribution, and the diffusion object along the main direction. An additional position calculating means for calculating the position of the diffused object necessary for adding and arranging the object, and an object arrangement for arranging the diffused object according to each of the positions calculated by the basic position calculating means and the additional calculating means The image generation apparatus according to claim 3, further comprising: means. 前記分布制御手段は、所定の基本分布に従って前記仮想3次元空間に配置されるべき拡散オブジェクトのうち、少なくとも一部の拡散オブジェクトの位置を、前記拡散オブジェクトの個数を増加させるべき方向としての主方向に沿って集まるように補正して前記仮想3次元空間に配置する請求項1に記載の画像生成装置。   The distribution control means is configured to determine the positions of at least some of the diffusion objects to be arranged in the virtual three-dimensional space according to a predetermined basic distribution as main directions as directions in which the number of the diffusion objects should be increased. The image generation apparatus according to claim 1, wherein the image generation apparatus is arranged so as to be gathered along the virtual three-dimensional space after being corrected. 前記分布制御手段は、前記拡散オブジェクトを前記所定の基本分布に従って前記仮想3次元空間に配置するために必要な拡散オブジェクトの位置を演算する基本位置演算手段と、少なくとも一部の拡散オブジェクトが前記主方向に沿って集まるように前記基本位置演算手段にて演算された位置を補正する位置補正手段と、前記位置補正手段による補正後の位置に従って前記拡散オブジェクトを配置するオブジェクト配置手段とを備えている請求項5に記載の画像生成装置。   The distribution control means includes basic position calculation means for calculating a position of a diffusion object necessary for arranging the diffusion object in the virtual three-dimensional space according to the predetermined basic distribution, and at least some of the diffusion objects are the main objects. A position correcting unit that corrects the position calculated by the basic position calculating unit so as to gather along the direction; and an object arranging unit that arranges the diffused object according to the position corrected by the position correcting unit. The image generation apparatus according to claim 5. 前記視線方向を横切る方向に移動する拡散オブジェクトの速度を、前記カメラ視点から拡散オブジェクトまでの距離が小さいときは大きいときよりも遅くなるように変化させる速度制御手段をさらに備えた請求項1〜6のいずれか一項に記載の画像生成装置。   The speed control means which changes further the speed of the diffusion object which moves in the direction which crosses the said sight line direction so that it may become slower than when it is large when the distance from the camera viewpoint to the diffusion object is small. The image generation device according to any one of the above. 前記仮想3次元空間には、左眼用仮想カメラと右眼用仮想カメラとが視差に相当する距離を隔てて設けられ、
前記左眼用仮想カメラと前記右眼用カメラとがそれぞれ撮影した画像を利用して3次元映像が観察者に提示される請求項1〜7のいずれか一項に記載の画像生成装置。
In the virtual three-dimensional space, a left-eye virtual camera and a right-eye virtual camera are provided at a distance corresponding to parallax,
The image generating apparatus according to any one of claims 1 to 7, wherein a three-dimensional image is presented to an observer using images respectively captured by the left-eye virtual camera and the right-eye camera.
仮想3次元空間にて、複数の拡散オブジェクトを所定の基準点から時間の経過とともに拡散するように各拡散オブジェクトを移動させ、前記拡散オブジェクトを前記仮想3次元空間に設定されたカメラ視点から撮影した画像を生成し、該画像を表示装置の画面上に表示させる画像生成方法であって、
視線検出手段を利用して、前記表示装置の画面に対する観察者の視線を検出する工程と、
前記視線検出手段の検出結果に基づいて、前記仮想3次元空間内で前記カメラ視点から前記観察者が視ている方向を視線方向として判別する工程と、
前記カメラ視点と前記基準点とを結ぶ方向に対して前記視線方向がずれている角度を偏角として判別する工程と、
前記偏角が小さいときには前記カメラ視点に向かって移動する拡散オブジェクトの個数が増加し、前記偏角が大きいときには前記視線方向を横切る方向に移動する拡散オブジェクトの個数が増加するように、前記偏角に基づいて前記仮想3次元空間における前記拡散オブジェクトの分布を制御する工程と、
を備えた画像生成方法。
In the virtual three-dimensional space, each diffusing object is moved so that a plurality of diffusing objects diffuse from a predetermined reference point as time passes, and the diffusing object is photographed from the camera viewpoint set in the virtual three-dimensional space. An image generation method for generating an image and displaying the image on a screen of a display device,
A step of detecting an observer's line of sight with respect to the screen of the display device using line of sight detection means;
Determining, based on the detection result of the line-of-sight detection means, as the line-of-sight direction as the line of sight of the observer from the camera viewpoint in the virtual three-dimensional space;
Determining an angle at which the line-of-sight direction is deviated from a direction connecting the camera viewpoint and the reference point as a declination;
When the declination is small, the number of diffusing objects that move toward the camera viewpoint increases, and when the declination is large, the number of diffusing objects that move in a direction crossing the line-of-sight direction increases. Controlling the distribution of the diffuse object in the virtual three-dimensional space based on:
An image generation method comprising:
仮想3次元空間にて、複数の拡散オブジェクトを所定の基準点から時間の経過とともに拡散するように各拡散オブジェクトを移動させ、前記拡散オブジェクトを前記仮想3次元空間に設定されたカメラ視点から撮影した画像を生成し、該画像を表示装置の画面上に表示させる画像生成装置のコンピュータを、
前記表示装置の画面に対する観察者の視線を検出する視線検出手段の検出結果に基づいて、前記仮想3次元空間内で前記カメラ視点から前記観察者が視ている方向を視線方向として判別する視線方向判別手段、
前記カメラ視点と前記基準点とを結ぶ方向に対して前記視線方向がずれている角度を偏角として判別する偏角判別手段、及び
前記偏角が小さいときには前記カメラ視点に向かって移動する拡散オブジェクトの個数が増加し、前記偏角が大きいときには前記視線方向を横切る方向に移動する拡散オブジェクトの個数が増加するように、前記偏角に基づいて前記仮想3次元空間における前記拡散オブジェクトの分布を制御する分布制御手段、
として機能させるように構成されたコンピュータプログラム。
In the virtual three-dimensional space, each diffusing object is moved so that a plurality of diffusing objects diffuse from a predetermined reference point as time passes, and the diffusing object is photographed from the camera viewpoint set in the virtual three-dimensional space. A computer of an image generation device that generates an image and displays the image on a screen of the display device,
A line-of-sight direction that determines, as the line-of-sight direction, the direction viewed by the observer from the camera viewpoint in the virtual three-dimensional space, based on the detection result of the line-of-sight detection unit that detects the line of sight of the observer with respect to the screen of the display device Discrimination means,
Declination determination means for determining an angle at which the line-of-sight direction is deviated from a direction connecting the camera viewpoint and the reference point as a declination, and a diffusion object that moves toward the camera viewpoint when the declination is small The distribution of the diffusing objects in the virtual three-dimensional space is controlled based on the declination so that when the declination is large and the declination is large, the number of diffusing objects that move in the direction crossing the line of sight increases. Distribution control means,
A computer program configured to function as a computer program.
JP2010110687A 2010-05-12 2010-05-12 Image generation apparatus, image generation method, and computer program used for image generation apparatus Active JP5002678B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010110687A JP5002678B2 (en) 2010-05-12 2010-05-12 Image generation apparatus, image generation method, and computer program used for image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010110687A JP5002678B2 (en) 2010-05-12 2010-05-12 Image generation apparatus, image generation method, and computer program used for image generation apparatus

Publications (2)

Publication Number Publication Date
JP2011238142A JP2011238142A (en) 2011-11-24
JP5002678B2 true JP5002678B2 (en) 2012-08-15

Family

ID=45326029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010110687A Active JP5002678B2 (en) 2010-05-12 2010-05-12 Image generation apparatus, image generation method, and computer program used for image generation apparatus

Country Status (1)

Country Link
JP (1) JP5002678B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106534882B (en) * 2016-12-29 2019-06-14 北京爱奇艺科技有限公司 The decoding method and device of virtual reality panoramic video

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010029398A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium and image generation system

Also Published As

Publication number Publication date
JP2011238142A (en) 2011-11-24

Similar Documents

Publication Publication Date Title
US9491430B2 (en) Storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5597837B2 (en) Program, information storage medium, and image generation apparatus
KR101926178B1 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
JP5300777B2 (en) Program and image generation system
JP5689707B2 (en) Display control program, display control device, display control system, and display control method
US20170148339A1 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
JP6438207B2 (en) Image generation system and program
JP4917664B1 (en) Image display device, game program, and game control method
WO2014002346A1 (en) Video processing device, video processing method, and video processing system
JP5675260B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5690135B2 (en) Information processing program, information processing system, information processing apparatus, and information processing method
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
JP2019217269A (en) Systems and methods for adjusting stereoscopic effect
JP5939733B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP2011212123A (en) Program, information storage medium and terminal
JP4951697B2 (en) GAME SYSTEM, ITS CONTROL METHOD, AND COMPUTER PROGRAM
JP2016001476A (en) Display control program, display control device, display control system and display control method
JP2012106005A (en) Image display device, game program, and game control method
JP2012141820A (en) Program, information storage medium, image generation system and server system
JP5002678B2 (en) Image generation apparatus, image generation method, and computer program used for image generation apparatus
JP2018171320A (en) Simulation system and program
WO2013111119A1 (en) Simulating interaction with a three-dimensional environment
JP4951696B2 (en) GAME SYSTEM, ITS CONTROL METHOD, AND COMPUTER PROGRAM
JP2014039630A (en) Game machine and staging-control method therefore
JP2012141826A (en) Program, information storage medium, image generation system and server system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120521

R150 Certificate of patent or registration of utility model

Ref document number: 5002678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250