JP6788472B2 - Element image generator and its program - Google Patents
Element image generator and its program Download PDFInfo
- Publication number
- JP6788472B2 JP6788472B2 JP2016203438A JP2016203438A JP6788472B2 JP 6788472 B2 JP6788472 B2 JP 6788472B2 JP 2016203438 A JP2016203438 A JP 2016203438A JP 2016203438 A JP2016203438 A JP 2016203438A JP 6788472 B2 JP6788472 B2 JP 6788472B2
- Authority
- JP
- Japan
- Prior art keywords
- element image
- lens
- divided
- display surface
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 description 45
- 239000011159 matrix material Substances 0.000 description 21
- 239000013598 vector Substances 0.000 description 15
- 230000009466 transformation Effects 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、3次元モデルから、インテグラル立体方式の要素画像を生成する要素画像生成装置およびそのプログラムに関する。 The present invention relates to an element image generator and a program thereof for generating an integral stereoscopic element image from a three-dimensional model.
従来、立体像を表示する方式として、インテグラル立体方式が知られている。
このインテグラル立体方式は、図12に示すように、撮像装置によって、2次元配列された複数の要素レンズLpからなるレンズアレーLaを介して、被写体Oから出た光を撮像する。このとき、要素レンズLpの焦点距離だけ離間した撮像面Eにおいて、要素レンズLpのレンズ間隔で、要素画像Gが撮像されることになる。
そして、インテグラル立体方式は、図13に示すように、撮像時と同じ仕様のレンズアレーLaを介して、表示装置(ディスプレイ)の表示面Dに図12で撮像した要素画像Gを表示する。このとき、撮像された被写体空間と同様の光線が再生され、観察者Mは、被写体O(図12参照)を、立体像Tとして視認することができる。
Conventionally, the integral stereoscopic method is known as a method for displaying a stereoscopic image.
In this integral stereoscopic method, as shown in FIG. 12, the light emitted from the subject O is imaged by an imaging device via a lens array La composed of a plurality of element lenses Lp arranged two-dimensionally. At this time, the element image G is imaged at the lens spacing of the element lens Lp on the imaging surface E separated by the focal length of the element lens Lp.
Then, as shown in FIG. 13, the integral stereoscopic method displays the element image G captured in FIG. 12 on the display surface D of the display device (display) via the lens array La having the same specifications as those at the time of imaging. At this time, light rays similar to those in the captured subject space are reproduced, and the observer M can visually recognize the subject O (see FIG. 12) as a stereoscopic image T.
このインテグラル立体方式では、実体のある被写体を撮像して要素画像を生成する以外にも、仮想空間中の3次元モデルから要素画像を生成する手法が提案されている。
例えば、光線追跡により、3次元モデルから要素画像を生成する手法(以下、光線追跡法)が提案されている(特許文献1参照)。この光線追跡法は、図14に示すように、表示面Dの要素画像Gの画素値を光線追跡により1画素ずつ求める手法である。
In this integral stereoscopic method, a method of generating an element image from a three-dimensional model in a virtual space has been proposed in addition to capturing a real subject and generating an element image.
For example, a method of generating an element image from a three-dimensional model by ray tracing (hereinafter, ray tracing method) has been proposed (see Patent Document 1). As shown in FIG. 14, this ray tracing method is a method of obtaining the pixel value of the element image G of the display surface D one pixel at a time by ray tracing.
図14に示すように、光線追跡法は、まず、要素画像G(ここでは、In,m)に含まれるローカル座標(ここでは、(u,v))の画素(In,m(u,v))の画素値を求める場合、画素In,m(u,v)の位置から、焦点距離Fだけ離れた対応する要素レンズLpのレンズ中心Hを向く単位ベクトルiを求める。
そして、光線追跡法は、単位ベクトルiの延長線上で、レンズアレーLa面から視距離Lだけ離れた位置に仮想カメラVを配置し、仮想カメラVを画素In,m(u,v)の方向に向けて撮影した中心で撮影された3次元モデルの表面Aの画素(図14中、黒丸)の値を、画素In,m(u,v)の画素値とする。
そして、光線追跡法は、他の要素画像G(ここでは、In′,m′))についても、同様に、単位ベクトルi′を求め、単位ベクトルi′の延長線上に配置した仮想カメラV′で撮影した3次元モデルの表面Bの画素(図14中、黒丸)の値を、画素In′,m′(u,v)の画素値とする。
As shown in FIG. 14, in the ray tracing method, first, the pixels (In , m (u)) of the local coordinates (here, (u, v)) included in the element image G (here, In , m ) are used. , V)), the unit vector i facing the lens center H of the corresponding element lens Lp separated by the focal length F from the positions of the pixels In , m (u, v) is obtained.
Then, in the ray tracing method, the virtual camera V is arranged at a position separated by the viewing distance L from the lens array La surface on the extension line of the unit vector i, and the virtual camera V is placed on the pixels In , m (u, v). Let the value of the pixel (black circle in FIG. 14) of the surface A of the three-dimensional model taken at the center taken in the direction be the pixel value of the pixel In , m (u, v).
Then, the ray tracing method similarly obtains the unit vector i'for the other element image G (here, In ', m' ), and arranges the virtual camera V on the extension line of the unit vector i'. Let the value of the pixel (black circle in FIG. 14) of the surface B of the three-dimensional model photographed in ′ be the pixel value of the pixels In ′, m ′ (u, v).
このように、光線追跡法は、すべての要素画像Gの画素について1画素ずつ画素値を演算するため、高精度に要素画像を生成することができるが、演算量が多く、要素画像の生成に時間がかかってしまう。
そこで、他の手法として、斜投影により、3次元モデルから要素画像を生成する手法(以下、斜投影法)が提案されている(特許文献2、非特許文献1参照)。この斜投影法は、図15に示すように、表示面Dの要素画像Gの画素値を、3次元モデルの斜投影変換により求める手法である。
As described above, since the ray tracing method calculates the pixel value for each pixel of all the element image G one pixel at a time, the element image can be generated with high accuracy, but the amount of calculation is large and the element image can be generated. It takes time.
Therefore, as another method, a method of generating an element image from a three-dimensional model by oblique projection (hereinafter, oblique projection method) has been proposed (see Patent Document 2 and Non-Patent Document 1). As shown in FIG. 15, this oblique projection method is a method of obtaining the pixel value of the element image G of the display surface D by the oblique projection transformation of the three-dimensional model.
図15に示すように、斜投影法は、まず、レンズアレーLaの中心に対応する要素画像G(ここでは、I0,0)に含まれるローカル座標(ここでは、(u,v))の画素(I0,0(u,v))から、焦点距離Fだけ離れた対応する要素レンズLpのレンズ中心Hを向く単位ベクトルiを求める。
そして、斜投影法は、単位ベクトルiの延長線上で、レンズアレーLa面から視距離Lだけ離れた位置に仮想カメラ(斜投影仮想カメラ)VCを配置し、レンズアレーLaに対して傾いた仮想カメラVCの撮影方向に沿って3次元モデルを斜投影(正射影も含む)する。
As shown in FIG. 15, in the oblique projection method, first, the local coordinates (here, (u, v)) included in the element image G (here, I 0 , 0 ) corresponding to the center of the lens array La are used. From the pixel (I 0,0 (u, v)), the unit vector i facing the lens center H of the corresponding element lens Lp separated by the focal length F is obtained.
The oblique projection method, as an extension of the unit vectors i, the lens array is viewed from La plane distance L apart virtual camera position (isometric virtual camera) arranged V C, inclined with respect to the lens array La obliquely projecting a three-dimensional model along the shooting direction of the virtual camera V C (including orthogonal projection).
ここで、斜投影法は、レンズアレーLaの中心から、レンズアレーLa面の垂線上で視距離Lだけ離れた位置に配置された撮影方向がレンズアレーLaに対して正対して配置された仮想カメラVOと、撮影方向が傾いた仮想カメラVCとの関係から、3次元モデルを表示面Dに斜投影する変換行列を求め、平行な光線群とみなせる画素の画素値を一括して求める。すなわち、斜投影法は、それぞれの要素画像G内のローカル座標(u,v)が同じ画素については、仮想カメラVCからの撮影方向が同じ(平行)であるとして、同一の変換行列によって画素値を求める。
これによって、斜投影法は、すべての要素画像Gの画素値を1画素ずつ演算する光線追跡法に比べて高速に要素画像を生成することができる。
Here, the oblique projection method is a virtual method in which the shooting direction arranged at a position separated by the viewing distance L on the perpendicular line of the lens array La surface from the center of the lens array La is arranged facing the lens array La. and camera V O, the relationship between the virtual camera V C the photographing direction inclined to obtain the transformation matrix obliquely projected on the display surface D to 3-D model, determined collectively the pixel values of pixels that can be regarded as parallel light ray group .. That is, oblique projection method, the local coordinates (u, v) in each element image G is for the same pixel, a photographing direction from the virtual camera V C are the same (parallel), the pixels by the same transformation matrix Find the value.
As a result, the oblique projection method can generate an element image at a higher speed than the ray tracing method in which the pixel values of all the element images G are calculated one by one.
前記したように、斜投影法は、光線追跡法に比べて高速に要素画像を生成することができる。
この斜投影法は、要素画像ごとの同じローカル画素位置においては、平行な光線群で投影されるものとみなして要素画像を生成している。そのため、この手法で生成された要素画像を観察者がレンズアレーを介して視認した場合、観察者は、厳密には、歪んだ光線を観察することになる。
As described above, the oblique projection method can generate an element image at a higher speed than the ray tracing method.
This oblique projection method generates an element image by assuming that it is projected by a group of parallel rays at the same local pixel position for each element image. Therefore, when the observer visually recognizes the element image generated by this method through the lens array, the observer strictly observes the distorted light rays.
例えば、23〜24インチ程度の小さめの表示面を有する立体表示装置を対象として要素画像を生成する場合、図16(a)に示すように、斜投影によって、観察者の視点位置Vpまでの投影面Uに光を投影する表示面Dの画素位置(図16中、○)と、観察者が視点位置Vpで実際にレンズアレーLaを介して表示面Dを観察したときの画素位置(図16中、●)の間での誤差は少ない。 For example, when an element image is generated for a stereoscopic display device having a small display surface of about 23 to 24 inches, as shown in FIG. 16A, it is projected to the observer's viewpoint position Vp by oblique projection. The pixel position of the display surface D that projects light onto the surface U (◯ in FIG. 16) and the pixel position when the observer actually observes the display surface D through the lens array La at the viewpoint position Vp (FIG. 16). There is little error between middle and ●).
しかし、例えば、50インチを超えるような大きい表示面を有する立体表示装置を対象として要素画像を生成する場合、図16(b)に示すように、斜投影によって投影面Uに光を投影する表示面Dの画素位置(図16中、○)と、観察者が視点位置Vpで実際にレンズアレーLaを介して表示面Dを観察したときの画素位置(図16中、●)との間での誤差が大きくなってしまう。
このように、斜投影を用いた手法は、表示面が大きくなるほど、周辺部分で誤差が大きくなり、実際の3次元モデルに対して歪を持った立体像を観察者に視認させてしまうという問題がある。
However, for example, when an element image is generated for a stereoscopic display device having a large display surface of more than 50 inches, as shown in FIG. 16B, a display in which light is projected onto the projection surface U by oblique projection. Between the pixel position of the surface D (◯ in FIG. 16) and the pixel position (● in FIG. 16) when the observer actually observes the display surface D through the lens array La at the viewpoint position Vp. The error of is large.
In this way, the method using oblique projection has a problem that the larger the display surface, the larger the error in the peripheral portion, and the observer can visually recognize a stereoscopic image with distortion with respect to the actual 3D model. There is.
本発明は、このような問題に鑑みてなされたものであり、斜投影を用いて、3次元モデルデータから、要素画像の生成速度の低下を抑えつつ、誤差が少ない要素画像を生成することが可能な要素画像生成装置およびそのプログラムを提供することを課題とする。 The present invention has been made in view of such a problem, and it is possible to generate an element image with a small error from three-dimensional model data by using oblique projection while suppressing a decrease in the generation speed of the element image. An object of the present invention is to provide a possible element image generator and a program thereof.
前記課題を解決するため、本発明に係る要素画像生成装置は、要素レンズを2次元配置したレンズアレーを備えたインテグラル立体方式の立体表示装置に表示する要素画像を、3次元モデルデータから生成する要素画像生成装置であって、分割領域設定手段と、分割領域別要素画像生成手段と、要素画像統合手段と、を備える構成とした。 In order to solve the above problems, the element image generation device according to the present invention generates an element image to be displayed on an integral three-dimensional stereoscopic display device provided with a lens array in which element lenses are arranged two-dimensionally from three-dimensional model data. The element image generation device is configured to include a division area setting means, an element image generation means for each division area, and an element image integration means.
かかる構成において、要素画像生成装置は、分割領域設定手段によって、立体表示装置の表示面に対して分割領域を設定することで、斜投影を行って要素画像を生成する範囲を分割する。なお、この分割領域は、等分割であっても、非等分割であっても構わない。 In such a configuration, the element image generation device divides the range in which the element image is generated by performing oblique projection by setting the division area with respect to the display surface of the stereoscopic display device by the division area setting means. The divided area may be equally divided or unequally divided.
そして、要素画像生成装置は、分割領域別要素画像生成手段によって、予め定めた視距離に仮想的に仮想カメラを配置し、分割領域ごとに、当該仮想カメラから、分割領域の中央の要素画像に対応する要素レンズのレンズ中心への方向を撮影方向として、3次元モデルデータを予め定めた投影座標系の投影面に斜投影変換し、分割領域内の要素画像の画素値を演算する。これによって、周辺部分での誤差を少なくすることができる。 Then, the element image generation device virtually arranges a virtual camera at a predetermined viewing distance by the element image generation means for each division area, and from the virtual camera to the element image in the center of the division area for each division area. With the direction of the corresponding element lens toward the lens center as the shooting direction, the three-dimensional model data is obliquely projected onto the projection plane of the predetermined projection coordinate system, and the pixel value of the element image in the divided region is calculated. As a result, the error in the peripheral portion can be reduced.
そして、要素画像生成装置は、要素画像統合手段によって、分割領域別要素画像生成手段で生成された分割領域ごとの要素画像群を連結することで、立体表示装置の表示面に表示する要素画像群を生成する。 Then, the element image generation device displays the element image group displayed on the display surface of the stereoscopic display device by connecting the element image groups for each division area generated by the element image generation means for each division area by the element image integration means. To generate.
このように、要素画像生成装置は、分割領域ごとに斜投影により3次元モデルデータから要素画像を生成することで、表示面全体の要素画像を一括して斜投影により生成する場合に比べて、生成する画像領域の周辺の誤差を少なくすることができる。
なお、要素画像生成装置は、コンピュータを、前記した各手段として機能させるための要素画像生成プログラムで動作させることができる。
In this way, the element image generator generates an element image from the three-dimensional model data by italic projection for each divided region, as compared with the case where the element image of the entire display surface is collectively generated by italic projection. The error around the generated image area can be reduced.
The element image generation device can be operated by an element image generation program for operating the computer as each of the above-mentioned means.
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、立体表示装置の表示面を分割した領域ごとに、斜投影変換により要素画像を生成することができる。これによって、本発明は、分割領域ごとに、レンズ中心をシフトさせた状態で要素画像を生成することができ、従来の1つのレンズ中心で斜投影により要素画像を生成する場合に比べて、領域周辺における要素画像の画素位置の誤差を抑えることができる。また、本発明は、斜投影法を用いることで、従来の光線追跡法に比べて、高速に要素画像を生成することができる。
The present invention has the following excellent effects.
According to the present invention, an element image can be generated by oblique projection transformation for each region of the display surface of the stereoscopic display device. As a result, the present invention can generate an element image in a state where the lens center is shifted for each divided region, as compared with the conventional case where an element image is generated by oblique projection at one lens center. It is possible to suppress an error in the pixel position of the element image in the periphery. Further, according to the present invention, by using the oblique projection method, an element image can be generated at a higher speed than the conventional ray tracing method.
以下、本発明の実施形態について図面を参照して説明する。
〔立体像表示システムの構成〕
まず、図1を参照して、本発明の実施形態に係る要素画像生成装置1を含む立体像表示システムSの構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Structure of stereoscopic image display system]
First, the configuration of the stereoscopic image display system S including the element
要素画像生成装置1は、立体像表示装置2で、インテグラル立体方式で立体像Tを観察者Mに視認させる複数の要素画像(要素画像群)を生成するものである。この要素画像生成装置1は、CG等の3次元モデルデータから、図2に示すような立体像表示装置2の画面中心を原点とする投影座標系(X,Y,Z)で立体像Tを表示するための要素画像群を生成する。
The element
この要素画像生成装置1は、3次元モデルデータから、斜投影変換により、要素画像群を生成する。このとき、要素画像生成装置1は、表示面を複数の領域に仮想的に分割して、その領域ごとに、斜投影変換により要素画像群を生成する。
これによって、要素画像生成装置1は、観察者Mが観察する画素と、斜投影変換により観察者Mの位置に平行光を発光する画素とのずれを抑えた要素画像を生成することができる。なお、この要素画像生成装置1については、後で詳細に説明する。
The element
As a result, the element
この要素画像生成装置1は、生成した要素画像(要素画像群)を立体像表示装置2に出力する。もちろん、要素画像生成装置1で生成された要素画像は、ハードディスク、DVD等の記録媒体に記録された後、立体像表示装置2が要素画像を読み込む形態であっても構わない。
The element
立体像表示装置2は、インテグラル立体方式で立体像Tを表示する一般的な表示装置である。すなわち、立体像表示装置2は、図13に示したように、要素レンズLpを2次元配列したレンズアレーLaを備え、表示面Dに表示した要素画像Gを、レンズアレーLaを介して、観察者Mに立体像Tとして視認させる。 The stereoscopic image display device 2 is a general display device that displays a stereoscopic image T in an integral stereoscopic system. That is, as shown in FIG. 13, the stereoscopic image display device 2 includes a lens array La in which element lenses Lp are two-dimensionally arranged, and observes the element image G displayed on the display surface D via the lens array La. The person M is made to visually recognize as a stereoscopic image T.
〔要素画像生成装置の構成〕
次に、図3を参照(適宜図1参照)して、本発明の実施形態に係る要素画像生成装置1の構成について説明する。
図3に示すように、要素画像生成装置1は、分割領域設定手段10と、分割領域別要素画像生成手段20と、要素画像統合手段30と、を備える。
[Configuration of element image generator]
Next, the configuration of the element
As shown in FIG. 3, the element
分割領域設定手段10は、立体像を表示する対象となる立体像表示装置2のパラメータと画面分割情報とに基づいて、立体像表示装置2の表示面Dに分割領域を設定するものである。 The divided area setting means 10 sets a divided area on the display surface D of the stereoscopic image display device 2 based on the parameters of the stereoscopic image display device 2 to be displayed and the screen division information.
パラメータは、立体像表示装置2の表示面の縦横の画素数および画素間隔、レンズアレーの縦横のレンズ数およびレンズ間隔ならびに焦点距離等である。また、パラメータには、観察者が立体像を視認するための立体像表示装置2からの距離(視距離)が含まれる。 The parameters are the number of vertical and horizontal pixels and the pixel spacing of the display surface of the stereoscopic image display device 2, the number of vertical and horizontal lenses of the lens array, the lens spacing, the focal length, and the like. Further, the parameter includes a distance (viewing distance) from the stereoscopic image display device 2 for the observer to visually recognize the stereoscopic image.
画面分割情報は、表示面Dをどのように分割するかを示す情報である。例えば、縦分割数および横分割数、個々の分割領域の位置および大きさ等である。なお、表示面Dの分割は、等分割でもよいし、非等分割でもよい。ただし、観察者が表示面Dの中心を基準に観察を行うことから、画面中心に分割の境界が存在しないことが好ましい。例えば、等分割で表示面Dを分割するのであれば、縦分割数および横分割数は、それぞれ奇数であることが好ましい。 The screen division information is information indicating how the display surface D is divided. For example, the number of vertical divisions and the number of horizontal divisions, the position and size of individual division areas, and the like. The display surface D may be divided equally or unequally. However, since the observer observes with reference to the center of the display surface D, it is preferable that there is no division boundary at the center of the screen. For example, if the display surface D is divided into equal parts, the number of vertical divisions and the number of horizontal divisions are preferably odd numbers.
なお、表示面Dの分割数は、その数が多いほど、要素画像の誤差を抑えることができるが、斜投影を行うための演算量が多くなる。また、分割数を少なくすれば、演算量を抑えることができるが、誤差が大きくなってしまう。そこで、表示面Dの分割数は、誤差を許容できる範囲で予め要素画像の制作者が定めればよい。 As for the number of divisions of the display surface D, the larger the number, the more the error of the element image can be suppressed, but the larger the amount of calculation for performing oblique projection. Further, if the number of divisions is reduced, the amount of calculation can be suppressed, but the error becomes large. Therefore, the number of divisions of the display surface D may be determined in advance by the creator of the element image within a range in which an error can be tolerated.
ここでは、説明を簡略化し、縦分割数および横分割数をそれぞれ“3”とする。すなわち、図4(a)に示すように、表示面Dが、縦画素数Height、横画素数Widthの場合、分割領域設定手段10は、図4(b)に示すように、縦画素数Height/3、横画素数Width/3で分割領域Rを設定する。
図4(b)は、各分割領域Rを左下から右上に向かって、n=1,…,N、m=1,…,Mとしたとき、表示面Dが分割領域R(n,m)に分割された状態を示している。
この分割領域設定手段10は、分割領域情報(例えば、分割領域の左上座標および縦横画素数)を、入力されたパラメータとともに、分割領域別要素画像生成手段20に出力する。
Here, the description is simplified, and the number of vertical divisions and the number of horizontal divisions are set to “3”, respectively. That is, when the display surface D has the number of vertical pixels High and the number of horizontal pixels Wide as shown in FIG. 4 (a), the division area setting means 10 has the number of vertical pixels High as shown in FIG. 4 (b). The division area R is set with 3/3 and the number of horizontal pixels Wid / 3.
In FIG. 4B, when each division region R is set to n = 1, ..., N, m = 1, ..., M from the lower left to the upper right, the display surface D is the division region R (n, m). It shows the state divided into.
The division area setting means 10 outputs the division area information (for example, the upper left coordinates of the division area and the number of vertical and horizontal pixels) to the division area-specific element image generation means 20 together with the input parameters.
分割領域別要素画像生成手段20は、分割領域設定手段10で設定される分割領域ごとに要素画像群を生成するものである。
この分割領域別要素画像生成手段20は、図5に示すように、表示面Dを分割した分割領域Rごとに、仮想カメラ(基準仮想カメラ)VOを基準として、斜投影(正射影を含む)により要素画像群を生成する。この仮想カメラVOは、レンズアレーLaのレンズ中心からレンズアレーLa面の垂直方向に予め定めた距離(視距離)Lだけ離間して配置したものである。ここでは、レンズアレーLaのレンズ中心H0,0が、図4(b)の中央の分割領域R(2,2)のレンズ中心〔ピンホール中心位置〕)と一致するものとして説明する。
この分割領域別要素画像生成手段20は、図3に示すように、レンズ中心シフト量算出手段21と、斜投影演算手段22と、を備える。
The element image generation means 20 for each division area generates an element image group for each division area set by the division area setting means 10.
The divided regional element image generating means 20, as shown in FIG. 5, includes for each divided region R obtained by dividing the display screen D, based on the virtual camera (a reference virtual camera) V O, an oblique projection (orthogonal projection ) To generate an element image group. This virtual camera VO is arranged so as to be separated from the lens center of the lens array La by a predetermined distance (viewing distance) L in the vertical direction of the lens array La surface. Here, the lens center H 0,0 of the lens array La may be described as a match with the center of the divided regions lens center of R (2, 2) shown in FIG. 4 (b) [the pinhole center position]).
As shown in FIG. 3, the element image generation means 20 for each division region includes a lens center shift amount calculation means 21 and an oblique projection calculation means 22.
レンズ中心シフト量算出手段21は、表示面Dを分割した分割領域Rごとに、レンズアレーLaのレンズ中心から、分割領域R内のレンズ中心までのシフト量を算出するものである。 The lens center shift amount calculation means 21 calculates the shift amount from the lens center of the lens array La to the lens center in the divided region R for each divided region R in which the display surface D is divided.
ここで、図5を参照(適宜図4(b)参照)して、レンズ中心シフト量算出手段21が算出する分割領域Rごとのシフト量について説明する。
レンズアレーLaのレンズ中心のXY平面上の座標を(XR,YR)とすると、分割領域Rごとのレンズ中心は、分割領域の分割区分に応じて(XR+Hshift,YR+Vshift)だけシフトした位置となる。
ここで、Hshiftは、レンズアレーLaのレンズ中心H0,0からの水平方向(X方向)のシフト量である。また、Vshiftは、レンズアレーLaのレンズ中心H0,0からの垂直方法(Y方向)のシフト量である。
Here, the shift amount for each division region R calculated by the lens center shift amount calculation means 21 will be described with reference to FIG. 5 (see FIG. 4B as appropriate).
If the coordinates on the XY plane of the lens center of the lens array La (X R, Y R) to the lens center of each divided region R, in response to the divided sections of the divided regions (X R + H shift, Y R + V shift ) Is the shifted position.
Here, H Shift is the shift amount in the horizontal direction (X direction) from the center of the lens H 0,0 of the lens array La. Also, V Shift is the shift amount of the vertical method (Y-direction) from the center of the lens H 0,0 of the lens array La.
例えば、分割領域R(1,1)のシフト量はHshift=−Width/3,Vshift=−Height/3、分割領域R(1,2)のシフト量は、Hshift=−Width/3,Vshift=0、等となる。なお、ここでは、分割領域R(2,2)のシフト量は、Hshift=0,Vshift=0である。 For example, the shift amount of the divided region R (1,1) is H shift = −Width / 3, V shift = −Height / 3, and the shift amount of the divided region R (1,1) is H shift = −Wids / 3. , V shift = 0, etc. Here, the shift amount of the divided region R (2, 2) is H shift = 0 and V shift = 0.
すなわち、レンズ中心シフト量算出手段21は、パラメータで入力される表示面Dの縦横の画素数と画面分割情報とに基づいて、レンズアレーLaのレンズ中心から、分割領域R内のレンズ中心までのシフト量を算出する。
このレンズ中心シフト量算出手段21は、算出した分割領域Rごとのシフト量を、斜投影演算手段22に出力する。
That is, the lens center shift amount calculation means 21 extends from the lens center of the lens array La to the lens center in the division region R based on the number of vertical and horizontal pixels of the display surface D and the screen division information input as parameters. Calculate the shift amount.
The lens center shift amount calculation means 21 outputs the calculated shift amount for each division region R to the oblique projection calculation means 22.
斜投影演算手段22は、分割領域Rごとに、3次元モデルデータを投影面(表示面)に斜投影変換する変換行列により、要素画像内座標の画素値を算出するものである。ここで、斜投影演算手段22は、レンズ中心シフト量算出手段21で算出されたシフト量だけシフトした分割領域R個別のレンズ中心を介して3次元モデルデータを投影面に斜投影変換する。 The oblique projection calculation means 22 calculates the pixel value of the coordinates in the element image by a transformation matrix that obliquely projects the three-dimensional model data onto the projection plane (display plane) for each division region R. Here, the oblique projection calculation means 22 obliquely projects the three-dimensional model data onto the projection plane via the individual lens centers of the divided regions R shifted by the shift amount calculated by the lens center shift amount calculation means 21.
以下、図6を参照して、具体的に、斜投影演算手段22の処理について説明する。なお、図6は、分割境界Divで分割領域が区分されているものとする。
まず、説明を簡易にするため、レンズアレーLaのレンズ中心H0,0を分割領域のレンズ中心とする分割領域R(2,2)について説明する。
Hereinafter, the processing of the oblique projection calculation means 22 will be specifically described with reference to FIG. In FIG. 6, it is assumed that the division area is divided by the division boundary Div.
First, for simplification of the description, the division region R (2, 2) having the lens center H 0 , 0 of the lens array La as the lens center of the division region will be described.
図6に示すように、レンズアレーLaのレンズ中心(分割領域R(2,2)のレンズ中心)H0,0に対応する要素画像G0,0内の3次元空間上の画素位置をI0,0(u,v)とする。ここで、(u,v)は、要素画像Gの中心を原点(0,0)とするローカル座標である。すなわち、パラメータで入力される表示面Dの横の画素間隔をPH、表示面の縦の画素間隔をPV、焦点距離をFとしたとき、I0,0(u,v)=(XP,YP,−F)=(uPH,vPV,−F)となる。なお、(XP,YP)は、要素画像G0,0のローカル座標(u,v)のXY座標である。 As shown in FIG. 6, the pixel position in the three-dimensional space in the element image G 0 , 0 corresponding to the lens center (lens center of the divided region R (2, 2)) H 0 , 0 of the lens array La is I. Let it be 0,0 (u, v). Here, (u, v) are local coordinates with the center of the element image G as the origin (0,0). That is, next to the pixel spacing P H of the display surface D which is input in the parameter, the vertical pixel spacing P V of the display surface, the focal length was set to F, I 0,0 (u, v ) = (X P, Y P, -F) = a (uP H, vP V, -F ). Note that ( XP , Y P ) is the XY coordinates of the local coordinates (u, v) of the element image G 0 , 0 .
ここで、要素レンズLpが図13に示したようなデルタ配列であれば、パラメータで入力される表示面Dの横の画素数をレンズアレーLaの横のレンズ数で割った要素画像の横画素数をGH、表示面Dの縦の画素数をレンズアレーLaの縦のレンズ数で割って2/√3倍した要素画像の縦画素数をGVとしたとき、−GH/2<uPH≦GH/2、−Gv/2<uPv≦Gv/2である。なお、要素レンズLpが正方配列であれば、GVは、表示面Dの縦の画素数をレンズアレーLaの縦のレンズ数で割った値となる。 Here, if the element lens Lp has a delta arrangement as shown in FIG. 13, the horizontal pixels of the element image obtained by dividing the number of pixels on the side of the display surface D input by the parameter by the number of lenses on the side of the lens array La. when the number G H, the number of vertical pixels of the display surface D of the vertical by dividing the number of pixels in the vertical number of lenses of the lens array La 2 / √3 times the element image was G V, -G H / 2 < uP H ≤ GH / 2, -G v / 2 <uP v ≤ G v / 2. Incidentally, the element lens Lp is if square arrangement, G V is a vertical value obtained by dividing the number of pixels in the vertical number of lenses of the lens array La of the display surface D.
このとき、レンズ中心H0,0の3次元座標H(0,0)=(XR,YR,0)=(0,0,0)となる。なお、(XR,YR)は、レンズ中心H0,0のXY座標である。
また、仮想カメラVCの位置(XC,YC,ZC)は、視距離をLとしたとき、以下の式(1)で表すことができる。
At this time, the three-dimensional coordinates H (0,0) of the lens center H 0,0 = become (X R, Y R, 0 ) = (0,0,0). Note that (X R , Y R ) is the XY coordinates of the lens center H 0 , 0 .
The position of the virtual camera V C (X C, Y C , Z C) , when the viewing distance is L, can be expressed by the following equation (1).
分割領域Rの中央の要素画像G0,0内の画素の画素位置I0,0(u,v)から、レンズ中心H0,0を通る延長線上に存在する仮想カメラVCの位置(XC,YC,ZC)への単位ベクトルi(ix,iy,iz)は、以下の式(2)で表すことができる。なお、式(2)中、|a|は、ベクトルaの長さを示す。 From the pixel position of the pixel in the center of the element image G 0,0 of the divided regions R I 0,0 (u, v) , the position of the virtual camera V C present on an extension line passing through the lens center H 0,0 (X C, Y C, the unit vector i to Z C) (i x, i y, i z) can be expressed by the following equation (2). In the equation (2), | a | indicates the length of the vector a.
そして、斜投影演算手段22は、仮想カメラ(基準仮想カメラ)VO(図5参照)と、撮影方向が傾いた仮想カメラVCとの関係から、3次元モデルデータを表示面Dに斜投影する変換行列を求め、平行な光線群とみなせる画素の画素値を一括して求める。
これによって、分割領域R(2,2)の要素画像群が生成される。
The isometric calculating means 22, a virtual camera (a reference virtual camera) V O (see FIG. 5), the relationship between the virtual camera V C tilted shooting direction, oblique projection on the display surface D to 3-D model data The transformation matrix to be used is obtained, and the pixel values of the pixels that can be regarded as parallel light rays are collectively obtained.
As a result, the element image group of the divided region R (2, 2) is generated.
次に、分割領域R(2,2)以外の分割領域Rについて説明する。以下、分割領域R(2,2)以外の分割領域Rのレンズ中心をH′0,0、レンズ中心H′0,0に対応する要素画像をG′0,0で表し、要素画像G′0,0内の3次元空間上の画素位置をI′0,0(u,v)とする。
ここで、斜投影演算手段22は、レンズ中心シフト量算出手段21で算出されるシフト量だけ、レンズ中心をシフトさせて、画素位置I′0,0(u,v)から、仮想カメラVCの位置(XC,YC,ZC)への単位ベクトルを求める。
Next, the division area R other than the division area R (2, 2) will be described. Hereinafter, the lens center of the divided region R other than the divided region R (2, 2) H '0,0, lens center H' element image corresponding to 0,0 G 'represents 0,0, elemental image G' pixel positions in a three-dimensional space in 0,0 I '0,0 (u, v ) to.
Here, isometric calculating means 22, by the shift amount calculated by the lens center shift amount calculation means 21, by shifting the lens center, the pixel position I '0,0 (u, v) , the virtual camera V C Find the unit vector to the position (X C , Y C , Z C ) of.
このとき、レンズ中心H′0,0の3次元座標H′(0,0)=(XR+Hshift,YR+Vshift,0)=(Hshift,Vshift,0)となる。なお、(Hshift,Vshift)は、レンズ中心シフト量算出手段21で算出されたシフト量である。また、(XR,YR)は、レンズアレーLaのレンズ中心H0,0のXY座標である。
また、パラメータで入力される表示面Dの横の画素間隔をPH、表示面Dの縦の画素間隔をPV、焦点距離をFとしたとき、I′0,0(u,v)=(XP+Hshift,YP+Vshift,−F)=(uPH+Hshift,vPV+Vshift,−F)となる。なお、(XP,YP)は、要素画像G0,0のローカル座標(u,v)のXY座標である。
At this time, the lens center H '3-dimensional coordinates of 0,0 H' (0,0) = ( X R + H shift, Y R + V shift, 0) = a (H shift, V shift, 0 ). Note that (H shift , V shift ) is the shift amount calculated by the lens center shift amount calculation means 21. Further, (X R , Y R ) is the XY coordinates of the lens center H 0 , 0 of the lens array La.
Also, next to the pixel spacing P H of the display surface D which is input in the parameter, the vertical pixel interval P V of the display surface D, the focal length was set to F, I '0,0 (u, v) = (X P + H shift, Y P + V shift, -F) = a (uP H + H shift, vP V + V shift, -F). Note that ( XP , Y P ) is the XY coordinates of the local coordinates (u, v) of the element image G 0 , 0 .
よって、要素画像G′0,0内の画素の画素位置I′0,0(u,v)から、レンズ中心H′0,0を通る延長線上に存在する仮想カメラVCの位置(XC,YC,ZC)への単位ベクトルi′(ix,iy,iz)′は、以下の式(3)で表すことができる。
Thus, the 'pixel position of the pixel in 0,0 I'
すなわち、斜投影演算手段22は、要素画像の座標(u,v)ごとに、式(1)で示した位置に仮想カメラVCを配置し、分割領域R(2,2)については、前記式(2)の単位ベクトルの逆ベクトルで表される方向、分割領域R(2,2)以外については、前記式(3)の単位ベクトルの逆ベクトルで表される方向を、それぞれ仮想カメラVCの撮影方向として、斜投影変換を行い、要素画像群を求める。 That is, isometric calculating means 22, the coordinates (u, v) of the elemental images each, arranged virtual camera V C at the position indicated by the equation (1), the divided region R (2, 2), the The direction represented by the inverse vector of the unit vector of the equation (2) and the direction represented by the inverse vector of the unit vector of the equation (3) except for the division regions R (2, 2) are the virtual camera V, respectively. As the shooting direction of C , oblique projection conversion is performed to obtain an element image group.
このように、斜投影演算手段22は、分割領域Rごとに、シフト量を考慮して撮影方向を変えて斜投影変換を行う。なお、斜投影を用いる手法は、従来の図15で説明した手法を用いることができる。
この斜投影演算手段22は、分割領域ごとの要素画像群を、分割領域情報とともに、要素画像統合手段30に出力する。この分割領域情報は、例えば、分割領域ごとの左上座標位置、横画素数、縦画素数である。
In this way, the oblique projection calculation means 22 performs the oblique projection conversion by changing the shooting direction in consideration of the shift amount for each division region R. As the method using oblique projection, the conventional method described with reference to FIG. 15 can be used.
The oblique projection calculation means 22 outputs the element image group for each divided region to the element image integrating means 30 together with the divided region information. The divided area information is, for example, the upper left coordinate position, the number of horizontal pixels, and the number of vertical pixels for each divided area.
ここで、図7を参照して、斜投影演算手段22が用いる従来手法に基づく変換行列について簡単に説明しておく。
斜投影を用いる手法は、図7(a)に示すように、投影座標系(X,Y,Z)において、レンズアレーLaに正対する仮想カメラVOの視点位置による撮影(正射影)を基準として、図7(b)に示すように、仮想カメラVCから撮影したときに、3次元モデルデータの視野範囲VRを投影面に投影する手法である。なお、図7(b)において、仮想カメラVCの位置は、レンズ中心をシフトさせたときの仮想カメラVC(図6参照)の位置をXY平面に平行に移動したものである。
Here, with reference to FIG. 7, a transformation matrix based on the conventional method used by the itlique projection calculation means 22 will be briefly described.
Method using oblique projection, as shown in FIG. 7 (a), the reference projection coordinate system (X, Y, Z) in the positive against shooting by the viewpoint position of the virtual camera V O to the lens array La a (orthogonal projection) as, as shown in FIG. 7 (b), when taken from the virtual camera V C, it is a technique for projecting a field of view V R of the three-dimensional model data to the projection surface. Incidentally, in FIG. 7 (b), the position of the virtual camera V C is one in which the position of the virtual camera V C (see FIG. 6) is moved parallel to the XY plane when shifting the lens center.
斜投影演算手段22は、3次元モデルデータを投影面に斜投影する変換行列として、以下の式(4)に示す変換行列MFを用いる。 Isometric calculating means 22, a transformation matrix obliquely projected onto the projection surface a three-dimensional model data, using the transformation matrix M F as shown in formula (4).
ここで、MCは、3次元モデルデータのオブジェクト座標系を仮想カメラVCの視点位置を原点とするカメラ座標系に変換するモデルビュー行列である。このモデルビュー行列MCは、以下の式(5)に示すように、各要素c11からC34で表される回転成分と平行移動成分とを含む4×4行列である。 Here, M C is a model view matrix for transforming the object coordinate system of the three-dimensional model data to the viewpoint position of the virtual camera V C to the camera coordinate system with the origin. The model view matrix M C, as shown in the following equation (5), a 4 × 4 matrix comprising a rotational component and the translation component from the elements c 11 represented by C 34.
なお、モデルビュー行列MCは、投影座標系(X,Y,Z)における仮想カメラVCの位置、投影座標系の原点(仮想カメラVCの注視点)、上方向(Y軸)をパラメータとして、OpenGL(登録商標)のgluLookAt関数を用いて求めることができる。
また、式(4)のPは、視野範囲VRを正規化し、カメラ座標系で定義される空間中の点を投影座標系に変換するプロジェクション行列である。このプロジェクション行列Pは、以下の式(6)で表すことができる。
Incidentally, the model view matrix M C is projected coordinate system (X, Y, Z) position of the virtual camera V C at the origin of the projected coordinate system (gazing point of the virtual camera V C), the upward direction (Y axis) parameters As a result, it can be obtained by using the gluLookAt function of OpenGL (registered trademark).
Also, P of the formula (4), the field of view V R normalizing a projection matrix for transforming the points in space defined by the camera coordinate system in the projection coordinate system. This projection matrix P can be expressed by the following equation (6).
ここで、TCは、仮想カメラVOの視点位置から仮想カメラVCの視点位置への座標変換行列である。式(5)と同様に、オブジェクト座標系を仮想カメラVOの視点位置を原点とするカメラ座標系に変換するモデルビュー行列MOを、以下の式(7)に示すように、各要素o11からo34で表される回転成分と平行移動成分とを含む4×4行列としたとき、座標変換行列TCは、以下の式(8)で表すことができる。 Here, T C is the coordinate transformation matrix from the viewpoint position of the virtual camera V O to the viewpoint position of the virtual camera V C. As for formula (5), the model view matrix M O for converting the viewpoint position of the virtual camera V O the object coordinate system to the camera coordinate system with the origin, as shown in the following equation (7), each element o when a 4 × 4 matrix comprising a rotational component and the translation component represented by o 34 to 11, the coordinate transformation matrix T C can be expressed by the following equation (8).
また、式(6)のOrthoは、以下の式(9)に示す正射影行列である。 Ortho in equation (6) is a normal projection matrix shown in equation (9) below.
ここで、fは視野範囲VRの奥端位置(far)、nは視野範囲VRの手前端位置(near)、tは視野範囲VRの上端位置(top)、bは視野範囲VRの下端位置(bottom)、lは視野範囲VRの左端位置(left)、rは視野範囲VRの右端位置(right)である。ただし、lおよびrは、図7(a)では図示していない。
また、式(6)のTZは、以下の式(10)に示すように、投影面を、XY面からレンズアレーLa面にその距離Ldistだけ平行移動させる平行移動行列である。
Here, f is the back end position of the field of view V R (far), n is the front end position of the field of view V R (near), t is the upper end position of the field of view V R (top), b is the field of view range V R lower end position of the (bottom), l is the leftmost position of the field of view V R (left), r is the rightmost position of the field of view V R (right). However, l and r are not shown in FIG. 7 (a).
Further, T Z is the formula (6), as shown in the following equation (10), a projection plane, a translation matrix to only translate the distance L dist from XY plane to the lens array La surface.
なお、前記式(6)では、TZ −1を乗算することで、最終的に、投影面をXY面に戻している。
また、式(6)のObliqueは、以下の式(11)に示すように、仮想カメラVOから仮想カメラVCへ視点位置を変化させたときの、斜投影行列である。
In the above equation (6), the projection plane is finally returned to the XY plane by multiplying by TZ -1 .
Further, Oblique of formula (6), as shown in equation (11) below, when changing the viewpoint position from the virtual camera V O to the virtual camera V C, which is oblique projection matrix.
ここで、(XC,YC,ZC)は、仮想カメラVCの座標(視点位置)を示す。
このように、斜投影演算手段22は、分割領域ごとに、1つの変換行列MF(前記式(4))によって、3次元モデルデータを投影面に投影することで、要素画像内の仮想カメラVCの方向から撮影されるレンズ中心に対応する画素の画素値を算出することができる。
Here, (X C, Y C, Z C) shows the coordinates (viewpoint position) of the virtual camera V C.
Thus, isometric calculating means 22, for each divided area, by a single transformation matrix M F (Formula (4)), by projecting the three-dimensional model data to the projection plane, the virtual camera in the element image it can be calculated pixel values of pixels corresponding to the lens center to be photographed from the direction of V C.
なお、斜投影演算手段22によって、投影面に投影した画像は、例えば、図8に示すように、レンズ中心Hに対応する画素を含んだ画像(投影面画像J)となり、レンズ中心Hに対応する画素は、当該画素を中心とする所定範囲をフィルタ領域ARとして、低域フィルタ処理を施すことが好ましい。例えば、斜投影演算手段22は、レンズ中心Hに対応する画素の画素値を、フィルタ領域AR内における平均値、重み付け加算値、メディアン値等とする。
そして、斜投影演算手段22は、要素画像内のすべての画素値を算出し、分割領域ごとの要素画像群を生成する。
図3に戻って、要素画像生成装置1の構成について説明を続ける。
The image projected on the projection surface by the oblique projection calculation means 22 is, for example, an image including pixels corresponding to the lens center H (projection surface image J) as shown in FIG. 8, and corresponds to the lens center H. pixels is a predetermined range around the pixel as the filter area a R, is preferably subjected to low-pass filtering. For example, isometric calculating means 22, the pixel values of pixels corresponding to the lens center H, an average value in the filter region A R, weighted addition value, and median value or the like.
Then, the oblique projection calculation means 22 calculates all the pixel values in the element image and generates an element image group for each divided region.
Returning to FIG. 3, the configuration of the element
要素画像統合手段30は、分割領域別要素画像生成手段20で生成された分割領域ごとの要素画像群を統合するものである。すなわち、要素画像統合手段30は、分割領域別要素画像生成手段20で分割領域ごとに生成された要素画像群を、分割前の領域に割り当てて連結することで、1つの要素画像群を生成する。
ここでは、要素画像統合手段30は、斜投影演算手段22から入力される分割領域情報で特定される位置に、斜投影演算手段22で生成される個々の分割領域の要素画像群を割り当てることで、1つの要素画像群を生成する。
The element
Here, the element
以上説明したように要素画像生成装置1を構成することで、要素画像生成装置1は、分割領域ごとに、斜投影を用いて要素画像を生成することで、光線追跡を用いた手法に比べて高速に要素画像を生成することができる。また、要素画像生成装置1は、立体像表示装置の表示面が大きくなっても、分割領域ごとに斜投影を行うことで、要素画像の誤差を低く抑えることができる。
なお、要素画像生成装置1は、コンピュータを、前記した各手段として機能させるためのプログラム(要素画像生成プログラム)で動作させることができる。
By configuring the element
The element
〔要素画像生成装置の動作〕
次に、図9を参照(構成については、適宜図3参照)して、本発明の実施形態に係る要素画像生成装置1の動作について説明する。
まず、要素画像生成装置1は、立体像表示装置2のパラメータと、画面分割情報とを入力する(ステップS1)。
そして、要素画像生成装置1は、分割領域設定手段10によって、パラメータおよび画面分割情報により、立体像表示装置2の表示面Dに分割領域を設定し、個々の分割領域を特定する(ステップS2)。
[Operation of element image generator]
Next, the operation of the element
First, the element
Then, the element
そして、要素画像生成装置1は、分割領域別要素画像生成手段20によって、ステップS2で特定された分割領域ごとに要素画像群を生成する。
すなわち、要素画像生成装置1は、分割領域別要素画像生成手段20のレンズ中心シフト量算出手段21によって、レンズアレーLaのレンズ中心から、分割領域のレンズ中心までのシフト量を算出する(ステップS3)。
Then, the element
That is, the element
そして、要素画像生成装置1は、斜投影演算手段22によって、ステップS3で算出されたシフト量だけシフトしたレンズ中心に対応する要素画像内の各画素位置から、当該レンズ中心を通って視距離だけ離間した仮想カメラで撮影される3次元モデルデータを投影面(表示面)に斜投影することで、要素画像内の画素値を算出する(ステップS4)。
これによって、分割領域のすべての要素画像の同一画素位置についての画素値が算出される。
そして、要素画像生成装置1は、分割領域の要素画像内のすべての画素について画素値の算出が完了したか否かを判定する(ステップS5)。
Then, the element
As a result, the pixel values for the same pixel positions of all the element images in the divided region are calculated.
Then, the element
ここで、要素画像内のすべての画素について画素値の算出が完了していない場合(ステップS5でNo)、要素画像生成装置1は、ステップS4に戻って、要素画像内の他の画素を対象として、順次、要素画像内の画素値を算出する。
Here, when the calculation of the pixel values for all the pixels in the element image is not completed (No in step S5), the element
一方、要素画像内のすべての画素について画素値の算出が完了している場合(ステップS5でYes)、要素画像生成装置1は、すべての分割領域に対して、要素画像群を生成したか否かを判定する(ステップS6)。
On the other hand, when the calculation of the pixel values for all the pixels in the element image is completed (Yes in step S5), whether or not the element
ここで、すべての分割領域に対して、要素画像群の生成が完了していない場合(ステップS6でNo)、要素画像生成装置1は、ステップS2に戻って、次の分割領域を特定し、その分割領域に対応する要素画像群を生成する。
一方、すべての分割領域に対して、要素画像群の生成が完了した場合(ステップS6でYes)、要素画像生成装置1は、要素画像統合手段30によって、分割領域ごとの要素画像群を統合(連結)して、1つの要素画像群を生成する(ステップS7)。
Here, when the generation of the element image group is not completed for all the divided areas (No in step S6), the element
On the other hand, when the generation of the element image group is completed for all the divided areas (Yes in step S6), the element
以上の動作によって、要素画像生成装置1は、立体像表示装置の表示面を分割した分割領域ごとに、斜投影により要素画像群を生成することができる。
以上、本発明の実施形態に係る要素画像生成装置1の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
By the above operation, the element
Although the configuration and operation of the element
〔変形例1〕
例えば、ここでは、分割領域設定手段10において、図4(b)に示すように、画面分割情報によって、表示面Dを等分割する例を示した。しかし、斜投影を用いた要素画像群は、図16で説明したように、画面が大きくなれば周辺部分で誤差が大きくなる。
そこで、本発明は、図10に示すように、表示面Dの中央部と周辺部とで大きさを変えるように分割してもよい。
これによって、観察者がより注視する表示面中央の分割領域に対して、誤差が小さくなるため、観察者が注視しやすい領域の誤差を抑えることができる。
[Modification 1]
For example, here, in the division area setting means 10, as shown in FIG. 4B, an example in which the display surface D is equally divided by the screen division information is shown. However, in the element image group using oblique projection, as described with reference to FIG. 16, the larger the screen, the larger the error in the peripheral portion.
Therefore, as shown in FIG. 10, the present invention may be divided so that the size is changed between the central portion and the peripheral portion of the display surface D.
As a result, the error becomes smaller with respect to the divided region in the center of the display surface that the observer gazes at more, so that the error in the region where the observer can easily gaze can be suppressed.
〔変形例2〕
また、ここでは、分割領域設定手段10において、図4(b)に示すように、画面分割情報によって、表示面Dの各分割領域を境界線によって区分する例を示した。
しかし、図11に示すように、分割領域Rごとに、重複領域Qを設けて分割してもよい。このとき、画面分割情報そのものが、重複領域Qを設けた分割領域を指定するものであってもよいし、境界線で区分した画面分割情報に対して、分割領域設定手段10が、重複領域Qを付加して分割領域を設定することとしてもよい。
この場合、分割領域別要素画像生成手段20では、重複領域Qにおいて、同一位置の要素画像を生成する。そして、要素画像統合手段30は、分割領域で重複する同一の要素画像については、その要素画像の各画素の画素値を平均化する。
これによって、分割領域Rの周辺部分における要素画像の誤差を抑えることができる。
[Modification 2]
Further, here, as shown in FIG. 4B, the division area setting means 10 shows an example in which each division area of the display surface D is divided by a boundary line according to the screen division information.
However, as shown in FIG. 11, the overlapping region Q may be provided for each division region R and divided. At this time, the screen division information itself may specify the division area provided with the overlapping area Q, or the division area setting means 10 may use the overlapping area Q for the screen division information divided by the boundary line. May be added to set the division area.
In this case, the divided area-specific element image generation means 20 generates element images at the same position in the overlapping area Q. Then, the element image integrating means 30 averages the pixel values of each pixel of the element image for the same element image that overlaps in the divided region.
As a result, it is possible to suppress an error in the element image in the peripheral portion of the divided region R.
〔変形例3〕
また、ここでは、図5に示すように、図4(b)の中央の分割領域R(2,2)のレンズ中心を、レンズアレーLaのレンズ中心と一致するものとして説明したが、必ずしも一致する必要はない。
すなわち、レンズアレーLaのレンズ中心と一致しないレンズ中心を持つ分割領域は、図4(b)の分割領域R(2,2)以外と同様に、レンズ中心のシフト量に応じて斜投影変換を行えばよい。
[Modification 3]
Further, as shown in FIG. 5, the lens center of the divided region R (2, 2) in the center of FIG. 4B has been described as being coincident with the lens center of the lens array La, but they are not necessarily the same. do not have to.
That is, the divided region having the lens center that does not match the lens center of the lens array La undergoes oblique projection conversion according to the shift amount of the lens center, as in the case other than the divided regions R (2, 2) in FIG. 4 (b). Just do it.
1 要素画像生成装置
10 分割領域設定手段
20 分割領域別要素画像生成手段
21 レンズ中心シフト量算出手段
22 斜投影演算手段
30 要素画像統合手段
1 element image generation device 10 division area setting means 20 element image generation means for each division area 21 lens center shift amount calculation means 22 oblique projection calculation means 30 element image integration means
Claims (6)
前記立体表示装置の表示面に対して分割領域を設定する分割領域設定手段と、
予め定めた視距離に仮想的に仮想カメラを配置し、前記分割領域ごとに、当該仮想カメラから、前記分割領域の中央の要素画像に対応する要素レンズのレンズ中心への方向を撮影方向として、前記3次元モデルデータを予め定めた投影座標系の投影面に斜投影変換し、前記分割領域内の要素画像の画素値を演算する分割領域別要素画像生成手段と、
この分割領域別要素画像生成手段で生成された前記分割領域ごとの要素画像群を連結して、前記立体表示装置の表示面に表示する要素画像群を生成する要素画像統合手段と、
を備えることを特徴とする要素画像生成装置。 An element image generator that generates an element image to be displayed on an integral stereoscopic display device equipped with a lens array in which element lenses are arranged two-dimensionally from three-dimensional model data.
A division area setting means for setting a division area with respect to the display surface of the stereoscopic display device, and
A virtual camera is virtually arranged at a predetermined viewing distance, and the direction from the virtual camera to the lens center of the element lens corresponding to the element image in the center of the divided area is set as the shooting direction for each divided area. A division area-specific element image generation means that obliquely projects the three-dimensional model data onto a projection plane of a predetermined projection coordinate system and calculates the pixel value of the element image in the division area.
An element image integrating means for generating an element image group to be displayed on the display surface of the stereoscopic display device by connecting the element image groups for each of the divided areas generated by the element image generation means for each divided area.
An element image generator, characterized in that it comprises.
前記レンズアレーのレンズ中心から、前記分割領域設定手段で設定された分割領域の中央の要素画像に対応する要素レンズのレンズ中心へのシフト量を算出するレンズ中心シフト量算出手段と、
前記レンズアレーの中央の要素レンズに対応する要素画像の画素位置ごとに、当該要素レンズのレンズ中心を通る延長線上に配置された前記仮想カメラから、前記シフト量だけシフトしたレンズ中心への方向を撮影方向として、前記3次元モデルデータを斜投影変換し、前記分割領域内の要素画像の前記画素位置の画素値を演算する斜投影手段と、
を備えることを特徴とする請求項1に記載の要素画像生成装置。 The element image generation means for each divided area is
A lens center shift amount calculating means for calculating the shift amount from the lens center of the lens array to the lens center of the element lens corresponding to the element image at the center of the divided area set by the divided area setting means.
For each pixel position of the element image corresponding to the element lens in the center of the lens array, the direction from the virtual camera arranged on the extension line passing through the lens center of the element lens to the lens center shifted by the shift amount. As the shooting direction, the oblique projection means for obliquely projecting the three-dimensional model data and calculating the pixel value of the pixel position of the element image in the divided region.
The element image generation device according to claim 1, further comprising.
前記要素画像統合手段は、前記分割領域で重複する同一の要素画像について、その要素画像の各画素の画素値を平均化することで、当該要素画像の画素値とすることを特徴とする請求項1から請求項4のいずれか一項に記載の要素画像生成装置。 The division area setting means sets the division area on the display surface with an overlapping area.
The element image integrating means is characterized in that, for the same element image overlapping in the divided region, the pixel value of each pixel of the element image is averaged to obtain the pixel value of the element image. The element image generator according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016203438A JP6788472B2 (en) | 2016-10-17 | 2016-10-17 | Element image generator and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016203438A JP6788472B2 (en) | 2016-10-17 | 2016-10-17 | Element image generator and its program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018067750A JP2018067750A (en) | 2018-04-26 |
JP6788472B2 true JP6788472B2 (en) | 2020-11-25 |
Family
ID=62086332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016203438A Active JP6788472B2 (en) | 2016-10-17 | 2016-10-17 | Element image generator and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6788472B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4836814B2 (en) * | 2007-01-30 | 2011-12-14 | 株式会社東芝 | CG image generating device for 3D display, CG image generating method for 3D display, and program |
JP4928476B2 (en) * | 2008-01-22 | 2012-05-09 | 日本放送協会 | Stereoscopic image generating apparatus, method thereof and program thereof |
JP5522794B2 (en) * | 2010-10-15 | 2014-06-18 | 日本放送協会 | Stereoscopic image generating apparatus and program thereof |
-
2016
- 2016-10-17 JP JP2016203438A patent/JP6788472B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018067750A (en) | 2018-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8581961B2 (en) | Stereoscopic panoramic video capture system using surface identification and distance registration technique | |
WO2022088103A1 (en) | Image calibration method and apparatus | |
JP6750183B2 (en) | Image distance calculating device, image distance calculating method, and image distance calculating program | |
CN108769462B (en) | Free visual angle scene roaming method and device | |
JP4928476B2 (en) | Stereoscopic image generating apparatus, method thereof and program thereof | |
JP6406853B2 (en) | Method and apparatus for generating optical field images | |
JP5522794B2 (en) | Stereoscopic image generating apparatus and program thereof | |
JP5452801B2 (en) | Stereoscopic image generating apparatus and program thereof | |
JP6018468B2 (en) | Depth range calculation device and program thereof | |
JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2016122444A (en) | Method and apparatus for generating adapted slice image from focal stack | |
JP7141833B2 (en) | Image processing device and image processing program | |
JP2020028114A (en) | Stereoscopic image generation device and program thereof | |
JP6788472B2 (en) | Element image generator and its program | |
JP6846165B2 (en) | Image generator, image display system and program | |
JP2014116867A (en) | Stereoscopic display system, stereoscopic image generating device, and stereoscopic image generating program | |
JP6118527B2 (en) | Spatial distortion correction apparatus and program thereof | |
JP7257272B2 (en) | DEPTH MAP GENERATION DEVICE AND PROGRAM THEREOF, AND 3D IMAGE GENERATION DEVICE | |
JP6543096B2 (en) | Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system | |
JP2014112758A (en) | Stereoscopic display device and stereoscopic display system | |
JP2020129773A (en) | Stereoscopic image generation system, stereoscopic image generation device, and program thereof | |
KR102716744B1 (en) | Method for forming an image of an object, computer program product and image forming system for carrying out the method | |
JP2014216719A (en) | Image processing apparatus, stereoscopic image display device, image processing method and program | |
JP2014135006A (en) | Image processing system, image processing method and program | |
JP2006126542A (en) | Stereoscopic image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6788472 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |