JP2012084105A - Stereoscopic image generation device and program therefor - Google Patents

Stereoscopic image generation device and program therefor Download PDF

Info

Publication number
JP2012084105A
JP2012084105A JP2010232116A JP2010232116A JP2012084105A JP 2012084105 A JP2012084105 A JP 2012084105A JP 2010232116 A JP2010232116 A JP 2010232116A JP 2010232116 A JP2010232116 A JP 2010232116A JP 2012084105 A JP2012084105 A JP 2012084105A
Authority
JP
Japan
Prior art keywords
image
virtual camera
pixel
virtual
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010232116A
Other languages
Japanese (ja)
Other versions
JP5522794B2 (en
Inventor
Yuichi Iwadate
祐一 岩舘
Miwa Katayama
美和 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2010232116A priority Critical patent/JP5522794B2/en
Publication of JP2012084105A publication Critical patent/JP2012084105A/en
Application granted granted Critical
Publication of JP5522794B2 publication Critical patent/JP5522794B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic image generation device generating a display image with a small calculation cost even when not meeting a condition that each interval between element lenses has to be an integral multiple of a pixel size of an element image.SOLUTION: A stereoscopic image generation device 1 comprises: stereoscopic display device modeling means 11 to which various parameters are input; regularized image setting means 12 for setting an image size of a regularized image by the parameters; filter parameter setting means 13 for setting a filter application area; virtual camera photographing means 14 for generating a virtual photograph image by photographing a display object by a virtual camera; a first filter 15 for reducing folding noises caused by sampling in a lens array L; regularized image generation means 16 for generating a regularized image; and a second filter 17a for reducing folding noises caused by sampling in an image display panel 21.

Description

本発明は、インテグラル方式、レンチキュラ方式等の立体表示方式において、表示対象となる3次元形状モデルから立体像を生成する技術に関する。   The present invention relates to a technique for generating a three-dimensional image from a three-dimensional shape model to be displayed in a three-dimensional display method such as an integral method or a lenticular method.

近年、立体表示装置の研究開発が進み、インテグラル方式およびレンチキュラ方式等、特殊なメガネを用いなくても観察者に立体像を視認させることが可能な裸眼方式の立体表示装置が開発されている。例えば、インテグラル方式の立体表示装置は、高精細画像表示パネルと、その前面に配置された2次元レンズアレイとを備え、高精細画像表示パネルに要素画像を表示すると立体像が再生される。この要素画像の各画素からの光線は、その画素位置と、レンズアレイの要素レンズの位置とから決まる方向に出射される。つまり、一つの要素レンズから要素画像の画素数だけの光線が出射されることになる。ここで、要素レンズの間隔が要素画像の画素サイズの整数倍という条件を満たす場合には、各要素レンズから出射される光線の方向が有限になるため、同一方向の光線を集めることで正射影画像として表すことができる。すなわち、立体表示装置から出射される光線群は、有限枚の正射影画像で表すことができる。   In recent years, research and development of 3D display devices have progressed, and autostereoscopic 3D display devices such as an integral method and a lenticular method that allow a viewer to view a 3D image without using special glasses have been developed. . For example, an integral-type stereoscopic display device includes a high-definition image display panel and a two-dimensional lens array disposed on the front surface thereof, and a stereoscopic image is reproduced when an element image is displayed on the high-definition image display panel. Light rays from each pixel of the element image are emitted in a direction determined by the pixel position and the position of the element lens of the lens array. That is, as many rays as the number of pixels of the element image are emitted from one element lens. Here, when the condition that the distance between the element lenses is an integral multiple of the pixel size of the element image, the direction of the light rays emitted from each element lens is finite. Therefore, the orthogonal projection is performed by collecting the light rays in the same direction. It can be represented as an image. That is, the light ray group emitted from the stereoscopic display device can be represented by a finite number of orthographic images.

ここで、コンピュータグラフィックス(CG)やレンジセンサーで得られる3次元形状モデルをインテグラル方式の立体像に変換する技術が提案されている(例えば、非特許文献1,2)。これら非特許文献1,2に記載の技術は、3次元形状モデルをインテグラル方式の立体像に変換する基本的な手法である。例えば、非特許文献1に記載の技術は、コンピュータグラフィックスの3次元形状モデルを被写体とし、3次元仮想空間内にレンズアレイ、奥行き制御用のレンズを設置し、光線追跡法により、被写体のインテグラル立体像を生成するものである。   Here, techniques for converting a three-dimensional shape model obtained by computer graphics (CG) or a range sensor into an integral stereoscopic image have been proposed (for example, Non-Patent Documents 1 and 2). These techniques described in Non-Patent Documents 1 and 2 are basic techniques for converting a three-dimensional shape model into an integral stereoscopic image. For example, in the technique described in Non-Patent Document 1, a three-dimensional shape model of computer graphics is used as a subject, a lens array and a lens for depth control are installed in a three-dimensional virtual space. A three-dimensional image is generated.

つまり、非特許文献1,2に記載の技術において、正射影を用いることができると、レンズアレイの要素レンズ数の光線を1回レンダリングするだけで、3次元形状モデルから表示画像を生成することができる。この場合、非特許文献1,2に記載の技術において、中心射影を用いた場合よりも、少ない演算量で3次元形状モデルから表示画像を生成することができる。   In other words, in the techniques described in Non-Patent Documents 1 and 2, if orthographic projection can be used, a display image can be generated from a three-dimensional shape model by rendering light rays of the number of element lenses of the lens array once. Can do. In this case, in the techniques described in Non-Patent Documents 1 and 2, it is possible to generate a display image from a three-dimensional shape model with a smaller amount of computation than in the case where center projection is used.

非特許文献3では、光線追跡法を用いて、CGデータから要素画像を生成する技術が提案されている。
非特許文献4では、グラフィックスプロセッシングユニット(GPU)を用いて要素画像を生成する技術に関するものであり、Z−bufferを利用したレンダリング法が提案されている。
Non-Patent Document 3 proposes a technique for generating an element image from CG data using a ray tracing method.
Non-Patent Document 4 relates to a technique of generating an element image using a graphics processing unit (GPU), and a rendering method using Z-buffer is proposed.

非特許文献5では、医療用3Dオブジェクトをインテグラル方式で立体表示するために、要素画像を高速で生成する技術が提案されている。この非特許文献5に記載の技術では、分散コンピュータによる高速化を図っており、各ノードが同一の3次元オブジェクトを用いている。
非特許文献6では、レンズアレイに起因する画質劣化の軽減を考慮して、3次元オブジェクトから要素画像を生成する技術が提案されている。
Non-Patent Document 5 proposes a technique for generating element images at high speed in order to stereoscopically display a medical 3D object in an integral manner. In the technique described in Non-Patent Document 5, the speed is increased by a distributed computer, and each node uses the same three-dimensional object.
Non-Patent Document 6 proposes a technique for generating an element image from a three-dimensional object in consideration of reduction in image quality degradation caused by a lens array.

特許文献1では、動部分と静止部分で構成される3次元空間において、要素画像を高速で生成する発明が提案されている。この特許文献1に記載の発明では、動部分のみで要素画像を生成して、計算済みの静止部分の要素画像と合成している。   Patent Document 1 proposes an invention for generating element images at high speed in a three-dimensional space composed of a moving part and a stationary part. In the invention described in Patent Document 1, an element image is generated only by a moving part and is synthesized with an element image of a calculated still part.

特許文献2では、汎用のコンピュータグラフィックスによって、自由度の高いインテグラル方式の立体画像を生成する発明が提案されている。
特許文献3では、レンズアレイに起因する画質劣化の軽減を考慮して、3次元オブジェクトから要素画像を生成する発明が提案されている。
Patent Document 2 proposes an invention for generating an integral 3D image with a high degree of freedom using general-purpose computer graphics.
Patent Document 3 proposes an invention for generating an element image from a three-dimensional object in consideration of reduction in image quality degradation caused by a lens array.

特開2003−109042号公報JP 2003-109042 A 特開2006−146597号公報JP 2006-146597 A 特開2009−175866号公報JP 2009-175866 A

Athineos,Spyros S,:“Physical modeling of a microlens array setup for use in computer generated IP”、Proceedings of the SPIE,Volume 5664,pp.472-479(2005).Athineos, Spyros S ,: “Physical modeling of a microlens array setup for use in computer generated IP”, Proceedings of the SPIE, Volume 5664, pp.472-479 (2005). Huy Hoang Tran,et al:”Interactive 3D Navigation System for Image-guided Surgery”,Journal of Virtual Reality,8(1),pp.9-16(2009)Huy Hoang Tran, et al: “Interactive 3D Navigation System for Image-guided Surgery”, Journal of Virtual Reality, 8 (1), pp. 9-16 (2009) 中島他,:“Integral Photographyの原理を用いた3次元ディスプレイの画像高速生成法”,映像情報メディア学会,Vol.54,No.3,pp.420-425(2000).Nakajima et al .: “High-speed image generation method of 3D display using the principle of Integral Photography”, The Institute of Image Information and Television Engineers, Vol.54, No.3, pp.420-425 (2000). 小池,:“プログラマブルなグラフィックハードウェアを用いたインテグラルフォトグラフィ画像のレンダリング”,情報処理学会 研究報告,2003-CG-113,pp.70-74(2003).Koike, “Rendering integral photography images using programmable graphics hardware”, IPSJ Research Report, 2003-CG-113, pp.70-74 (2003). N. Sakai,:”High Performance Computing for Parallel Rendering in Surgical Autostereoscopic Display and navigation”, CARS2003; ICS 1256, pp.403-407(2003).N. Sakai, “High Performance Computing for Parallel Rendering in Surgical Autostereoscopic Display and navigation”, CARS2003; ICS 1256, pp.403-407 (2003). Miwa katayama, Yuichi Iwadate: ”A method for converting three-dimensional models into auto-stereoscopic images based on integral photography”、 Proceedings of SPIE, vol.6805, p.68050Z.1-68050Z.8(2008)Miwa katayama, Yuichi Iwadate: “A method for converting three-dimensional models into auto-stereoscopic images based on integral photography”, Proceedings of SPIE, vol.6805, p.68050Z.1-68050Z.8 (2008)

しかし、非特許文献1,2に記載の技術では、要素レンズの間隔が要素画像の画素サイズの整数倍という条件を満たさない場合、要素レンズごとに光線の方向が異なるため、その光線群を有限枚の正射影画像で表すことができない。   However, in the techniques described in Non-Patent Documents 1 and 2, if the distance between the element lenses does not satisfy the condition of an integral multiple of the pixel size of the element image, the direction of the light rays differs from element lens to element lens. It cannot be represented by one orthogonal projection image.

さらに、非特許文献1,2に記載の技術では、正射影を用いた場合に正射影画像に幾何歪が生じてしまう。この場合、非特許文献1,2に記載の技術では、幾何歪を補正するための計算コストが余分に必要になるという問題がある。
この他、特許文献1〜3に記載の発明、および、非特許文献3〜6に記載技術では、非特許文献1,2に記載の技術の問題点を解決するには至らない。
Furthermore, in the techniques described in Non-Patent Documents 1 and 2, when orthographic projection is used, geometric distortion occurs in the orthographic projection image. In this case, the techniques described in Non-Patent Documents 1 and 2 have a problem that an extra calculation cost for correcting the geometric distortion is required.
In addition, the inventions described in Patent Documents 1 to 3 and the techniques described in Non-Patent Documents 3 to 6 do not solve the problems of the techniques described in Non-Patent Documents 1 and 2.

そこで、本発明は、前記した問題を解決し、要素レンズの間隔が要素画像の画素サイズの整数倍という条件を満たさない場合でも、少ない計算コストで表示画像を生成できる立体像生成装置およびそのプログラムを提供することを目的とする。   Therefore, the present invention solves the above-described problem, and a stereoscopic image generating apparatus and its program capable of generating a display image with low calculation cost even when the interval between the element lenses does not satisfy the condition of an integral multiple of the pixel size of the element image The purpose is to provide.

前記した課題を解決するため、本願第1発明に係る立体像生成装置は、要素レンズを2次元に配置したレンズアレイと画像表示手段とを備える立体表示装置に表示する表示対象としての3次元形状モデルを仮想的な撮影カメラである仮想カメラで撮影して、前記立体表示装置用の表示画像を生成する立体像生成装置であって、パラメータ入力手段と、正規化画像画素サイズ算出手段と、正規化画像画素位置算出手段と、仮想カメラ位置算出手段と、仮想撮影画像生成手段と、正規化画像生成手段と、表示画像生成手段と、を備えることを特徴とする。   In order to solve the above-described problem, the stereoscopic image generating device according to the first invention of the present application is a three-dimensional shape as a display target to be displayed on a stereoscopic display device including a lens array in which element lenses are two-dimensionally arranged and image display means. A stereoscopic image generating apparatus that captures a model with a virtual camera that is a virtual imaging camera and generates a display image for the stereoscopic display apparatus, the parameter input means, a normalized image pixel size calculating means, a normal image It comprises a normalized image pixel position calculating means, a virtual camera position calculating means, a virtual captured image generating means, a normalized image generating means, and a display image generating means.

かかる構成によれば、立体像生成装置は、パラメータ入力手段によって、前記要素レンズの焦点距離と、前記要素レンズの間隔と、前記画像表示手段の画素間隔とが入力される。また、立体像生成装置は、正規化画像画素サイズ算出手段によって、前記要素レンズの間隔を前記画像表示手段の画素間隔で除算して予め設定された定数を乗じた値に基づいて前記要素レンズ間の画素数を算出すると共に、前記要素レンズの間隔を前記要素レンズ間の画素数で除算することで、正規化画像の画素サイズを前記要素レンズの間隔に対して整数分の1となる値で算出する。そして、立体像生成装置は、正規化画像画素位置算出手段によって、前記表示画像の画素座標に前記画像表示手段の画素間隔を乗算して前記正規化画像の画素サイズで除算することで、前記正規化画像の画素座標を算出する。このようにして、立体像生成装置は、画素サイズが要素レンズの間隔に対して整数分の1となる正規化画像を用意する。   According to such a configuration, the stereoscopic image generating apparatus receives the focal length of the element lens, the interval of the element lens, and the pixel interval of the image display unit by the parameter input unit. Further, the stereoscopic image generating apparatus is configured such that the normalized image pixel size calculating unit divides the element lens interval by the pixel interval of the image display unit and multiplies the element lens interval by a preset constant. The pixel size of the normalized image is a value that is a fraction of an integer with respect to the distance between the element lenses by calculating the number of pixels and dividing the distance between the element lenses by the number of pixels between the element lenses. calculate. Then, the stereoscopic image generating device uses the normalized image pixel position calculation unit to multiply the pixel coordinates of the display image by the pixel interval of the image display unit and divide by the pixel size of the normalized image. The pixel coordinates of the digitized image are calculated. In this way, the stereoscopic image generating apparatus prepares a normalized image whose pixel size is 1 / integer with respect to the interval between the element lenses.

また、立体像生成装置は、仮想カメラ位置算出手段によって、前記レンズアレイから前記仮想カメラの位置までを示すように予め設定した距離と前記正規化画像の画素サイズとを乗算して前記要素レンズの焦点距離で除算した値に基づいて前記仮想カメラの位置を算出する。そして、立体像生成装置は、仮想撮影画像生成手段によって、前記仮想カメラ位置算出手段が算出した仮想カメラの位置での変換行列によって、前記3次元形状モデルを投影面斜投影することで、前記3次元形状モデルを前記仮想カメラで撮影した仮想撮影画像を生成する。つまり、立体像生成装置は、撮影画像生成手段が斜射影を行うために、仮想撮影画像に幾何歪が生じることがなく、画素が縦横に整列した仮想撮影画像を生成できる。   In addition, the stereoscopic image generation apparatus multiplies the distance set in advance so as to indicate the position from the lens array to the position of the virtual camera by the virtual camera position calculation unit, and the pixel size of the normalized image to multiply the element lens. The position of the virtual camera is calculated based on the value divided by the focal length. Then, the stereoscopic image generating apparatus projects the three-dimensional shape model obliquely onto the projection plane using the transformation matrix at the position of the virtual camera calculated by the virtual camera position calculating unit by the virtual captured image generating unit. A virtual photographed image obtained by photographing the three-dimensional shape model with the virtual camera is generated. That is, the stereoscopic image generating apparatus can generate a virtual captured image in which pixels are aligned vertically and horizontally without causing geometric distortion in the virtual captured image because the captured image generating unit performs oblique projection.

また、立体像生成装置は、正規化画像生成手段によって、所定の座標変換式により前記仮想撮影画像の画素の画素値を前記正規化画像の画素に割り当てることで、前記正規化画像を生成する。つまり、前記した斜投影によって、正規化画像の画素と、仮想撮影画像の画素とが直線上に並ぶので、立体像生成装置は、この直線に従って仮想撮影画像の画素の画素値を、用意した正規化画像の各画素に割り当てる。従って、立体像生成装置は、正規化画像上に要素画像を形成することになる。
さらに、立体像生成装置は、表示画像生成手段によって、前記正規化画像生成手段が生成した正規化画像から前記表示画像を生成する。
The stereoscopic image generating apparatus generates the normalized image by assigning pixel values of the pixels of the virtual photographed image to the pixels of the normalized image using a predetermined coordinate conversion formula by the normalized image generating unit. In other words, the pixels of the normalized image and the pixels of the virtual photographed image are arranged on a straight line by the oblique projection described above, and the stereoscopic image generating apparatus uses the prepared normal values of the pixel values of the virtual photographed image according to the straight line. Assigned to each pixel of the digitized image. Therefore, the stereoscopic image generating apparatus forms an element image on the normalized image.
Furthermore, the stereoscopic image generating apparatus generates the display image from the normalized image generated by the normalized image generating unit by the display image generating unit.

また、本願第2発明に係る立体像生成装置は、前記仮想カメラ位置算出手段が、さらに、前記仮想カメラの位置から前記レンズアレイの中心位置までの方向を前記仮想カメラの撮影方向として算出し、前記仮想撮影画像生成手段が、前記レンズアレイとの垂線上に位置する前記仮想カメラが前記レンズアレイの中心位置を向く第1視点でのモデルビュー行列Mについて式(9)で定義され、前記仮想カメラ位置算出手段が算出した仮想カメラの位置で前記仮想カメラが前記撮影方向を向く第2視点でのモデルビュー行列Mが式(10)で定義され、前記第1視点から前記第2視点への変換行列Tが式(11)で定義され、正射影用変換行列orthoが式(12)で定義され、投影座標系内での前記レンズアレイの平行移動距離Ldistが式(15)で定義され、前記投影座標系内での前記レンズアレイの平行移動行列Tが式(16)で定義され、前記投影座標系の第3軸方向の変位に対する第1,2軸方向の変化量S,Sが式(19)で定義され、斜投影用変換行列Obliqueが式(20)で定義され、前記投影座標系内での前記レンズアレイの平行移動逆行列T −1が式(21)で定義され、プロジェクション行列Pが式(22)で定義されるときに、式(23)で定義された前記仮想カメラの位置での変換行列Fによって、前記3次元形状モデルを斜投影することを特徴とする。 Further, in the stereoscopic image generating apparatus according to the second invention of the present application, the virtual camera position calculating means further calculates a direction from the position of the virtual camera to the center position of the lens array as a shooting direction of the virtual camera, It said virtual captured image generating means are defined by equation (9) for the model view matrix M O of the first viewpoint the virtual camera located on the perpendicular of said lens array toward the center position of the lens array, wherein model view matrix M C in a second viewpoint, wherein the virtual camera at the position of the virtual camera virtual camera position calculating means is calculated by facing the shooting direction is defined by the equation (10), said second viewpoint from the first viewpoint transformation matrix T C to are defined by the formula (11), orthogonal projection conversion matrix ortho is defined by equation (12), parallel movement distance of the lens array in the projection coordinate system L d ist is defined by equation (15), translation matrix T Z of the lens array in the projection coordinate system is defined by equation (16), the first to the third axial displacement of the projected coordinate system, Biaxial change amounts S X and S Y are defined by Expression (19), an oblique projection transformation matrix Oblique is defined by Expression (20), and the translation inverse matrix of the lens array in the projection coordinate system When T Z −1 is defined by Equation (21) and the projection matrix P is defined by Equation (22), the transformation matrix F at the position of the virtual camera defined by Equation (23) is It is characterized by obliquely projecting a three-dimensional shape model.

ここで、OpenGL(登録商標)などの3Dグラフィック言語では、仮想カメラの位置での変換行列Fが定義されていないことがある。この場合でも、立体像生成装置は、3Dグラフィック言語で定義されている正射影用変換行列ortho等から、仮想カメラの位置での変換行列Fを導き出すことができる。   Here, in 3D graphic languages such as OpenGL (registered trademark), the transformation matrix F at the position of the virtual camera may not be defined. Even in this case, the stereoscopic image generating apparatus can derive the transformation matrix F at the position of the virtual camera from the transformation matrix ortho for orthogonal projection defined in the 3D graphic language.

また、本願第3発明に係る立体像生成装置は、前記仮想撮影画像生成手段が生成した仮想撮影画像に対して、前記要素レンズの中心位置に対応する画素を結んだ線分の中点で囲われるフィルタ適用領域毎に低域通過フィルタ処理を施す第1の折返し雑音低減手段、をさらに備えることを特徴とする。   Further, the stereoscopic image generating apparatus according to the third invention of the present application surrounds the virtual captured image generated by the virtual captured image generating means with a midpoint of a line segment connecting pixels corresponding to the center position of the element lens. And a first aliasing noise reduction unit that performs low-pass filter processing for each filter application region.

ここで、立体表示装置の観察者は、レンズアレイを介して立体像を見る。これは、レンズアレイの要素レンズの間隔に応じて立体像をサンプリングするのと等価である。このため、レンズアレイでは、サンプリングに起因する折返し雑音(折返し歪)が発生してしまう。
そこで、立体像生成装置は、第1の折返し雑音低減手段によって、仮想撮影画像の要素レンズの中心に対応する画素をサンプル点とみなし、そのサンプル点を中心としたフィルタ適用領域毎に低域通過フィルタ処理を施す。これによって、立体像生成装置は、レンズアレイでのサンプリングに起因する折返し雑音を低減することができる。
Here, the observer of the stereoscopic display device sees the stereoscopic image through the lens array. This is equivalent to sampling a three-dimensional image according to the distance between the element lenses of the lens array. For this reason, in the lens array, aliasing noise (folding distortion) due to sampling occurs.
Therefore, the stereoscopic image generating apparatus regards the pixel corresponding to the center of the element lens of the virtual captured image as the sample point by the first aliasing noise reduction unit, and passes the low-pass for each filter application region centered on the sample point. Apply filtering. Thereby, the stereoscopic image generating apparatus can reduce aliasing noise caused by sampling in the lens array.

また、本願第4発明に係る立体像生成装置は、前記正規化画像画素サイズ算出手段が、前記定数として2を超える偶数が予め設定され、前記表示画像生成手段が、前記正規化画像に対して低域通過フィルタ処理を施す第2の折返し雑音低減手段をさらに備えることを特徴とする。   Further, in the stereoscopic image generating apparatus according to the fourth invention of the present application, the normalized image pixel size calculating means is preset with an even number exceeding 2 as the constant, and the display image generating means is adapted for the normalized image. It is further characterized by further comprising second aliasing noise reduction means for performing low-pass filter processing.

ここで、立体表示装置の観察者は、画像表示手段で再生される立体像を見る。これは、要素画像の間隔に応じて立体像をサンプリングするのと等価である。このため、画像表示手段では、サンプリングに起因する折返し雑音(折返し歪)が発生してしまう。
そこで、立体像生成装置は、画素サイズが画像表示手段の画素サイズの1/2以下、かつ、要素レンズの間隔に対して整数分の1となる正規化画像を用意する。そして、立体像生成装置は、正規化画像に対して、画像表示手段の画素サイズに応じた低域通過フィルタ処理を施す。これによって、立体像生成装置は、画像表示手段でのサンプリングに起因する折返し雑音を低減することができる。
Here, the observer of the stereoscopic display device sees the stereoscopic image reproduced by the image display means. This is equivalent to sampling a stereoscopic image according to the interval between element images. For this reason, aliasing noise (folding distortion) due to sampling occurs in the image display means.
Therefore, the stereoscopic image generating apparatus prepares a normalized image whose pixel size is equal to or smaller than ½ of the pixel size of the image display unit and is an integer of 1 with respect to the distance between the element lenses. Then, the stereoscopic image generating device performs low-pass filter processing on the normalized image according to the pixel size of the image display unit. As a result, the stereoscopic image generating device can reduce aliasing noise caused by sampling in the image display means.

なお、本願第1発明に係る立体像生成装置は、一般的なコンピュータを、パラメータ入力手段、正規化画像画素サイズ算出手段、正規化画像画素位置算出手段、仮想カメラ位置算出手段、仮想撮影画像生成手段、正規化画像生成手段および表示画像生成手段として機能させる立体像生成プログラムによって実現することもできる。   Note that the stereoscopic image generating apparatus according to the first invention of the present application uses a general computer, parameter input means, normalized image pixel size calculating means, normalized image pixel position calculating means, virtual camera position calculating means, virtual photographed image generating It can also be realized by a stereoscopic image generation program that functions as a means, a normalized image generation unit, and a display image generation unit.

本願発明は、以下のような優れた効果を奏する。
本願第1発明は、画素サイズが要素レンズの間隔に対して整数分の1となる正規化画像を用意する。そして、本願第1発明は、幾何歪が生じていない仮想撮影画像を斜投影によって生成し、この仮想撮影画像の画素の画素値を正規化画像の各画素に割り当てる。従って、本願第1発明は、要素レンズの間隔が要素画像の画素サイズの整数倍という条件を満たさない場合において、正射影のように幾何歪を補正する必要がなく、少ない計算コストで表示画像を生成することができる。
The present invention has the following excellent effects.
The first invention of the present application prepares a normalized image whose pixel size is 1 / integer with respect to the interval between the element lenses. In the first invention of this application, a virtual captured image in which no geometric distortion has occurred is generated by oblique projection, and pixel values of pixels of the virtual captured image are assigned to each pixel of the normalized image. Therefore, the first invention of the present application does not need to correct geometric distortion as in orthographic projection when the distance between the element lenses does not satisfy the condition that the element size is an integer multiple of the pixel size of the element image. Can be generated.

本願第2発明は、仮想カメラの位置での変換行列Fが定義されていない3Dグラフィック言語を利用できるので、立体像生成装置の汎用性を高くすることができる。
本願第3発明は、レンズアレイでのサンプリングに起因する折返し雑音を低減できるので、表示画像を高品質にすることができる。
本願第4発明は、画像表示手段でのサンプリングに起因する折返し雑音を低減できるので、表示画像を高品質にすることができる。
Since the 3D graphic language in which the transformation matrix F at the position of the virtual camera is not defined can be used in the second invention of the present application, the versatility of the stereoscopic image generating apparatus can be enhanced.
In the third invention of the present application, aliasing noise caused by sampling in the lens array can be reduced, so that the display image can be of high quality.
In the fourth invention of the present application, aliasing noise caused by sampling in the image display means can be reduced, so that the display image can be of high quality.

本発明における立体表示装置の概略を示す概略図である。It is the schematic which shows the outline of the three-dimensional display apparatus in this invention. 本発明の実施形態に係る立体像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image production | generation apparatus which concerns on embodiment of this invention. 本発明における立体表示装置のモデル化を示す概念図であり、要素画像と、画像表示パネルと、レンズアレイのピンホールとの位置関係を示す図である。It is a conceptual diagram which shows modeling of the three-dimensional display apparatus in this invention, and is a figure which shows the positional relationship with an element image, an image display panel, and the pinhole of a lens array. 本発明において、正規化画像と、レンズアレイのピンホールとの位置関係を示す図である。In this invention, it is a figure which shows the positional relationship of the normalized image and the pinhole of a lens array. 図2の仮想カメラ撮影手段の構成を示すブロック図である。It is a block diagram which shows the structure of the virtual camera imaging | photography means of FIG. 本発明において、仮想カメラによる撮影を説明する説明図であり、レンズアレイと、正規化画像と、3次元形状モデルとの位置関係を示す図である。In this invention, it is explanatory drawing explaining imaging | photography with a virtual camera, and is a figure which shows the positional relationship of a lens array, a normalized image, and a three-dimensional shape model. 本発明において、仮想カメラによる撮影を説明する説明図であり、レンズアレイ上のサンプル点と、正規化画像との位置関係を示す図である。In this invention, it is explanatory drawing explaining imaging | photography with a virtual camera, and is a figure which shows the positional relationship of the sample point on a lens array, and a normalized image. 本発明において、仮想カメラによる撮影を説明する説明図であり、正規化画像と、レンズアレイと、投影面との位置関係を示す図である。In this invention, it is explanatory drawing explaining imaging | photography with a virtual camera, and is a figure which shows the positional relationship of a normalized image, a lens array, and a projection surface. 本発明において、正射影と斜投影とを説明する図であり、(a)は正射影の図であり、(b)は斜投影の図である。In this invention, it is a figure explaining orthographic projection and oblique projection, (a) is a figure of orthographic projection, (b) is a figure of oblique projection. 本発明において、仮想カメラの視点移動を説明する図である。In this invention, it is a figure explaining the viewpoint movement of a virtual camera. 本発明において、投影面とレンズアレイとの正対化を説明する図である。In this invention, it is a figure explaining the confrontation of a projection surface and a lens array. 本発明において、投影座標系内でのレンズアレイの平行移動を説明する図であり、(a)は平行移動前の図であり、(b)は平行移動後の図である。In this invention, it is a figure explaining the parallel movement of the lens array in a projection coordinate system, (a) is a figure before a parallel movement, (b) is a figure after a parallel movement. 本発明において、3次元形状モデルの斜投影を説明する図である。In this invention, it is a figure explaining the oblique projection of a three-dimensional shape model. 図2の第1のフィルタによる低域通過フィルタ処理を説明する説明図である。It is explanatory drawing explaining the low-pass filter process by the 1st filter of FIG. 図2の第2のフィルタによる表示画像の生成を説明する説明図である。It is explanatory drawing explaining the production | generation of the display image by the 2nd filter of FIG. 図2の立体表示装置の全体動作を示すフローチャートである。3 is a flowchart illustrating an overall operation of the stereoscopic display device of FIG. 2. 図5の仮想カメラ撮影手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the virtual camera imaging | photography means of FIG. 本発明において、動的3次元形状モデルのインテグラル立体映像を生成する立体映像生成システムの構成を示す図である。In this invention, it is a figure which shows the structure of the three-dimensional video generation system which produces | generates the integral three-dimensional video of a dynamic three-dimensional shape model.

[立体表示装置の概略]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。
[Outline of stereoscopic display device]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

最初に、本発明の実施形態に係る立体像生成装置1(図2参照)の前提として、図1を参照しながら、本発明における立体表示装置2の概略について説明する。   First, as a premise of the stereoscopic image generating apparatus 1 (see FIG. 2) according to the embodiment of the present invention, an outline of the stereoscopic display apparatus 2 in the present invention will be described with reference to FIG.

立体表示装置2は、立体像生成装置1(図2参照)が生成した表示画像(複数の要素画像を縦横に配置した画像)をインテグラル方式によって表示するものであり、液晶ディスプレイ等の画像表示パネル(画像表示手段)21と、要素レンズLを2次元に配置したレンズアレイLとを備える。 The stereoscopic display device 2 displays a display image (an image in which a plurality of element images are arranged vertically and horizontally) generated by the stereoscopic image generation device 1 (see FIG. 2) by an integral method, and displays an image such as a liquid crystal display. comprising a panel (image display means) 21, and a lens array L a placing the element lenses L P two-dimensionally.

画像表示パネル21は、レンズアレイLの側に画像表示面21aを有しており、表示対象(3次元形状モデル)が発した光線が記録された要素画像を表示する。
レンズアレイLは、微小な凸レンズである要素レンズLが縦横に並んだ2次元アレイである。
The image display panel 21 has an image display surface 21a on the side of the lens array L A, displays an elemental image light displayed (three-dimensional shape model) is emitted is recorded.
Lens array L A is a micro convex lens element lenses L P is a two-dimensional array arranged in rows and columns.

まず、立体表示装置2は、画像表示パネル21の画像表示面21aに、立体像生成装置1が生成した表示対象の表示画像(以下、表示画像I)を表示する。図1に示すように、要素画像の各画素からの光線は、各画素に対応する要素レンズLにより方向付けがされる。従って、立体表示装置2は、表示対象が発した光線群を再現して、あたかも表示対象が存在するかのように立体像を形成する。つまり、観察者(不図示)は、レンズアレイLの要素レンズLを通して、それぞれの要素画像を観視することで、立体像を視認することができる。
このとき、立体表示装置2で表示するための表示映像が必要になる。そこで、本発明の実施形態に係る立体像生成装置1を用いて、この表示映像を生成する。
First, the stereoscopic display device 2 displays a display image (hereinafter referred to as display image I) generated by the stereoscopic image generation device 1 on the image display surface 21 a of the image display panel 21. As shown in FIG. 1, light from each pixel element image orientation is the element lenses L P corresponding to each pixel. Therefore, the stereoscopic display device 2 reproduces the light beam emitted from the display object, and forms a stereoscopic image as if the display object exists. That is, the observer (not shown), through element lenses L P of the lens array L A, each of the element images by viewing, it is possible to visually recognize a stereoscopic image.
At this time, a display image for displaying on the stereoscopic display device 2 is required. Therefore, the display image is generated by using the stereoscopic image generating apparatus 1 according to the embodiment of the present invention.

[立体像生成装置の構成]
以下、図2を参照し、本発明の実施形態に係る立体像生成装置1の構成について説明する。
図2に示すように、立体像生成装置1は、立体表示装置2に表示する表示対象としての3次元形状モデルを仮想カメラで撮影して、立体表示装置2の表示画像Iを生成するものであり、立体表示装置モデル化手段(パラメータ入力手段)11と、正規化画像設定手段(正規化画像画素サイズ算出手段)12と、フィルタ用パラメータ設定手段(フィルタ適用領域設定手段)13と、仮想カメラ撮影手段14と、第1のフィルタ(第1の折返し雑音低減手段)15と、正規化画像生成手段16と、表示画像生成手段17とを備える。
[Configuration of stereoscopic image generation apparatus]
Hereinafter, with reference to FIG. 2, the configuration of the stereoscopic image generating apparatus 1 according to the embodiment of the present invention will be described.
As shown in FIG. 2, the stereoscopic image generating device 1 shoots a three-dimensional shape model as a display target to be displayed on the stereoscopic display device 2 with a virtual camera, and generates a display image I of the stereoscopic display device 2. Yes, a stereoscopic display device modeling means (parameter input means) 11, a normalized image setting means (normalized image pixel size calculating means) 12, a filter parameter setting means (filter application area setting means) 13, and a virtual camera The imaging unit 14 includes a first filter (first aliasing noise reduction unit) 15, a normalized image generation unit 16, and a display image generation unit 17.

立体表示装置モデル化手段11は、立体表示装置2をモデル化するためのパラメータ(F,R,R,P)が入力されると共に、これらパラメータを正規化画像設定手段12に出力する。これらパラメータは、図3で示すように定義される。 The stereoscopic display device modeling means 11 receives parameters (F, R H , R V , P) for modeling the stereoscopic display device 2 and outputs these parameters to the normalized image setting means 12. These parameters are defined as shown in FIG.

F:要素レンズLの焦点距離(画像表示パネル21とレンズアレイLとの距離)
:レンズアレイLにおける要素レンズLの水平方向の間隔
:レンズアレイLにおける要素レンズLの垂直方向の間隔
P:画像表示パネル21の画素間隔
F: focal length of the element lenses L P (distance between the image display panel 21 and the lens array L A)
R H: the lens array L horizontal spacing element lenses L P in A R V: lens array L vertical spacing element lenses L P in A P: pixel spacing of the image display panel 21

本実施形態では、要素レンズLが一行毎にオフセットしており、要素レンズLの垂直方向の間隔Rが要素レンズLの水平方向の間隔Rの√3/2倍であるとして説明する。
また、要素レンズLの水平方向の間隔Rおよび要素レンズLの垂直方向の間隔Rが要素画像Gの画素間隔の整数倍でないこととして説明する。
また、立体表示装置2において、要素レンズLの中心位置をピンホールHとみなしている。つまり、要素レンズLの中心位置がピンホールHの位置となる。
As in this embodiment, the element lens L P are offset for each row, a √3 / 2 times the horizontal spacing R H of vertical spacing R V elements lens L P element lenses L P explain.
In addition, it is assumed that the horizontal interval RH of the element lens L P and the vertical interval R V of the element lens L P are not an integral multiple of the pixel interval of the element image G.
In the stereoscopic display device 2, it is regarded the center position of the element lenses L P pinhole H. That is, the center position of the element lenses L P is the position of the pinhole H.

ここで、要素レンズLの水平方向の間隔Rおよび要素レンズLの垂直方向の間隔Rが要素画像Gの画素間隔の整数倍でないため、仮想カメラ(斜投影カメラ)を用いて撮影しても、要素画像Gの画素位置で光線を直接取得することができない。そこで、図4に示すように、仮想カメラで撮影する過程(計算過程)において、要素画像Gの画素間隔を定義し、要素レンズLの水平方向の間隔Rおよび要素レンズLの垂直方向の間隔Rが要素画像Gの画素間隔の整数倍になるような画像面を用意する。以後、この画像面における画像を正規化画像(正規化要素画像)I’とする。 Since the interval R V vertical horizontal gap R H and element lenses L P element lenses L P is not an integer multiple of the pixel spacing element image G, taken using a virtual camera (isometric camera) Even in this case, it is not possible to directly acquire the light beam at the pixel position of the element image G. Therefore, as shown in FIG. 4, in the process of shooting a virtual camera (calculation process), to define the pixel spacing element image G, the vertical direction in the horizontal direction between R H and element lenses L P element lenses L P distance R V of preparing the image surface as an integral multiple of the pixel spacing element image G. Hereinafter, the image on this image plane is referred to as a normalized image (normalized element image) I ′.

また、物理的な位置を示す世界座標を定義する。この世界座標は、レンズアレイLの中央に位置する要素レンズLのレンズ中心(ピンホール)を原点として、レンズアレイLの横方向をX軸、縦方向をY軸およびレンズアレイ面の鉛直方向をZ軸とする。さらに、表示画像Iの画素座標、つまり、要素画像G全体の画像座標として(i,j)を定義する。この画像座標の原点は前記した世界座標の原点に最も近い画素であるとする。 It also defines world coordinates that indicate the physical location. The world coordinates, element lenses L P lens center which is located in the center of the lens array L A (pin holes) as the origin, X-axis lateral of the lens array L A, the longitudinal direction of the Y-axis and a lens array surface The vertical direction is the Z axis. Further, (i, j) is defined as pixel coordinates of the display image I, that is, image coordinates of the entire element image G. It is assumed that the origin of the image coordinates is the pixel closest to the origin of the world coordinates.

正規化画像設定手段12は、正規化画像I’において、下記の式(1)で表されるように、要素レンズLの水平方向の間隔Rおよび要素レンズLの垂直方向の間隔Rを要素レンズL間の画素数Mで除算することで、正規化画像I’の水平方向の画素サイズPおよび正規化画像I’の垂直方向の画素サイズPを算出する。 Normalized image setting unit 12, the normalized image I ', as represented by the following formula (1), the vertical gap horizontal gap R H and element lenses L P element lenses L P R by dividing the V pixel number M between elements lens L P, to calculate the vertical pixel size P V of the 'horizontal pixel size P H and the normalized image I' of normalized image I.

Figure 2012084105
Figure 2012084105

そして、正規化画像設定手段12は、これらパラメータ(F,R,R,P,P,P)をフィルタ用パラメータ設定手段13に出力する。このとき、正規化画像設定手段12は、下記の式(2)で表されるように、要素レンズLの水平方向の間隔Rを画像表示パネル21の画素間隔Pで除算して定数Kを乗じた値に基づいて、要素レンズL間の画素数Mを算出する。 Then, the normalized image setting unit 12 outputs these parameters (F, R H , R V , P, P H , P V ) to the filter parameter setting unit 13. In this case, the normalized image setting means 12, as represented by the following formula (2), the constant by dividing the horizontal gap R H of the element lenses L P in the pixel spacing P of the image display panel 21 K based on the value obtained by multiplying the calculated number of pixels M between the element lenses L P.

Figure 2012084105
Figure 2012084105

ここで、式(2)において、“<a>”は、aを四捨五入して整数化することを意味する。つまり、“<R/P>”は、図3での要素レンズL間の画素数となり、後記する第2のフィルタ17aにおける低域通過フィルタ処理のため、その値をK倍する。ここで、定数Kは任意の値に設定できる。さらに、定数Kが2を超えた偶数で設定されると、正規化画像I’の画素サイズは、画像表示パネル21の画素サイズの1/2以下、かつ、要素レンズLの水平方向の間隔Rおよび要素レンズLの垂直方向の間隔Rに対して整数分の1となる。これによって、後記する第2のフィルタ17aによる低域通過フィルタ処理を容易に適用することができる。 Here, in formula (2), “<a>” means rounding off a to an integer. That, "<R H / P> " becomes the number of pixels between the element lenses L P in FIG. 3, for low-pass filtering in a second filter 17a to be described later, to K times the value. Here, the constant K can be set to an arbitrary value. Further, when it is set in the even that the constant K exceeds 2, the pixel size of the normalized image I 'is less than half the pixel size of the image display panel 21, and the horizontal spacing of the element lenses L P the integral submultiple against R H and element lenses L P of vertical spacing R V. Thereby, the low-pass filter processing by the second filter 17a described later can be easily applied.

フィルタ用パラメータ設定手段13は、正規化画像設定手段12からパラメータ(F,R,R,P,P,P)が入力されると共に、予め設定された定数Nが入力される。この定数Nは、レンズアレイLのピンホール数を一定倍してサンプリングすることを示す値である。そして、フィルタ用パラメータ設定手段13は、後記するローカル座標(u,v)の原点(0,0)として、要素レンズLの中心位置に対応する画素を結んだ線分の中点で囲われるフィルタ適用領域A(図14参照)を、仮想撮影画像上に設定する。 The filter parameter setting unit 13 receives parameters (F, R H , R V , P, P H , P V ) from the normalized image setting unit 12 and a preset constant N. The constant N is a value that indicates that sampling by a constant multiplying the number of pins holes in the lens array L A. The filter parameter setting means 13, as the origin (0,0) of the later-described local coordinates (u, v), surrounded at the midpoint of the line segment connecting the pixel corresponding to the center position of the element lenses L P A filter application area A R (see FIG. 14) is set on the virtual photographed image.

その後、フィルタ用パラメータ設定手段13は、パラメータ(F,R,R,P,P,P)を仮想カメラ撮影手段14に出力すると共に、設定したフィルタ適用領域Aを第1のフィルタ15に出力する。
なお、フィルタ適用領域Aは、後記する第1のフィルタ15が低域フィルタ処理を行う範囲を示すものであり、その詳細は後記する。
Thereafter, the filter parameter setting means 13 outputs the parameters (F, R H , R V , P, P H , P V ) to the virtual camera photographing means 14 and sets the set filter application area AR to the first. Output to the filter 15.
The filter application area A R is for indicating a range in which the first filter 15 to be described later to perform low pass filtering, the details will be described later.

仮想カメラ撮影手段14は、仮想カメラVc(図6参照)で表示対象を仮想的に撮影することで、仮想撮影画像を生成するものである。このため、図5に示すように、仮想カメラ撮影手段14は、正規化画像画素位置算出手段141と、ピンホール位置算出手段142と、仮想カメラ位置算出手段143と、仮想撮影画像生成手段144とを備える。   The virtual camera photographing means 14 generates a virtual photographed image by virtually photographing a display target with the virtual camera Vc (see FIG. 6). For this reason, as shown in FIG. 5, the virtual camera photographing means 14 includes a normalized image pixel position calculating means 141, a pinhole position calculating means 142, a virtual camera position calculating means 143, and a virtual photographed image generating means 144. Is provided.

正規化画像画素位置算出手段141は、フィルタ用パラメータ設定手段13からパラメータ(F,R,R,P,P,P)が入力される。ここで、前記した式(1)を用いると、正規化画像I’の世界座標を下記の式(3)で表すことができる。 The normalized image pixel position calculation unit 141 receives parameters (F, R H , R V , P, P H , P V ) from the filter parameter setting unit 13. Here, using the above-described equation (1), the world coordinates of the normalized image I ′ can be expressed by the following equation (3).

Figure 2012084105
Figure 2012084105

従って、正規化画像画素位置算出手段141は、下記の式(4)で表されるように、表示画像Iの画素座標(i,j)に画像表示パネル21の画素間隔Pを乗算して、正規化画像I’の画素サイズP,Pを除算することで、正規化画像I’の画素座標を算出する。つまり、表示画像Iの画素座標は、下記の式(4)を用いて、正規化画像I’の画素位置に変換できる。
なお、式(4)において、(i’,j’)が正規化画像I’の画素座標を示す。
Therefore, the normalized image pixel position calculation unit 141 multiplies the pixel coordinate (i, j) of the display image I by the pixel interval P of the image display panel 21 as represented by the following equation (4), The pixel coordinates of the normalized image I ′ are calculated by dividing the pixel sizes P H and P V of the normalized image I ′. That is, the pixel coordinates of the display image I can be converted into the pixel position of the normalized image I ′ using the following equation (4).
In equation (4), (i ′, j ′) represents the pixel coordinates of the normalized image I ′.

Figure 2012084105
Figure 2012084105

そして、正規化画像画素位置算出手段141は、パラメータ(F,R,R,P,P,P)と、算出した正規化画像I’の画素座標とをピンホール位置算出手段142に出力する。 Then, the normalized image pixel position calculating unit 141 uses the parameters (F, R H , R V , P, P H , P V ) and the calculated pixel coordinates of the normalized image I ′ as the pinhole position calculating unit 142. Output to.

ピンホール位置算出手段142は、正規化画像画素位置算出手段141からパラメータ(F,R,R,P,P,P)と、算出した正規化画像I’の画素座標とが入力される。そして、ピンホール位置算出手段142は、下記の式(5)を用いて、水平方向にn番目で垂直方向にm番目のピンホールHの位置を算出する。
なお、式(5)において、“%”は剰余演算を示す記号であり、H(n,m)はピンホールHの位置である。
The pinhole position calculating unit 142 receives parameters (F, R H , R V , P, P H , P V ) and the calculated pixel coordinates of the normalized image I ′ from the normalized image pixel position calculating unit 141. Is done. Then, the pinhole position calculating means 142 calculates the position of the nth pinhole H in the horizontal direction and the mth pinhole H in the vertical direction using the following equation (5).
In Expression (5), “%” is a symbol indicating a remainder operation, and H (n, m) is the position of the pinhole H.

Figure 2012084105
Figure 2012084105

そして、ピンホール位置算出手段142は、正規化画像I’の画素座標と、ピンホールHの位置と、パラメータ(F,R,R,P,P,P)とを仮想カメラ位置算出手段143に出力する。 Then, the pinhole position calculation means 142 uses the pixel coordinates of the normalized image I ′, the position of the pinhole H, and the parameters (F, R H , R V , P, P H , P V ) as the virtual camera position. It outputs to the calculation means 143.

仮想カメラ位置算出手段143は、ピンホール位置算出手段142から正規化画像I’の画素座標と、ピンホールHの位置と、パラメータ(F,R,R,P,P,P)とが入力される。そして、仮想カメラ位置算出手段143は、後記する単位ベクトルを生成してから、仮想カメラVcの位置を算出する。
ここで、ピンホール位置H(n,m)に対応する要素画像Gの画素をI’(u,v)として表す。また、この(u,v)は、H(n,m)を原点とする正規化画像I’上のローカル画像座標とする。
The virtual camera position calculation unit 143 receives the pixel coordinates of the normalized image I ′, the position of the pinhole H, and the parameters (F, R H , R V , P, P H , P V ) from the pinhole position calculation unit 142. Are entered. Then, the virtual camera position calculation unit 143 generates a unit vector to be described later, and then calculates the position of the virtual camera Vc.
Here, the pixel of the element image G corresponding to the pinhole position H (n, m) is represented as I ′ n , m (u, v). In addition, (u, v) is the local image coordinates on the normalized image I ′ with H (n, m) as the origin.

まず、仮想カメラ位置算出手段143は、図6に示すように、正規化画像I’においてピンホール位置をH(0,0)とし、このH(0,0)に対応する要素画像Gの画素I’(u,v)の画素毎に、下記の式(6)を用いて、当該画素I’(u,v)からピンホールH(0,0)の位置までの単位ベクトル(i,i,i)を生成する。
ここで、画素I’(u,v)=(X,Y,−F)=(uP,vP,−F)となる。また、ピンホール位置H(0,0)=(X,Y,0)=(0,0,0)となる。
なお、この単位ベクトルは、その延長線上に、画素I’(u,v)が視認される方向を示している。
First, as shown in FIG. 6, the virtual camera position calculation unit 143 sets the pinhole position to H (0, 0) in the normalized image I ′, and the pixel of the element image G corresponding to this H (0, 0). I '0, 0 (u, v) for each pixel in the, using equation (6) below, the pixel I' 0, 0 (u, v) from the pinhole H to the position of (0, 0) A unit vector (i x , i y , i z ) is generated.
Here, the pixels I ′ 0 , 0 (u, v) = (X P , Y P , −F) = (uP H , vP V , −F). Further, the pinhole position H (0, 0) = (X R , Y R , 0) = (0, 0, 0).
This unit vector indicates the direction in which the pixel I ′ 0 , 0 (u, v) is visually recognized on the extension line.

Figure 2012084105
Figure 2012084105

次に、仮想カメラ位置算出手段143は、生成した単位ベクトルと、距離Length(図8参照)とに基づいて、仮想カメラVcの位置を算出する。具体的には、仮想カメラ位置算出手段143は、下記の式(7)で表されるように、距離Lengthと正規化画像I’の画素サイズ(P,P)とを乗算して要素レンズの焦点距離Fで除算した値に基づいて仮想カメラVcの位置を算出する。 Next, the virtual camera position calculation unit 143 calculates the position of the virtual camera Vc based on the generated unit vector and the distance Length (see FIG. 8). Specifically, the virtual camera position calculation unit 143 multiplies the distance Length by the pixel size (P H , P V ) of the normalized image I ′ as represented by the following formula (7). Based on the value divided by the focal length F of the lens, the position of the virtual camera Vc is calculated.

Figure 2012084105
Figure 2012084105

なお、距離Lengthは、レンズアレイLの原点から仮想カメラVcまでの距離である(例えば、2メートル)。
また、仮想カメラVcは、表示対象を撮影する仮想的な撮影カメラであり、観察者Aが立体表示装置2を観視する際の視距離を表すことになる。このとき、仮想カメラVcから立体表示装置2までの距離が距離Lengthと等しいこととする。さらに、仮想カメラVcは、レンズアレイLの原点から、表示対象である3次元形状モデルよりも離れているものとする。
The distance Length is the distance from the origin lens array L A to the virtual camera Vc (e.g., 2 meters).
The virtual camera Vc is a virtual photographing camera that photographs a display target, and represents a viewing distance when the observer A views the stereoscopic display device 2. At this time, the distance from the virtual camera Vc to the stereoscopic display device 2 is assumed to be equal to the distance Length. Further, the virtual camera Vc from the origin lens array L A, assumed that apart than 3D geometric model is displayed.

そして、仮想カメラ位置算出手段143は、生成した単位ベクトルの逆方向r(図6参照)を仮想カメラVcの撮影方向として算出する。つまり、この仮想カメラVcの撮影方向は、式(7)で算出したカメラ位置からレンズアレイLの原点(中心位置)までの方向となる。その後、仮想カメラ位置算出手段143は、算出した仮想カメラVcの位置を仮想撮影画像生成手段144に出力する。 Then, the virtual camera position calculating unit 143 calculates the reverse direction r z (see FIG. 6) of the generated unit vector as the shooting direction of the virtual camera Vc. That is, the imaging direction of the virtual camera Vc is a direction from the camera position calculated by the formula (7) to the origin (center position) of the lens array L A. Thereafter, the virtual camera position calculation unit 143 outputs the calculated position of the virtual camera Vc to the virtual captured image generation unit 144.

仮想撮影画像生成手段144は、仮想カメラ位置算出手段143から仮想カメラVcの位置が入力されると共に、この仮想カメラVcの位置での変換行列F(後記する式(23)参照)によって、表示対象を投影面に斜投影することで、表示対象を仮想カメラVcで撮影した仮想撮影画像を生成する。   The virtual photographed image generating means 144 receives the position of the virtual camera Vc from the virtual camera position calculating means 143, and displays a display target by a transformation matrix F at the position of the virtual camera Vc (see formula (23) described later). Is obliquely projected onto the projection plane, thereby generating a virtual photographed image obtained by photographing the display target with the virtual camera Vc.

<仮想カメラによる撮影>
以下、図6〜図9を参照し、仮想カメラVcによる撮影を詳細に説明する(適宜図5参照)。
なお、図6では、説明を簡易にするために、3次元形状モデル(表示対象)Objの一部表面のみを図示した。
また、図7および図8では、“●”と“△”とがサンプル点を示しており、“●”はピンホールHでのサンプル点であり、“△”は“●”以外で増やしたサンプル点である。また、図7において、“■”は、それぞれの要素画像Gの中で、ピンホールHに対して同じ相対位置となる計算対象の画素である。つまり、仮想撮影画像生成手段144は、各要素画像Gの画素位置を、ピンホールHを原点とするローカル座標(u,v)によって表すことができる。
また、図7および図8では、仮想カメラVcの画素数は、レンズアレイLの“●”および“△”をあわせたサンプル点と同数としている。また、図8では、光線のそれぞれを矢印で図示している。
<Shooting with a virtual camera>
Hereinafter, with reference to FIGS. 6 to 9, photographing by the virtual camera Vc will be described in detail (see FIG. 5 as appropriate).
In FIG. 6, only a part of the surface of the three-dimensional shape model (display target) Obj is illustrated for the sake of simplicity.
In FIGS. 7 and 8, “●” and “△” indicate sample points, “●” is a sample point at the pinhole H, and “Δ” is increased except for “●”. This is a sample point. In FIG. 7, “■” is a pixel to be calculated in the same relative position with respect to the pinhole H in each element image G. That is, the virtual captured image generation unit 144 can represent the pixel position of each element image G by local coordinates (u, v) with the pinhole H as the origin.
Further, in FIGS. 7 and 8, the number of pixels the virtual camera Vc is the lens array L A "●" are and "△" the sample points and the same number of combined. Further, in FIG. 8, each of the light rays is indicated by an arrow.

具体的には、この仮想撮影画像生成手段144は、図6に示すように、単位ベクトルの逆方向rに存在するピンホールH(0,0)を中心に、レンズアレイL全体のピンホールHを含んだ画角で、仮想配置された立体表示装置2を仮想的に撮影する。すなわち、この仮想撮影画像生成手段144は、単位ベクトルの逆方向rに存在するピンホールH(0,0)の位置を仮想撮影画像の中心として、単位ベクトルの逆方向rと平行で、かつ、レンズアレイLの各ピンホールHを通過する直線上に存在する3次元形状モデルObjの表面の色を仮想カメラVcの投影面に斜投影することで、仮想撮影画像を生成する。 Specifically, the virtual photographic image generating unit 144, as shown in FIG. 6, in the opposite direction r z around the pinhole H (0,0) present on the unit vectors, the lens array L A whole pin The stereoscopically arranged stereoscopic display device 2 is virtually photographed at an angle of view including the hole H. That is, the virtual captured image generation unit 144 uses the position of the pinhole H (0, 0) existing in the reverse direction r z of the unit vector as the center of the virtual captured image and is parallel to the reverse direction r z of the unit vector. and, the color of the three-dimensional shape model Obj surfaces that exist on a straight line passing through each pinhole H of the lens array L a on the projection plane of the virtual camera Vc by isometric generates a virtual captured image.

このとき、仮想撮影画像生成手段144は、図7および図8に示すように、仮想カメラVcによる撮影において、レンズアレイLのピンホールを通過する光線を一括してサンプリングする。ここでは、仮想撮影画像生成手段144は、後記する第1のフィルタを適用するために、レンズアレイLのピンホールHの数をN倍した数の光線をサンプリングする(例えば、N=4)。そして、仮想撮影画像生成手段144は、各要素画像Gのローカル座標(u,v)に位置する画素に対応する光線を取得する。このように、仮想撮影画像では、要素レンズLの間隔が要素画像Gの画素サイズの整数倍を満たすことになるので、各要素レンズLから出射される光線の方向が有限になり、同一方向の光線を集めることが可能となる。すなわち、仮想撮影画像生成手段144は、出射される光線群を有限枚の仮想撮影画像で表すことができる。 At this time, virtual-photographed-image generating unit 144, as shown in FIGS. 7 and 8, in imaging by a virtual camera Vc, which collectively sample the light passing through the pinhole lens array L A. Here, the virtual photographic image generating means 144, in order to apply the first filter to be described later, samples the number of rays that the number of pinholes H N times the lens array L A (e.g., N = 4) . Then, the virtual captured image generation unit 144 acquires a light beam corresponding to the pixel located at the local coordinates (u, v) of each element image G. Thus, in the virtual photographic image, the spacing of the element lenses L P is to meet the integral multiple of the pixel size of the elemental image G, the direction of the light beam emitted from each element lens L P is finite, the same It becomes possible to collect light rays in the direction. In other words, the virtual photographed image generating unit 144 can represent the emitted light group by a finite number of virtual photographed images.

以上のように、仮想撮影画像生成手段144は、斜投影を行うので、レンズアレイLと投影面Pとを平行に配置でき(図8参照)、画素が縦横に整列した仮想撮影画像を生成できる(図14参照)。これによって、後記する第1のフィルタ15では、仮想撮影画像の幾何歪を補正する必要がなく、計算コストを少なくできる。 As described above, the virtual-photographed-image generating unit 144, since the oblique projection, lens array L A and can parallel to the projection plane P P (see FIG. 8), a virtual captured image pixels are aligned in rows and columns Can be generated (see FIG. 14). Thereby, the first filter 15 described later does not need to correct the geometric distortion of the virtual photographed image, and the calculation cost can be reduced.

以下、仮想撮影画像生成手段144が、3Dグラフィック言語としてOpenGL(登録商標)を用いた場合を例に、斜投影を行う手法を具体的に説明する。前記したように、OpenGL(登録商標)では、仮想カメラの位置での変換行列が用意されていない。そこで、本実施形態では、OpenGL(登録商標)で定義されている正射影用変換行列Ortho等から、仮想カメラの位置での変換行列を導き出す。   Hereinafter, a method for performing oblique projection will be described in detail by taking as an example the case where the virtual photographed image generating unit 144 uses OpenGL (registered trademark) as a 3D graphic language. As described above, in OpenGL (registered trademark), a conversion matrix at the position of the virtual camera is not prepared. Therefore, in the present embodiment, the transformation matrix at the position of the virtual camera is derived from the orthogonal projection transformation matrix Ortho etc. defined in OpenGL (registered trademark).

<<正射影・斜投影の説明>>。
図9を参照して、正射影および斜投影を比較して説明する。ここで、X軸(第1軸)−Y軸(第2軸)−Z軸(第3軸)からなる座標系を投影座標系とする。このZ軸は、レンズアレイLの中心位置を通ることとする。
また、投影面Pは、X軸−Y軸面上に位置することとする。また、仮想カメラVcは、Z軸方向を向くこととする。さらに、3次元形状モデルObj1,2は、仮想カメラVcの視野範囲V内に位置することとする。
<< Explanation of orthographic / oblique projection >>
The orthographic projection and the oblique projection will be compared and described with reference to FIG. Here, a coordinate system composed of the X axis (first axis) -Y axis (second axis) -Z axis (third axis) is defined as a projected coordinate system. The Z-axis, and passing through the center position of the lens array L A.
The projection plane P P is to be positioned on the X-axis -Y-axis plane. The virtual camera Vc is directed in the Z-axis direction. Furthermore, 3-dimensional shape model Obj1,2 is to be positioned within the field of view V R of the virtual camera Vc.

図9(a)に示すように、3次元形状モデルObj1,2は、仮想カメラVcの撮影方向(視線方向)に沿うように、投影面Pに対して垂直に投影(正射影)される。このとき、視野範囲V外にある3次元形状モデル(不図示)は、クリッピング(画像の一部を切り取り)されるため、投影面Pに正射影されない。 As shown in FIG. 9 (a), 3-dimensional shape model Obj1,2 is along the shooting direction of the virtual camera Vc (viewing direction) is projected (orthogonal projection) perpendicular to the projection plane P P . In this case, 3-dimensional shape model is outside field of view V R (not shown) to be clipped (cut out part of the image), is not orthogonal projection on the projection plane P P.

また、図9(b)に示すように、仮想カメラVcの撮影方向が投影面Pに対して傾く。このため、3次元形状モデルObj1,2は、投影面Pに対して斜め方向で投影される。つまり、図9(a)の正射影は、投影面Pに対して傾きがない斜投影として扱うことができる。 Further, as shown in FIG. 9 (b), the shooting direction of the virtual camera Vc is tilted with respect to the projection plane P P. Thus, three-dimensional shape model Obj1,2 is projected in an oblique direction with respect to the projection plane P P. That is, the orthogonal projection of Fig. 9 (a), can be treated as oblique projections not tilted with respect to the projection plane P P.

<<仮想カメラの視点移動>>
図10を参照して、仮想カメラVcの視点移動について説明する。
ここで、レンズアレイLおよび正規化画像I’は、X軸(図9参照)−Y軸面と平行に配置されることとする。また、各視点は、X軸−Y軸面上に位置することとする。また、仮想カメラVcは、各視点に関わりなく、常に、レンズアレイLの中心位置である注視点Regを向くこととする。
<< Virtual camera viewpoint movement >>
With reference to FIG. 10, the viewpoint movement of the virtual camera Vc will be described.
The lens array L A and the normalized image I ', it is assumed that arranged parallel to the X-axis (see FIG. 9) -Y-axis plane. Each viewpoint is positioned on the X-axis-Y-axis plane. Further, the virtual camera Vc, regardless of each viewpoint, always, and it faces the gaze point Reg is the center position of the lens array L A.

視点O(第1視点)は、仮想カメラVcが、レンズアレイLの中心位置を通過する垂線上から注視点Regを向いたときの視点である。また、視点C(第2視点)は、仮想カメラVcが、式(7)で算出したカメラ位置から図6の撮影方向(逆方向r)を向いたときの視点である。なお、図10では、仮想カメラVcを表す円の中に視点を示す文字(“O”または“C”)を図示した。また、図10では、視点Oにおける仮想カメラVcおよび視野範囲Vを破線で図示すると共に、視点Cにおける仮想カメラVcおよび視野範囲Vを実線で図示した。 Viewpoint O (first viewpoint), the virtual camera Vc is a perspective when facing gazing point Reg from the vertical line passing through the center position of the lens array L A. The viewpoint C (second viewpoint) is a viewpoint when the virtual camera Vc faces the shooting direction (reverse direction r z ) in FIG. 6 from the camera position calculated by Expression (7). In FIG. 10, a character (“O” or “C”) indicating a viewpoint is illustrated in a circle representing the virtual camera Vc. Further, in FIG. 10, the illustrated virtual camera Vc and field of view V R at the viewpoint O by a broken line, illustrating the virtual camera Vc and field of view V R at the viewpoint C by a solid line.

3次元形状モデルObj1,2は、仮想カメラVcが視点Oから視点Cに移動した場合、図10のように正射影される。ここで、視点Oを基準にすると、視点Cでの変換行列Fは、下記の式(8)で表すことができる。   When the virtual camera Vc moves from the viewpoint O to the viewpoint C, the three-dimensional shape models Obj1 and Obj1 and 2 are orthogonally projected as shown in FIG. Here, on the basis of the viewpoint O, the transformation matrix F at the viewpoint C can be expressed by the following equation (8).

Figure 2012084105
Figure 2012084105

なお、Pは、プロジェクション行列であり、カメラ座標系を投影座標系に変換すると共に、視野範囲Vを正規化するものである。ここで、プロジェクション行列Pは、例えば、4×4の行列となる。 Incidentally, P is a projection matrix, converts the camera coordinate system in the projection coordinate system, is to normalize the field of view V R. Here, the projection matrix P is, for example, a 4 × 4 matrix.

は、視点Oでのモデルビュー行列であり、世界座標系を視点Oが原点となるカメラ座標系に変換するものである。ここで、モデルビュー行列Mは、下記の式(9)のように、4×4の行列で表され、その各要素o11〜o34が回転と平行移動とを表す。 M O is a model view matrix at the viewpoint O, and converts the world coordinate system into a camera coordinate system whose viewpoint O is the origin. Here, the model view matrix M O is represented by a 4 × 4 matrix as in the following Expression (9), and each element o 11 to o 34 represents rotation and translation.

Figure 2012084105
Figure 2012084105

は、視点Cでのモデルビュー行列であり、世界座標系を視点Cが原点となるカメラ座標系に変換するものである。ここで、モデルビュー行列Mは、下記の式(10)のように、4×4の行列で表され、その各要素c11〜c34が回転と平行移動とを表す。 M C is a model view matrix of the perspective C, it is to convert the world coordinate system to the camera coordinate system viewpoint C is the origin. Here, the model view matrix M C, as in equation (10) below, is expressed by a matrix of 4 × 4, each element c 11 to c 34 represents a parallel movement and rotation.

Figure 2012084105
Figure 2012084105

は、視点Oから視点Cへの変換行列であり、下記の式(11)で表される。 T C is the transformation matrix from the viewpoint O to viewpoint C, represented by the following formula (11).

Figure 2012084105
Figure 2012084105

orthoは、正射影によるプロジェクション行列(正射影用変換行列)であり、下記の式(12)のように、4×4の行列で表される。ここで、本実施形態では、1個の行列で回転と平行移動とを表すために、各座標系を3次元から4次元に拡張にしている。このため、例えば、式(9)〜式(12)のように、3次元ベクトルに要素を1個追加して、4次元として扱っている。   ortho is a projection matrix (transformation matrix for orthographic projection) by orthographic projection, and is represented by a 4 × 4 matrix as in the following equation (12). Here, in this embodiment, in order to represent rotation and translation with one matrix, each coordinate system is extended from three dimensions to four dimensions. For this reason, for example, as in Expressions (9) to (12), one element is added to the three-dimensional vector, and it is handled as four-dimensional.

Figure 2012084105
Figure 2012084105

なお、lは視野範囲Vの左端位置であり、rは視野範囲Vの右端位置である。また、tは視野範囲Vの上端位置であり、bは視野範囲Vの下端位置である。さらに、fは視野範囲Vの奥端位置であり、nは視野範囲Vの手前端位置である。 Incidentally, l is the leftmost position of the field of view V R, r is the rightmost position of the field of view V R. Further, t is the upper end position of the field of view V R, b is the lower end position of the field of view V R. Further, f is the back end position of the field of view V R, n is the front end position of the field of view V R.

<<投影面とレンズアレイとの正対化>>
図11を参照して、投影面PとレンズアレイLとの正対化について説明する。
仮想カメラVcを視点Oから視点Cに移動させた場合(図10参照)、投影面PはレンズアレイLと平行にならなくなる。そこで、図11に示すように、下記の式(13)および式(14)に表すように、正射影用変換行列orthoに逆行列T −1を乗じることで、投影面PとレンズアレイLとを平行に戻す。
なお、図11では、視点Oにおける仮想カメラVcおよび視野範囲Vを実線で図示すると共に、視点Cにおける仮想カメラVcおよび視野範囲Vを破線で図示した。
<< Direction of projection plane and lens array >>
Referring to FIG. 11, a description will be given positive pairs of the projection plane P P and the lens array L A.
When moving the virtual camera Vc from the viewpoint O to the viewpoint C (see FIG. 10), the projection plane P P is not necessarily parallel to a lens array L A. Therefore, as shown in FIG. 11, as represented in the following equation (13) and (14), by multiplying an inverse matrix T C -1 in orthogonal projection conversion matrix ortho, projection plane P P and the lens array Return LA to parallel.
In FIG. 11, the illustrated virtual camera Vc and field of view V R at the viewpoint O by solid lines, illustrating the virtual camera Vc and field of view V R at the viewpoint C by dashed lines.

Figure 2012084105
Figure 2012084105

Figure 2012084105
Figure 2012084105

ここで、モデルビュー行列M,Mは、3次元オブジェクトObjの位置や姿勢、ポリゴンの法線を定義している。このため、モデルビュー行列M,Mを変えてしまうと、3次元オブジェクトObjのモデルシェーディングを行う時、3次元オブジェクトObjの頂点と視点との位置関係からシェーディング色を決定する「SPECLAR Color」に悪影響を及ぼしてしまう。言い換えるなら、OpenGL(登録商標)等の3Dグラフィック言語では、3次元オブジェクトObjにおける光の反射が、法線に基づいて計算される。このとき、モデルビュー行列M,Mを変えるとこの法線も変化してしまい、3次元オブジェクトObjにおける光の反射が、正しい方向からずれてしまう。 Here, the model view matrices M O and M C define the position and orientation of the three-dimensional object Obj and the polygon normal. Therefore, the model view matrix M O, when alter the M C, when performing a model shading 3-dimensional object Obj, to determine the shading color from the positional relationship between the apex and the viewpoint of the three-dimensional object Obj "SPECLAR Color" It will adversely affect. In other words, in a 3D graphic language such as OpenGL (registered trademark), the reflection of light in the three-dimensional object Obj is calculated based on the normal. In this case, the model view matrix M O, changing the M C the normal even end up with different, reflection of light in the three-dimensional object Obj, it deviates from the correct direction.

このため、本発明では、モデルビュー行列M,Mを変えずに、前記した式(14)のように、プロジェクション行列Pを変えることにした。このとき、仮想カメラVcが、視点Cに位置したままであり、その撮影方向も変わらない。これによって、仮想撮影画像生成手段144は、正しい方向から光の反射がずれるという悪影響を受けることなく、投影面PとレンズアレイLとを正対化できる。 Therefore, in the present invention, the model view matrix M O, without changing the M C, as in the above-mentioned formula (14), and in changing the projection matrix P. At this time, the virtual camera Vc remains at the viewpoint C, and the shooting direction is not changed. Thus, the virtual-photographed-image generating unit 144, without receiving an adverse effect reflected from the correct direction of the light is shifted, it directly facing the projection plane P P and the lens array L A.

<<投影座標系内でのレンズアレイの平行移動>>
図12を参照して、レンズアレイLの平行移動について説明する。
なお、図12(a)では、Z軸方向で視野範囲Vの奥側の面をfar面と図示し、Z軸方向で視野範囲Vの手前側の面をnear面と図示した。
また、仮想カメラVcの位置(視点C)を原点としたZ方向の距離で表すと、fがnear面までの距離となり、nがfar面までの距離となる。
<< Translation of lens array in projected coordinate system >>
Referring to FIG. 12, described translation of the lens array L A.
In FIG. 12 (a), shown with far surface far side of the plane of the field of view V R in the Z-axis direction, shown as the near surface front side of the field of view V R in the Z-axis direction.
Further, when expressed in the distance in the Z direction with the position of the virtual camera Vc (viewpoint C) as the origin, f is a distance to the near plane and n is a distance to the far plane.

投影座標系は、式(14)のプロジェクション行列Pおよび式(10)のモデルビュー行列Mによって、図12(a)のような状態となる。この投影座標系に斜投影を適用するため、レンズアレイLは、投影面Pに一致するように、Z軸方向に平行移動させる。正射影用変換行列Orthoにおいて、視野範囲VのZ軸方向の距離は、near面からfar面までとなる。ここで、OpenGL(登録商標)では、near面からfar面までの距離は、最小値−1から最大値1の範囲で正規化(規格化)される(つまり、Z=[−1,1])。従って、投影座標系内でのレンズアレイLの平行移動距離Ldistは、下記の式(15)で求めることができる。 It projected coordinate system, by the model view matrix M C of formula (14) projection matrix P and the formula (10), the state of FIG. 12 (a). To apply isometric to the projected coordinate system, the lens array L A is to match the projection plane P P, it is moved parallel to the Z-axis direction. In orthogonal projection conversion matrix Ortho, Z-axis direction of the distance of the field-of-view range V R becomes a near surface to the far surface. Here, in OpenGL (registered trademark), the distance from the near plane to the far plane is normalized (normalized) in the range from the minimum value −1 to the maximum value 1 (that is, Z = [− 1, 1]). ). Therefore, parallel movement distance L dist lens array L A in the projection coordinate system can be determined by the following equation (15).

Figure 2012084105
Figure 2012084105

OpenGL(登録商標)では、Z軸方向において、視野範囲Vの中央(f+n)/2に投影面Pが位置する。このため、式(15)では、(Length−(f+n)/2)の項がレンズアレイLの平行移動距離を表し、2/(f−n)の項が正規化係数(規格化係数)を表す。従って、投影座標系内でのレンズアレイLの平行移動行列Tは、下記の式(16)で表される。 In OpenGL (R), in the Z-axis direction, the projection plane P P is positioned at the center of the field of view V R (f + n) / 2. Thus, in Formula (15), (Length- (f + n) / 2) term represents the translation distance of the lens array L A, 2 / term normalization factor (f-n) (normalized coefficient) Represents. Thus, translation matrix T Z of the lens array L A in the projection coordinate system is expressed by the following equation (16).

Figure 2012084105
Figure 2012084105

投影座標系は、レンズアレイLを平行移動させると、図12(b)のような状態となる。このとき、プロジェクション行列は、下記の式(17)で表される。 It projected coordinate system, when translating the lens array L A, the state of FIG. 12 (b). At this time, the projection matrix is expressed by the following equation (17).

Figure 2012084105
Figure 2012084105

<<斜投影の変換行列>>
図12を参照して、斜投影の変換行列について説明する。
斜投影の変換行列を導き出すために、図12(b)の投影座標系での撮影方向において、Z軸方向の変位に対するX,Y軸方向の変化量を求める。前記したように、モデルビュー行列M,Mを適用すると、仮想カメラVcのカメラ座標での視点は、座標原点となる。この座標原点を図12(b)の投影座標系に変換すると、式(17)のプロジェクション行列における第4列ベクトルが、投影座標系での仮想カメラVcの視点になる(式(18)参照)。
<< An oblique projection transformation matrix >>
An oblique projection transformation matrix will be described with reference to FIG.
In order to derive a transformation matrix for oblique projection, the amount of change in the X and Y axis directions with respect to the displacement in the Z axis direction in the imaging direction in the projection coordinate system of FIG. As described above, the model view matrix M O, Applying M C, perspective camera coordinates of the virtual camera Vc becomes coordinate origin. When this coordinate origin is converted into the projection coordinate system of FIG. 12B, the fourth column vector in the projection matrix of Expression (17) becomes the viewpoint of the virtual camera Vc in the projection coordinate system (see Expression (18)). .

Figure 2012084105
Figure 2012084105

この式(18)では、X,Y,Zが、式(7)で算出した仮想カメラVcの位置である。そして、Z軸方向の変位に対するX,Y軸方向の変化量S,Sを下記の式(19)で定義すると、斜投影のための変換行列(斜投影用変換行列)Obliqueは、下記の式(20)で表すことができる。 In this equation (18), X C , Y C and Z C are the positions of the virtual camera Vc calculated in equation (7). Then, when the changes S X and S Y in the X and Y axis directions with respect to the displacement in the Z axis direction are defined by the following equation (19), a transformation matrix for oblique projection (transformation matrix for oblique projection) Oblique is: (20).

Figure 2012084105
Figure 2012084105

Figure 2012084105
Figure 2012084105

<<クリッピング位置の修正>>
ここで、クリッピング位置の修正について説明する。
前記した式(16)よりレンズアレイLを平行移動させたが、この状態では、Z軸方向における視野範囲Vのクリッピングが正しくない。そこで、平行移動距離Ldistだけ戻すため、下記の式(21)に示すように、平行移動逆行列T −1を乗じる。
<< Clipping position correction >>
Here, the correction of the clipping position will be described.
Wherein the but was translated to the lens array L A formula (16), in this state, the clipping of the field of view V R in the Z-axis direction is not correct. Therefore, in order to return only the translation distance Ldist , the translation inverse matrix T Z −1 is multiplied as shown in the following equation (21).

Figure 2012084105
Figure 2012084105

<<仮想カメラの位置での変換行列>>
図13を参照して、仮想カメラの位置での変換行列Fについて説明する。
前記した式(14)、式(16)、式(20)、式(21)を用いると、斜投影によるプロジェクション行列Pは、下記の式(22)で表すことができる。この式(22)にモデルビュー行列Mの項を加えると、仮想カメラの位置での変換行列Fは、下記の式(23)で表すことができる。
<< Transformation matrix at virtual camera position >>
The transformation matrix F at the position of the virtual camera will be described with reference to FIG.
Using the above-described Expression (14), Expression (16), Expression (20), and Expression (21), the projection matrix P by oblique projection can be expressed by the following Expression (22). The addition of terms of a model view matrix M C to the equation (22), the transformation matrix F at the position of the virtual camera can be expressed by the following equation (23).

Figure 2012084105
Figure 2012084105

Figure 2012084105
Figure 2012084105

以上のように、仮想撮影画像生成手段144は、前記した式(23)を用いることで、図13に示すように、3次元形状モデルObj1,2が投影面P(X軸−Y軸面)に斜投影された仮想撮影画像を生成できる。その後、仮想撮影画像生成手段144は、生成した仮想撮影画像を第1のフィルタ15に出力する。 As described above, the virtual photographed image generating unit 144 uses the above-described equation (23), so that the three-dimensional shape models Obj1 and Obj1 and Obj2 are projected onto the projection plane P P (X-axis-Y-axis plane) as shown in FIG. ) Can be generated. Thereafter, the virtual captured image generation unit 144 outputs the generated virtual captured image to the first filter 15.

<レンズアレイでのサンプリングに起因する折返し雑音の低減>
以下、図14を参照し、第1のフィルタ15による、レンズアレイLでのサンプリングに起因する折返し雑音の低減について説明する(適宜図2参照)。
ここで、フィルタ用パラメータ設定手段13が、仮想撮影画像において、図14に示すようなフィルタ適用領域Aを設定した例で説明する。つまり、このフィルタ適用領域Aは、あるピンホールHに対応する画素を中心として、そのピンホールHに隣接する他のピンホールHに対応する画素を結んだ線分の中点C1〜4で囲われる領域(例えば、ひし形)となる。また、斜投影を用いたので、“●”の画素は、図14に示すように、レンズアレイLにおける要素レンズLの配置に応じて、縦横に整列している。また、仮想撮影画像の画素間隔とレンズアレイLの要素レンズLの配置とは、整数比(例えば、1対4)になる。
<Reduction of aliasing noise caused by lens array sampling>
Hereinafter, with reference to FIG. 14, according to a first filter 15, it will be described the reduction of aliasing noise due to sampling at the lens array L A (see properly Figure 2).
Here, the filter parameter setting means 13, in the virtual photographic image will be described the example of setting the filter application region A R as shown in FIG. 14. That is, the filter application area A R is around a pixel corresponding to a pinhole H, the pin hole H at the midpoint C P of the line segment connecting the pixels corresponding to the other of the pinhole H adjacent 1 This is a region surrounded by 4 (for example, a rhombus). Further, since using the oblique projection, "●" denotes a pixel of, as shown in FIG. 14, according to the arrangement of the element lenses L P of the lens array L A, are aligned vertically and horizontally. Further, the arrangement of the element lenses L P of the pixel spacing and lens array L A virtual photographic image, integer ratio (e.g., 1: 4) becomes.

第1のフィルタ15(図2参照)は、フィルタ用パラメータ設定手段13からフィルタ適用領域Aが入力され、仮想カメラ撮影手段14から仮想撮影画像が入力される。そして、第1のフィルタ15は、仮想撮影画像においてフィルタ適用領域A内に低域通過フィルタ処理を施す。具体的には、第1のフィルタ15は、低域通過フィルタ処理として、フィルタ適用領域A内に存在する全ての画素値の平均値を算出し、その平均値をフィルタ適用領域Aの中央に位置する“●”画素の画素値とする。また、第1のフィルタ15は、低域通過フィルタ処理として、平均値を求める代わりに、重み付け加算値又はメディアン値を求めてもよい。その後、第1のフィルタ15は、低域通過フィルタ処理を施した仮想撮影画像を正規化画像生成手段16に出力する。 The first filter 15 (see FIG. 2), the filter application area A R from the filter parameter setting unit 13 is inputted, the virtual captured image is inputted from the virtual camera photographing means 14. The first filter 15 performs low-pass filtering in the filter applied in the area A R in the virtual photographic image. Specifically, the first filter 15, as a low-pass filtering, to calculate an average value of all pixel values existing in the filter application area A R, the center of the filter the average coverage area A R The pixel value of the “●” pixel located at. Moreover, the 1st filter 15 may obtain | require a weighted addition value or a median value instead of calculating | requiring an average value as a low-pass filter process. Thereafter, the first filter 15 outputs the virtual photographed image subjected to the low-pass filter processing to the normalized image generation means 16.

これによって、第1のフィルタ15は、3次元オブジェクトObjからの光線がレンズアレイLでサンプリングされるために発生する折返し雑音(エイリアシング)を低減することができる。このとき、仮想撮影画像の各画素が縦横に整列しており、仮想撮影画像に幾何歪が発生していないため、第1のフィルタ15は、幾何歪の補正するための計算コストを少なくすることができる(図14参照)。 Thus, the first filter 15 may be light rays from the three-dimensional object Obj to reduce the aliasing noise (aliasing) caused to be sampled by the lens array L A. At this time, the pixels of the virtual photographed image are aligned vertically and horizontally, and no geometric distortion has occurred in the virtual photographed image, so the first filter 15 reduces the calculation cost for correcting the geometric distortion. (See FIG. 14).

なお、フィルタ用パラメータ設定手段13は、ピンホールH以外の他のピンホールHに対応する画素ついても、フィルタ適用領域Aを同様に設定する。そして、第1のフィルタ15は、そのフィルタ適用領域A毎に低域通過フィルタ処理を施すことは言うまでもない。 The filter parameter setting means 13, also with the pixel corresponding to another pinhole H other than the pinhole H, to set the filter application area A R Likewise. The first filter 15 is naturally subjected to low-pass filter processing for each the filter application area A R.

図2の正規化画像生成手段16は、第1のフィルタ15から仮想撮影画像が入力され、所定の座標変換式によって、この仮想撮影画像の画素の画素値を正規化画像I’の画素に割り当てることで、正規化画像I’を生成する。具体的には、正規化画像生成手段16は、低域通過フィルタ処理を施した仮想撮影画像のサンプル点(図14の“●”)を、正規化画像I’の計算対象画素(図7の“■”)に割り当てる。この場合、正規化画像I’の画素座標は、下記の式(24)で表される。なお、式(24)の左辺第1項は、ピンホールHの位置を示すことになる。   2 receives the virtual captured image from the first filter 15 and assigns the pixel value of the pixel of the virtual captured image to the pixel of the normalized image I ′ by a predetermined coordinate conversion formula. Thus, the normalized image I ′ is generated. Specifically, the normalized image generation means 16 uses the sample point (“●” in FIG. 14) of the virtual photographed image that has been subjected to the low-pass filter processing as the calculation target pixel (in FIG. 7). Assigned to “■”). In this case, the pixel coordinates of the normalized image I ′ are expressed by the following formula (24). Note that the first term on the left side of Equation (24) indicates the position of the pinhole H.

Figure 2012084105
Figure 2012084105

その後、立体像生成装置1では、要素画像Gの各画素をローカル座標(u,v)としてそれぞれ指定して、仮想カメラ撮影手段14による仮想カメラVcでの撮影処理、第1のフィルタ15による低域通過フィルタ処理、および、正規化画像生成手段16による画素値の割り当て処理を、要素画像Gの全ての画素に対して実行する。従って、立体像生成装置1では、要素画像Gの画素数だけこれら処理を繰り返せばよく、従来のように画像内に存在する全画素に対して処理を繰り返し行う必要がない。
このようにして、正規化画像生成手段16は、正規化画像I’の全画素値を得ることができる。その後、正規化画像生成手段16は、生成した正規化画像I’を表示画像生成手段17に出力する。
Thereafter, in the three-dimensional image generation device 1, each pixel of the element image G is designated as local coordinates (u, v), and the imaging process by the virtual camera Vc by the virtual camera imaging unit 14 is performed. The pass filter processing and the pixel value assignment processing by the normalized image generation means 16 are executed for all the pixels of the element image G. Therefore, in the stereoscopic image generating apparatus 1, it is only necessary to repeat these processes for the number of pixels of the element image G, and it is not necessary to repeat the process for all the pixels existing in the image as in the conventional case.
In this way, the normalized image generating means 16 can obtain all pixel values of the normalized image I ′. Thereafter, the normalized image generating unit 16 outputs the generated normalized image I ′ to the display image generating unit 17.

表示画像生成手段17は、正規化画像生成手段16から正規化画像I’が入力され、この正規化画像I’から表示画像Iを生成する。このため、図2に示すように、表示画像生成手段17は、第2のフィルタ(第2の折返し雑音低減手段)17aを備える。   The display image generation unit 17 receives the normalized image I ′ from the normalized image generation unit 16 and generates the display image I from the normalized image I ′. For this reason, as shown in FIG. 2, the display image generation means 17 is provided with the 2nd filter (2nd aliasing noise reduction means) 17a.

<画像表示パネルでのサンプリングに起因する折返し雑音の低減>
以下、図15を参照し、第2のフィルタ17aによる、画像表示パネル21でのサンプリングに起因する折返し雑音の低減について説明する(適宜図2参照)。
第2のフィルタ17aは、正規化画像I’が画像表示パネル21で表示する表示画像Iの縦横にそれぞれM倍の画素を持つので、正規化画像I’に対して低域通過フィルタ処理を施す。具体的には、図15に示すように、第2のフィルタ17aは、低域通過フィルタ処理として、表示画像Iの1画素の画素値を、その表示画像Iの1画素に対応する領域に含まれる正規化画像I’の全ての画素の平均値とする処理を行う。さらに、第2のフィルタ17aは、低域通過フィルタ処理として、平均値を求める代わりに、重み付け加算値又はメディアン値を求めてもよい。
<Reduction of aliasing noise caused by sampling on the image display panel>
Hereinafter, the reduction of aliasing noise caused by sampling on the image display panel 21 by the second filter 17a will be described with reference to FIG. 15 (see FIG. 2 as appropriate).
The second filter 17a performs low-pass filter processing on the normalized image I ′ because the normalized image I ′ has M-times pixels in the vertical and horizontal directions of the display image I displayed on the image display panel 21. . Specifically, as shown in FIG. 15, the second filter 17 a includes a pixel value of one pixel of the display image I in a region corresponding to one pixel of the display image I as a low-pass filter process. The average value of all the pixels of the normalized image I ′ is processed. Furthermore, the second filter 17a may obtain a weighted addition value or a median value as a low-pass filter process instead of obtaining an average value.

つまり、第2のフィルタ17aは、前記した式(4)で座標変換できることから、下記の式(25)で表される低域通過フィルタ処理を行うことで、表示画像Iを生成する。そして、第2のフィルタ17aは、生成した表示画像Iを立体表示装置2(図1参照)に出力する。   That is, since the second filter 17a can perform coordinate conversion by the above-described equation (4), the display image I is generated by performing the low-pass filter processing represented by the following equation (25). Then, the second filter 17a outputs the generated display image I to the stereoscopic display device 2 (see FIG. 1).

Figure 2012084105
Figure 2012084105

なお、式(25)において、I’(i’+s,j’+t)が正規化画像I’の画素(i’+s,j’+t)の画素値を示しており、I(i,j)が表示画像Iの画素(i,j)の画素値を示している。また、Dは、Σの条件を満たすI(i’+s,j’+t)の数であり、総和に寄与した画素の数となる。さらに、sおよびtは、0から要素レンズL間の画素数の半分までの整数値である。 In Expression (25), I ′ (i ′ + s, j ′ + t) represents the pixel value of the pixel (i ′ + s, j ′ + t) of the normalized image I ′, and I (i, j) Indicates the pixel value of the pixel (i, j) of the display image I. D is the number of I (i ′ + s, j ′ + t) that satisfies the condition of Σ, and is the number of pixels that contributed to the sum. Moreover, s and t is an integer from 0 to half the number of pixels between the element lenses L P.

[立体像生成装置の動作]
以下、図16を参照し、図2の立体像生成装置1の全体動作を説明する(適宜図2参照)。
立体像生成装置1は、立体表示装置モデル化手段11によって、立体表示装置2のパラメータ(F,R,R,P)が入力される(ステップS1)。
[Operation of stereoscopic image generation device]
Hereinafter, the overall operation of the stereoscopic image generating apparatus 1 of FIG. 2 will be described with reference to FIG. 16 (see FIG. 2 as appropriate).
In the stereoscopic image generating device 1, the parameters (F, R H , R V , P) of the stereoscopic display device 2 are input by the stereoscopic display device modeling means 11 (step S1).

また、立体像生成装置1は、正規化画像設定手段12によって、正規化画像I’の設定を行う(ステップS2)。つまり、立体像生成装置1は、正規化画像設定手段12によって、前記した式(1)および式(2)を用いて、正規化画像I’の水平方向の画素サイズPおよび正規化画像I’の垂直方向の画素サイズPを算出する。 In addition, the stereoscopic image generating apparatus 1 sets the normalized image I ′ by using the normalized image setting unit 12 (Step S2). That is, the stereoscopic image generating apparatus 1 uses the normalized image setting unit 12 to calculate the pixel size P H and the normalized image I in the horizontal direction of the normalized image I ′ using the above-described equations (1) and (2). The pixel size P V in the vertical direction is calculated.

また、立体像生成装置1は、フィルタ用パラメータ設定手段13によって、フィルタ用パラメータを設定する(ステップS3)。つまり、立体像生成装置1は、フィルタ用パラメータ設定手段13において、例えば、ひし形状のフィルタ適用領域Aを仮想撮影画像上に設定する。 In addition, the stereoscopic image generating apparatus 1 sets the filter parameter by the filter parameter setting unit 13 (step S3). That is, the stereoscopic image generating apparatus 1, the filter parameter setting means 13, for example, sets a rhombic filter applying area A R on the virtual photographic image.

また、立体像生成装置1は、仮想カメラ撮影手段14によって、仮想カメラVcによる撮影を行って、仮想撮影画像を生成する(ステップS4)。この仮想カメラ撮影手段14の動作は、その詳細を後記する。   In addition, the stereoscopic image generating apparatus 1 uses the virtual camera photographing unit 14 to photograph with the virtual camera Vc to generate a virtual photographed image (step S4). Details of the operation of the virtual camera photographing means 14 will be described later.

また、立体像生成装置1は、第1のフィルタ15によって、仮想撮影画像に対して低域通過フィルタ処理を施す(ステップS5)。つまり、立体像生成装置1は、第1のフィルタ15によって、仮想撮影画像において、フィルタ適用領域A内に存在する全ての画素値の平均値、重み付け加算値、又は、メディアン値を求め、その値をフィルタ適用領域A内に存在する全画素の画素値とする。 In addition, the stereoscopic image generating device 1 performs low-pass filter processing on the virtual photographed image using the first filter 15 (step S5). That is, the stereoscopic image generating apparatus 1, the first filter 15 calculates the virtual photographic image, the average value of all pixel values existing in the filter application area A R, the weighted addition value or the median value, the the pixel values of all pixels existing values in filter application region a R.

また、立体像生成装置1は、正規化画像生成手段16によって、前記した式(24)を用いて、仮想撮影画像の画素の画素値を正規化画像I’の画素に割り当てることで、正規化画像I’を生成する(ステップS6)。   In addition, the stereoscopic image generating apparatus 1 normalizes the normalized image generating unit 16 by assigning the pixel value of the pixel of the virtual captured image to the pixel of the normalized image I ′ using the above-described equation (24). An image I ′ is generated (step S6).

その後、立体像生成装置1は、正規化画像生成手段16によって、要素画像Gの全画素に対して、仮想カメラ撮影手段14による仮想カメラでの撮影処理、第1のフィルタ15による低域通過フィルタ処理、および、正規化画像生成手段16による画素値の割り当て処理を実行したか否かを判定する(ステップS7)。   Thereafter, the stereoscopic image generating apparatus 1 uses the normalized image generating unit 16 to perform the imaging process with the virtual camera by the virtual camera imaging unit 14 and the low-pass filter using the first filter 15 for all the pixels of the element image G. It is determined whether the process and the pixel value assignment process by the normalized image generation means 16 have been executed (step S7).

ここで、要素画像Gの全画素で処理を実行していない場合(ステップS7でNo)、立体像生成装置1は、ステップS4の処理に戻る。
一方、要素画像Gの全画素で処理を実行した場合(ステップS7でYes)、立体像生成装置1は、ステップS8の処理に進む。
Here, when the process is not executed on all the pixels of the element image G (No in step S7), the stereoscopic image generating apparatus 1 returns to the process of step S4.
On the other hand, when the process is executed on all the pixels of the element image G (Yes in step S7), the stereoscopic image generating apparatus 1 proceeds to the process of step S8.

また、立体像生成装置1は、第2のフィルタ17aによって、正規化画像I’に対して低域通過フィルタ処理を施す(ステップS8)。つまり、立体像生成装置1は、第2のフィルタ17aによって、低域通過フィルタ処理として、表示画像Iの画素の画素値を、その画素に対応する正規化画像I’の全ての画素の平均値、重み付け加算値、又は、メディアン値とする処理を行う。   In addition, the stereoscopic image generating apparatus 1 performs low-pass filter processing on the normalized image I ′ using the second filter 17a (step S8). That is, the stereoscopic image generating apparatus 1 uses the second filter 17a as a low-pass filter process to convert the pixel value of the pixel of the display image I to the average value of all the pixels of the normalized image I ′ corresponding to the pixel. , A weighted addition value or a median value is processed.

以下、図17を参照し、図5の仮想カメラ撮影手段14の動作を説明する(適宜図5参照)。
仮想カメラ撮影手段14は、正規化画像画素位置算出手段141によって、前記した式(3)および式(4)を用いて、正規化画像I’の画素位置を算出する(ステップS41)。
Hereinafter, the operation of the virtual camera photographing means 14 of FIG. 5 will be described with reference to FIG. 17 (see FIG. 5 as appropriate).
The virtual camera photographing unit 14 calculates the pixel position of the normalized image I ′ using the above-described Expression (3) and Expression (4) by the normalized image pixel position calculation unit 141 (Step S41).

また、仮想カメラ撮影手段14は、ピンホール位置算出手段142によって、前記した式(5)を用いて、ピンホールHの位置を算出する(ステップS42)。   Further, the virtual camera photographing means 14 calculates the position of the pinhole H by using the above-described formula (5) by the pinhole position calculating means 142 (step S42).

また、仮想カメラ撮影手段14は、仮想カメラ位置算出手段143によって、正規化画像I’において、画素I’(u,v)からピンホールH(0,0)の位置までの単位ベクトルを生成する(式(6)参照)。そして、仮想カメラ撮影手段14は、仮想カメラ位置算出手段143によって、前記した式(7)を用いて、仮想カメラVcの位置を算出し、単位ベクトルの逆方向を仮想カメラVcの撮影方向として算出する(ステップS43)。 Further, the virtual camera photographing means 14 uses the virtual camera position calculation means 143 to generate a unit vector from the pixel I ′ 0 , 0 (u, v) to the position of the pinhole H (0, 0) in the normalized image I ′. (See equation (6)). Then, the virtual camera photographing unit 14 calculates the position of the virtual camera Vc by using the above-described equation (7) by the virtual camera position calculating unit 143, and calculates the reverse direction of the unit vector as the photographing direction of the virtual camera Vc. (Step S43).

また、仮想カメラ撮影手段14は、仮想撮影画像生成手段144によって、仮想カメラの位置での変換行列Fによって(式(23)参照)、表示対象を投影面Pに斜投影することで、表示対象を仮想カメラVcで撮影した仮想撮影画像を生成する(ステップS44)。 Further, the virtual camera photographing unit 14, by the virtual-photographed-image generating unit 144, by the transformation matrix F at the position of the virtual camera (see equation (23)), by oblique projection onto the projection plane P P display target, the display A virtual captured image obtained by capturing the target with the virtual camera Vc is generated (step S44).

以上のように、本発明の実施形態に係る立体像生成装置1は、正規化画像設定手段12によって、画素サイズが要素レンズLの間隔に対して整数分の1となる正規化画像I’を用意する。そして、立体像生成装置1は、仮想カメラ撮影手段14によって、要素レンズLの中心が仮想撮影画像の画素に対応するような斜投影を行い、仮想撮影画像の画素の画素値を、用意した正規化画像I’の各画素に割り当てる。これによって、立体像生成装置1は、要素レンズLの間隔が要素画像Gの画素サイズの整数倍という条件を満たさない場合でも、斜投影により表示画像Iを生成できる。さらに、立体像生成装置1は、正射影のように幾何歪が発生しないため、幾何歪の補正するための計算コストを少なくできる。具体的には、立体像生成装置1は、画像内に存在する全画素に対して射影変換を行う従来技術と比べて、1/要素レンズLの数以下に計算コストを抑えることができる。 As described above, the stereoscopic image generating apparatus 1 according to an embodiment of the present invention, the normalized image setting unit 12, the normalized image I pixel size becomes integral submultiple respect to the spacing element lenses L P ' Prepare. Then, the stereoscopic image generating apparatus 1, by the virtual camera photographing means 14 performs the oblique projection, such as the center of the element lenses L P corresponds to a pixel of the virtual photographic image, the pixel values of the pixels of the virtual photographic image, was prepared Assigned to each pixel of the normalized image I ′. Thus, the stereoscopic image generating apparatus 1, even if the distance between the element lenses L P does not satisfy the condition that an integral multiple of the pixel size of the elemental image G, can generate a display image I by isometric. Further, since the stereoscopic image generating apparatus 1 does not generate geometric distortion unlike an orthogonal projection, the calculation cost for correcting the geometric distortion can be reduced. Specifically, a stereoscopic image generating apparatus 1, as compared with the conventional technique of performing the projection conversion for all the pixels present in the image, it is possible to suppress the computational cost on the number below 1 / element lens L P.

また、立体像生成装置1は、第1のフィルタ15によって、レンズアレイLでのサンプリングに起因する折返し雑音を低減するので、表示画像Iを高品質にすることができる。このとき、立体像生成装置1は、フィルタ用パラメータ設定手段13によって、フィルタ適用領域を人手によらずに設定することができ、正確な低域通過フィルタ処理を可能とする。そして、立体像生成装置1は、第2のフィルタ17aによって、画像表示パネル21でのサンプリングに起因する折返し雑音を低減するので、立体画像を高品質にすることができる。 Further, the stereoscopic image generating apparatus 1, the first filter 15, so reducing the aliasing noise due to sampling at the lens array L A, it is possible to display image I high quality. At this time, the stereoscopic image generating apparatus 1 can set the filter application region by the filter parameter setting unit 13 without human intervention, and enables accurate low-pass filter processing. Then, the stereoscopic image generating device 1 reduces the aliasing noise caused by sampling on the image display panel 21 by the second filter 17a, so that the quality of the stereoscopic image can be improved.

ここで、射影変換を行う従来技術(例えば、特開2009−175866号公報)でも、折返し雑音低減フィルタを用いているが、仮想カメラの位置又は撮影方向を変える毎に、要素画像で1画素ずつ演算を行うため、その演算量が多くなってしまう。しかし、立体像生成装置1では、第1のフィルタ15および第2のフィルタ17aが斜投影に適用可能なため、従来の折返し雑音低減フィルタに比べて、折返し雑音の低減に必要な演算量も少なくすることができる。   Here, even in the conventional technique for performing projective transformation (for example, Japanese Patent Application Laid-Open No. 2009-175866), the aliasing noise reduction filter is used. Since the calculation is performed, the calculation amount is increased. However, since the first filter 15 and the second filter 17a can be applied to oblique projection in the stereoscopic image generating apparatus 1, the amount of calculation required for reducing the aliasing noise is less than that of the conventional aliasing noise reduction filter. can do.

なお、本発明の実施形態では、立体像生成装置1は、第1のフィルタ15および第2のフィルタ17aを備えることとして説明したが、何れか一方だけを備えてもよく、両方を備えなくともよい。
ここで、第1のフィルタ15のみを備える場合、立体像生成装置1は、レンズアレイLでのサンプリングに起因する折返し雑音を低減するので、実用上十分な品質の表示画像Iを得ることができる。このように第1のフィルタ15のみを備える場合(つまり、第2のフィルタ17aを備えない場合)、立体像生成装置1は、表示画像生成手段17によって、正規化画像I’の中心画素を表示画像Iの画素とすることで、表示画像Iを生成してもよい。
また、第2のフィルタ17aのみを備える場合、立体像生成装置1は、画像表示パネル21でのサンプリングに起因する折返し雑音を低減するので、実用上十分な品質の表示画像Iを得ることができる。
In the embodiment of the present invention, the stereoscopic image generating apparatus 1 has been described as including the first filter 15 and the second filter 17a. However, only one or both of them may be included. Good.
Here, the case of providing only the first filter 15, the stereoscopic image generating apparatus 1, since reducing the aliasing noise due to sampling at the lens array L A, to obtain a display image I of practically sufficient quality it can. As described above, when only the first filter 15 is provided (that is, when the second filter 17 a is not provided), the stereoscopic image generating apparatus 1 displays the center pixel of the normalized image I ′ by the display image generating unit 17. The display image I may be generated by using the pixels of the image I.
Further, when only the second filter 17a is provided, the stereoscopic image generating device 1 can reduce the aliasing noise caused by the sampling on the image display panel 21, and thus can obtain a display image I having a practically sufficient quality. .

なお、本発明の実施形態では、インテグラル方式に適用する例を説明したが、本発明は、これに限定されない。例えば、表示画像Iの垂直方向を1画素とすることで、本発明は、レンチキュラ方式にも適用することができる。   In the embodiment of the present invention, the example applied to the integral method has been described, but the present invention is not limited to this. For example, by setting the vertical direction of the display image I to one pixel, the present invention can also be applied to the lenticular method.

なお、本発明において、第2のフィルタ17aは、正規化画像I’における要素画像Gの画素サイズと、画像表示パネル21の画素サイズとの比が整数でない場合、内挿処理を施してサンプリング位置に応じた表示画像Iの画素値を計算してもよい。   In the present invention, when the ratio between the pixel size of the element image G in the normalized image I ′ and the pixel size of the image display panel 21 is not an integer, the second filter 17a performs an interpolation process to obtain a sampling position. The pixel value of the display image I according to the above may be calculated.

なお、本発明の実施形態では、本発明に係る立体像生成装置を独立した装置として説明したが、本発明では、一般的なコンピュータを、前記した各手段として機能させる立体像生成プログラムによって実現することもできる。この立体像生成プログラムは、通信回線を介して配布しても良く、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布しても良い。   In the embodiment of the present invention, the stereoscopic image generating apparatus according to the present invention has been described as an independent apparatus. However, in the present invention, a general computer is realized by a stereoscopic image generating program that functions as each of the above-described units. You can also. This stereoscopic image generation program may be distributed via a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

[動的3次元形状モデルへの応用]
以下、図18を参照して、立体像生成装置1を用いて、動的3次元形状モデルの立体像(インテグラル立体映像)を生成する手法について説明する。
[Application to dynamic 3D shape model]
Hereinafter, a method of generating a stereoscopic image (integral stereoscopic video) of a dynamic three-dimensional shape model using the stereoscopic image generating device 1 will be described with reference to FIG.

図18に示すように、立体映像生成システムSは、3次元モデリング装置3と、立体像生成装置1とを備える。
3次元モデリング装置3は、複数のカメラを、表示対象を取り囲むように配置し、その複数のカメラ画像から動的な3次元形状モデルを生成するものである。この3次元モデリング装置3は、例えば、特許第4014140号公報で開示されている3次元モデリング装置を用いることができる。
As shown in FIG. 18, the stereoscopic video generation system S includes a three-dimensional modeling device 3 and a stereoscopic image generation device 1.
The three-dimensional modeling apparatus 3 arranges a plurality of cameras so as to surround a display target, and generates a dynamic three-dimensional shape model from the plurality of camera images. As the three-dimensional modeling apparatus 3, for example, a three-dimensional modeling apparatus disclosed in Japanese Patent No. 4014140 can be used.

これによって、立体映像生成システムSは、3次元モデリング装置3において、複数のカメラ画像から映像フレームごとに動的3次元形状モデルを生成し、立体像生成装置1において、動的3次元形状モデルからインテグラル立体像を生成する。このように、立体映像生成システムSは、映像フレームごとにインテグラル立体像を生成することで、動画像(インテグラル立体映像)を生成することができる。   Accordingly, the stereoscopic video generation system S generates a dynamic three-dimensional shape model for each video frame from a plurality of camera images in the three-dimensional modeling device 3, and the stereoscopic image generation device 1 generates the dynamic three-dimensional shape model from the dynamic three-dimensional shape model. Generate an integral 3D image. Thus, the stereoscopic video generation system S can generate a moving image (integral stereoscopic video) by generating an integral stereoscopic image for each video frame.

1 立体像生成装置
11 立体表示装置モデル化手段(パラメータ入力手段)
12 正規化画像設定手段(正規化画像画素サイズ算出手段)
13 フィルタ用パラメータ設定手段(フィルタ適用領域設定手段)
14 仮想カメラ撮影手段
141 正規化画像画素位置算出手段
142 ピンホール位置算出手段
143 仮想カメラ位置算出手段
144 仮想撮影画像生成手段
15 第1のフィルタ(第1の折返し雑音低減手段)
16 正規化画像生成手段
17 表示画像生成手段
17a 第2のフィルタ(第2の折返し雑音低減手段)
2 立体表示装置
21 画像表示パネル(画像表示手段)
レンズアレイ
要素レンズ
DESCRIPTION OF SYMBOLS 1 3D image production | generation apparatus 11 3D display apparatus modeling means (parameter input means)
12 Normalized image setting means (normalized image pixel size calculating means)
13 Filter parameter setting means (filter application area setting means)
14 Virtual camera photographing means 141 Normalized image pixel position calculating means 142 Pinhole position calculating means 143 Virtual camera position calculating means 144 Virtual photographed image generating means 15 First filter (first aliasing noise reducing means)
16 Normalized image generating means 17 Display image generating means 17a Second filter (second aliasing noise reducing means)
2 stereoscopic display device 21 image display panel (image display means)
L A lens array L P element lenses

Claims (5)

要素レンズを2次元に配置したレンズアレイと画像表示手段とを備える立体表示装置に表示する表示対象としての3次元形状モデルを仮想的な撮影カメラである仮想カメラで撮影して、前記立体表示装置用の表示画像を生成する立体像生成装置であって、
前記要素レンズの焦点距離と、前記要素レンズの間隔と、前記画像表示手段の画素間隔とが入力されるパラメータ入力手段と、
前記要素レンズの間隔を前記画像表示手段の画素間隔で除算して予め設定された定数を乗じた値に基づいて前記要素レンズ間の画素数を算出すると共に、前記要素レンズの間隔を前記要素レンズ間の画素数で除算することで、正規化画像の画素サイズを前記要素レンズの間隔に対して整数分の1となる値で算出する正規化画像画素サイズ算出手段と、
前記表示画像の画素座標に前記画像表示手段の画素間隔を乗算して前記正規化画像の画素サイズで除算することで、前記正規化画像の画素座標を算出する正規化画像画素位置算出手段と、
前記レンズアレイから前記仮想カメラの位置までを示すように予め設定した距離と前記正規化画像の画素サイズとを乗算して前記要素レンズの焦点距離で除算した値に基づいて前記仮想カメラの位置を算出する仮想カメラ位置算出手段と、
前記仮想カメラ位置算出手段が算出した仮想カメラの位置での変換行列によって、前記3次元形状モデルを投影面に斜投影することで、前記3次元形状モデルを前記仮想カメラで撮影した仮想撮影画像を生成する仮想撮影画像生成手段と、
所定の座標変換式により前記仮想撮影画像の画素の画素値を前記正規化画像の画素に割り当てることで、前記正規化画像を生成する正規化画像生成手段と、
前記正規化画像生成手段が生成した正規化画像から前記表示画像を生成する表示画像生成手段と、
を備えることを特徴とする立体像生成装置。
A 3D model as a display object to be displayed on a stereoscopic display device including a lens array in which element lenses are arranged two-dimensionally and an image display means is photographed by a virtual camera which is a virtual photographing camera, and the stereoscopic display device A stereoscopic image generating device for generating a display image for use,
Parameter input means for inputting a focal length of the element lens, an interval between the element lenses, and a pixel interval of the image display means;
The number of pixels between the element lenses is calculated based on a value obtained by dividing the interval between the element lenses by the pixel interval of the image display means and multiplying by a preset constant, and the interval between the element lenses is calculated as the element lens interval. A normalized image pixel size calculating unit that calculates the pixel size of the normalized image by a value that is a fraction of an integer with respect to the interval between the element lenses by dividing by the number of pixels in between,
Normalized image pixel position calculating means for calculating the pixel coordinates of the normalized image by multiplying the pixel coordinates of the display image by the pixel interval of the image display means and dividing by the pixel size of the normalized image;
The position of the virtual camera is calculated based on a value obtained by multiplying the distance set in advance so as to indicate the position from the lens array to the position of the virtual camera and the pixel size of the normalized image and dividing by the focal length of the element lens. Virtual camera position calculating means for calculating;
A virtual photographed image obtained by photographing the three-dimensional shape model with the virtual camera is obtained by obliquely projecting the three-dimensional shape model onto a projection surface by a transformation matrix at the position of the virtual camera calculated by the virtual camera position calculating means. Virtual captured image generation means for generating;
A normalized image generating means for generating the normalized image by assigning a pixel value of the pixel of the virtual photographed image to a pixel of the normalized image by a predetermined coordinate transformation formula;
Display image generating means for generating the display image from the normalized image generated by the normalized image generating means;
A stereoscopic image generating device comprising:
前記仮想カメラ位置算出手段は、さらに、前記仮想カメラの位置から前記レンズアレイの中心位置までの方向を前記仮想カメラの撮影方向として算出し、
前記仮想撮影画像生成手段は、前記レンズアレイとの垂線上に位置する前記仮想カメラが前記レンズアレイの中心位置を向く第1視点でのモデルビュー行列Mについて下記の式(9)で定義され、前記仮想カメラ位置算出手段が算出した仮想カメラの位置で前記仮想カメラが前記撮影方向を向く第2視点でのモデルビュー行列Mが下記の式(10)で定義され、前記第1視点から前記第2視点への変換行列Tが下記の式(11)で定義され、正射影用変換行列orthoが下記の式(12)で定義され、投影座標系内での前記レンズアレイの平行移動距離Ldistが下記の式(15)で定義され、前記投影座標系内での前記レンズアレイの平行移動行列Tが下記の式(16)で定義され、前記投影座標系の第3軸方向の変位に対する第1,2軸方向の変化量S,Sが下記の式(19)で定義され、斜投影用変換行列Obliqueが下記の式(20)で定義され、前記投影座標系内での前記レンズアレイの平行移動逆行列T −1が下記の式(21)で定義され、プロジェクション行列Pが下記の式(22)で定義されるときに、下記の式(23)で定義された前記仮想カメラの位置での変換行列Fによって、前記3次元形状モデルを斜投影することを特徴とする請求項1に記載の立体像生成装置。
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
なお、o11〜o34は回転と平行移動とを表す要素であり、c11〜c34は回転と平行移動とを表す要素であり、lは前記仮想カメラの視野範囲の左端位置であり、rは前記視野範囲の右端位置であり、tは前記視野範囲の上端位置であり、bは前記視野範囲の下端位置であり、fは前記視野範囲の奥端位置であり、nは前記視野範囲の手前端位置であり、Lengthは前記仮想カメラから前記レンズアレイまでの距離であり、Xは前記第1軸方向での前記第2視点の位置であり、Yは前記第2軸方向での前記第2視点の位置であり、Zは前記第3軸方向での前記第2視点の位置である。
The virtual camera position calculation means further calculates a direction from the position of the virtual camera to the center position of the lens array as a shooting direction of the virtual camera,
It said virtual captured image generating means, wherein is defined in the model view matrix M O for the following formula in the first viewpoint virtual camera toward the center position of the lens array (9) located on the perpendicular of said lens array the model view matrix M C in a second viewpoint virtual camera position calculating means the virtual camera at the position of the virtual camera calculated faces the shooting direction is defined by the following equation (10), from the first viewpoint the transformation matrix T C to the second viewpoint is defined by the equation (11) below, orthogonal projection conversion matrix ortho is defined by the following equation (12), translation of the lens array in the projection coordinate system distance L dist is defined with the following equation (15), translation matrix T Z of the lens array in the projection coordinate system is defined by the following equation (16), a third axial direction of the projection coordinate system To the displacement of The first and second axial variation S X which, S Y is defined by the following equation (19), oblique projection transformation matrix Oblique is defined by the following equation (20), within the projection coordinate system When the translation inverse matrix T Z −1 of the lens array is defined by the following equation (21), and the projection matrix P is defined by the following equation (22), it is defined by the following equation (23): The stereoscopic image generating apparatus according to claim 1, wherein the three-dimensional shape model is obliquely projected by a transformation matrix F at the position of the virtual camera.
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Figure 2012084105
Here, o 11 to o 34 are elements representing rotation and translation, c 11 to c 34 are elements representing rotation and translation, and l is the left end position of the visual field range of the virtual camera, r is the right end position of the visual field range, t is the upper end position of the visual field range, b is the lower end position of the visual field range, f is the far end position of the visual field range, and n is the visual field range. The length is the distance from the virtual camera to the lens array, X C is the position of the second viewpoint in the first axis direction, and Y C is the second axis direction. The position of the second viewpoint, and Z C is the position of the second viewpoint in the third axis direction.
前記仮想撮影画像生成手段が生成した仮想撮影画像に対して、前記要素レンズの中心位置に対応する画素を結んだ線分の中点で囲われるフィルタ適用領域毎に低域通過フィルタ処理を施す第1の折返し雑音低減手段、
をさらに備えることを特徴とする請求項1または請求項2に記載の立体像生成装置。
A low-pass filter process is performed on the virtual captured image generated by the virtual captured image generation unit for each filter application region surrounded by a midpoint of a line segment connecting pixels corresponding to the center position of the element lens. 1 aliasing noise reduction means,
The stereoscopic image generating apparatus according to claim 1, further comprising:
前記正規化画像画素サイズ算出手段は、前記定数として2を超える偶数が予め設定され、
前記表示画像生成手段は、前記正規化画像に対して低域通過フィルタ処理を施す第2の折返し雑音低減手段、
をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載の立体像生成装置。
The normalized image pixel size calculation means is preset with an even number exceeding 2 as the constant,
The display image generation means includes second aliasing noise reduction means for applying a low-pass filter process to the normalized image;
The stereoscopic image generating apparatus according to any one of claims 1 to 3, further comprising:
要素レンズを2次元に配置したレンズアレイと画像表示手段とを備える立体表示装置に表示する表示対象としての3次元形状モデルを仮想的な撮影カメラである仮想カメラで撮影して、前記立体表示装置用の表示画像を生成するために、コンピュータを、
前記要素レンズの焦点距離と、前記要素レンズの間隔と、前記画像表示手段の画素間隔とが入力されるパラメータ入力手段、
前記要素レンズの間隔を前記画像表示手段の画素間隔で除算して予め設定された定数を乗じた値に基づいて前記要素レンズ間の画素数を算出すると共に、前記要素レンズの間隔を前記要素レンズ間の画素数で除算することで、正規化画像の画素サイズを前記要素レンズの間隔に対して整数分の1となる値で算出する正規化画像画素サイズ算出手段、
前記表示画像の画素座標に前記画像表示手段の画素間隔を乗算して前記正規化画像の画素サイズで除算することで、前記正規化画像の画素座標を算出する正規化画像画素位置算出手段、
前記レンズアレイから前記仮想カメラの位置までを示すように予め設定した距離と前記正規化画像の画素サイズとを乗算して前記要素レンズの焦点距離で除算した値に基づいて前記仮想カメラの位置を算出する仮想カメラ位置算出手段、
前記仮想カメラ位置算出手段が算出した仮想カメラの位置での変換行列によって、前記3次元形状モデルを投影面に斜投影することで、前記3次元形状モデルを前記仮想カメラで撮影した仮想撮影画像を生成する仮想撮影画像生成手段、
所定の座標変換式により前記仮想撮影画像の画素の画素値を前記正規化画像の画素に割り当てることで、前記正規化画像を生成する正規化画像生成手段、
前記正規化画像生成手段が生成した正規化画像から前記表示画像を生成する表示画像生成手段、
として機能させることを特徴とする立体像生成プログラム。
A 3D model as a display object to be displayed on a stereoscopic display device including a lens array in which element lenses are arranged two-dimensionally and an image display means is photographed by a virtual camera which is a virtual photographing camera, and the stereoscopic display device Computer to generate display images for
Parameter input means for inputting a focal length of the element lens, an interval between the element lenses, and a pixel interval of the image display means,
The number of pixels between the element lenses is calculated based on a value obtained by dividing the interval between the element lenses by the pixel interval of the image display means and multiplying by a preset constant, and the interval between the element lenses is calculated as the element lens interval. A normalized image pixel size calculating unit that calculates the pixel size of the normalized image by a value that is a fraction of an integer with respect to the interval between the element lenses by dividing by the number of pixels in between,
Normalized image pixel position calculating means for calculating the pixel coordinates of the normalized image by multiplying the pixel coordinates of the display image by the pixel interval of the image display means and dividing by the pixel size of the normalized image;
The position of the virtual camera is calculated based on a value obtained by multiplying the distance set in advance so as to indicate the position from the lens array to the position of the virtual camera and the pixel size of the normalized image and dividing by the focal length of the element lens. Virtual camera position calculating means for calculating,
A virtual photographed image obtained by photographing the three-dimensional shape model with the virtual camera is obtained by obliquely projecting the three-dimensional shape model onto a projection surface by a transformation matrix at the position of the virtual camera calculated by the virtual camera position calculating means. Virtual captured image generation means for generating,
A normalized image generating means for generating the normalized image by assigning a pixel value of the pixel of the virtual photographed image to a pixel of the normalized image by a predetermined coordinate transformation formula;
Display image generating means for generating the display image from the normalized image generated by the normalized image generating means;
A three-dimensional image generation program characterized by functioning as
JP2010232116A 2010-10-15 2010-10-15 Stereoscopic image generating apparatus and program thereof Expired - Fee Related JP5522794B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010232116A JP5522794B2 (en) 2010-10-15 2010-10-15 Stereoscopic image generating apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232116A JP5522794B2 (en) 2010-10-15 2010-10-15 Stereoscopic image generating apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2012084105A true JP2012084105A (en) 2012-04-26
JP5522794B2 JP5522794B2 (en) 2014-06-18

Family

ID=46242870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232116A Expired - Fee Related JP5522794B2 (en) 2010-10-15 2010-10-15 Stereoscopic image generating apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP5522794B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158646A (en) * 2014-02-25 2015-09-03 日本放送協会 Camera parameter calculation device and program for the same
WO2015160208A1 (en) * 2014-04-18 2015-10-22 삼성전자주식회사 Device and method that compensate for displayed margin of error in iid
JP2016158213A (en) * 2015-02-26 2016-09-01 日本放送協会 Element image group generation device and program thereof, and digital broadcast receiver
JP2018050253A (en) * 2016-09-23 2018-03-29 日本放送協会 Image generating apparatus and program
JP2018050254A (en) * 2016-09-23 2018-03-29 日本放送協会 Image generating apparatus and program
JP2018067750A (en) * 2016-10-17 2018-04-26 日本放送協会 Element image generation device and program thereof
US10142616B2 (en) 2014-04-18 2018-11-27 Samsung Electronics Co., Ltd. Device and method that compensate for displayed margin of error in IID

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158646A (en) * 2014-02-25 2015-09-03 日本放送協会 Camera parameter calculation device and program for the same
WO2015160208A1 (en) * 2014-04-18 2015-10-22 삼성전자주식회사 Device and method that compensate for displayed margin of error in iid
US10142616B2 (en) 2014-04-18 2018-11-27 Samsung Electronics Co., Ltd. Device and method that compensate for displayed margin of error in IID
JP2016158213A (en) * 2015-02-26 2016-09-01 日本放送協会 Element image group generation device and program thereof, and digital broadcast receiver
JP2018050253A (en) * 2016-09-23 2018-03-29 日本放送協会 Image generating apparatus and program
JP2018050254A (en) * 2016-09-23 2018-03-29 日本放送協会 Image generating apparatus and program
JP2018067750A (en) * 2016-10-17 2018-04-26 日本放送協会 Element image generation device and program thereof

Also Published As

Publication number Publication date
JP5522794B2 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
JP4125252B2 (en) Image generation apparatus, image generation method, and image generation program
JP4947593B2 (en) Apparatus and program for generating free viewpoint image by local region segmentation
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP2009518877A (en) Method and system for acquiring and displaying a three-dimensional light field
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP6018468B2 (en) Depth range calculation device and program thereof
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
KR20080111306A (en) Method and apparatus for generating elemental image in integral imaging
JP7416573B2 (en) Stereoscopic image generation device and its program
JP2019149777A (en) Image processing apparatus and image processing program
KR101208767B1 (en) Stereoscopic image generation method, device and system using circular projection and recording medium for the same
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
JP6846165B2 (en) Image generator, image display system and program
KR101567002B1 (en) Computer graphics based stereo floting integral imaging creation system
JP7257272B2 (en) DEPTH MAP GENERATION DEVICE AND PROGRAM THEREOF, AND 3D IMAGE GENERATION DEVICE
KR101425321B1 (en) System for displaying 3D integrated image with adaptive lens array, and method for generating elemental image of adaptive lens array
JP6073121B2 (en) 3D display device and 3D display system
JP5243359B2 (en) Stereoscopic image generation system and program
JP6768431B2 (en) Image generator and program
JP6543096B2 (en) Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system
JP6788472B2 (en) Element image generator and its program
KR101784208B1 (en) System and method for displaying three-dimension image using multiple depth camera
Song et al. Design and Implementation of High-Resolution Integral Imaging Display System using Expanded Depth Image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140404

R150 Certificate of patent or registration of utility model

Ref document number: 5522794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees