JP6543096B2 - Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system - Google Patents

Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system Download PDF

Info

Publication number
JP6543096B2
JP6543096B2 JP2015109716A JP2015109716A JP6543096B2 JP 6543096 B2 JP6543096 B2 JP 6543096B2 JP 2015109716 A JP2015109716 A JP 2015109716A JP 2015109716 A JP2015109716 A JP 2015109716A JP 6543096 B2 JP6543096 B2 JP 6543096B2
Authority
JP
Japan
Prior art keywords
viewpoint
image
viewpoint position
element image
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015109716A
Other languages
Japanese (ja)
Other versions
JP2016224656A (en
Inventor
片山 美和
美和 片山
健介 久富
健介 久富
健佑 池谷
健佑 池谷
三科 智之
智之 三科
岩舘 祐一
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2015109716A priority Critical patent/JP6543096B2/en
Publication of JP2016224656A publication Critical patent/JP2016224656A/en
Application granted granted Critical
Publication of JP6543096B2 publication Critical patent/JP6543096B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、インテグラル立体をシミュレーションするための視点位置用要素画像生成装置およびそのプログラム、ならびに、インテグラル立体シミュレーションシステムに関する。   The present invention relates to an element image generating device for viewpoint position for simulating an integral solid, a program thereof, and an integral solid simulation system.

従来、立体像を表示する方式として、インテグラル立体方式が知られている。
このインテグラル立体方式は、撮像装置によって、図10に示すように、二次元配列された複数の要素レンズLpからなるレンズアレーLaを介して、被写体Oから出た光を撮像する。このとき、要素レンズLpの焦点距離だけ離間した撮像面Eにおいて、要素レンズLpのレンズ間隔で、要素画像Gが撮像されることになる。
そして、インテグラル立体方式は、図11に示すように、撮像時と同じ仕様のレンズアレーLaを介して、表示装置(ディスプレイ)の表示面Dに図10で撮像した要素画像Gを表示する。このとき、撮像された被写体空間と同様の光線が再生され、観察者Mは、被写体O(図10参照)を、立体像Tとして視認することができる。
このインテグラル立体方式では、実体のある被写体を撮像して要素画像を生成する以外にも、仮想空間中の三次元モデルから要素画像を生成する手法が提案されている(特許文献1、非特許文献1参照)。
この手法は、仮想空間中の三次元モデルから、高精細な表示装置とレンズアレーの仕様に対応して、要素レンズに対応するすべての要素画像を生成している。
Conventionally, an integral stereo method is known as a method for displaying a stereo image.
In this integral stereo method, as shown in FIG. 10, the imaging device captures light emitted from a subject O through a lens array La including a plurality of element lenses Lp arranged two-dimensionally. At this time, the element image G is captured at the lens interval of the element lens Lp on the imaging surface E separated by the focal length of the element lens Lp.
Then, in the integral stereo method, as shown in FIG. 11, the element image G captured in FIG. 10 is displayed on the display surface D of the display device (display) via the lens array La of the same specification as imaging. At this time, the same light beam as the imaged subject space is reproduced, and the observer M can visually recognize the subject O (see FIG. 10) as a stereoscopic image T.
In this integral three-dimensional method, a method of generating an element image from a three-dimensional model in a virtual space has also been proposed in addition to imaging an object having a substance and generating an element image (Patent Document 1, Non-Patent Document 1) Reference 1).
In this method, all element images corresponding to element lenses are generated from the three-dimensional model in virtual space, corresponding to the specifications of a high definition display device and a lens array.

また、立体像を表示する他の方式として、レンチキュラ方式等の二眼立体方式が知られている。例えば、レンチキュラ方式は、左右二眼用のそれぞれの画像をストライプ状に交互に配列して表示し、レンチキュラレンズによって、観察者が視点を左右方向に移動させることで、異なる視点から見た立体像を視認できる手法である(特許文献2参照)。なお、特許文献2には、観察者の視点位置を検出し、左右二眼用のそれぞれの画像について、観察方向の画像を生成する発明が開示されている。   Further, as another method for displaying a three-dimensional image, a twin-lens stereoscopic method such as a lenticular method is known. For example, in the lenticular method, images for left and right two eyes are alternately arranged and displayed in stripes, and the observer moves the viewpoint in the left and right direction by using a lenticular lens to view a three-dimensional image viewed from different viewpoints. It is a method which can visually recognize (refer to patent documents 2). Patent Document 2 discloses an invention which detects the viewpoint position of the observer and generates an image in the observation direction for each of the left and right two-eye images.

特開2013−196532号公報JP, 2013-196532, A 特開平9−238369号公報JP-A-9-238369

岩舘、片山、「斜投影によるインテグラル立体像の生成方法」、社団法人映像情報メディア学会技術報告、vol.34、No.43、pp.17−20、2010年10月Iwatsuki, Katayama, "Method of generating an integral three-dimensional image by oblique projection," Technical Report of The Institute of Image Information and Television Engineers, vol. 34, no. 43, pp. 17-20, October 2010

インテグラル立体方式において、表示装置の画素間隔、レンズアレーのレンズ間隔および焦点距離といったパラメータは、立体像の画質を決める重要な要素となる。そのため、これらのパラメータをさまざまに変えることで、インテグラル方式の立体像(以下、インテグラル立体像)を最適に表示するために必要なパラメータを調べることができる。
しかし、表示装置の画素間隔等は、メーカの設計によって決まるため、調査したいパラメータ仕様に合致した表示装置を揃えることは難しく、インテグラル立体像の画質を調査することは困難である。
In the integral stereo method, parameters such as the pixel spacing of the display device, the lens spacing of the lens array, and the focal length become important factors that determine the image quality of the stereoscopic image. Therefore, by changing these parameters in various ways, it is possible to investigate the parameters necessary to optimally display an integral-type three-dimensional image (hereinafter, integral three-dimensional image).
However, since the pixel spacing and the like of the display device is determined by the manufacturer's design, it is difficult to align the display devices meeting the parameter specifications to be investigated, and it is difficult to investigate the image quality of the integral stereo image.

一方、インテグラル立体像を表示する実際の表示装置を用いずに、例えば、特許文献1等によって生成された、立体像を表示するための複数の要素画像を、二眼立体の画像に変換してシミュレーションを行うこととしても、予めすべての要素画像を生成し、二眼立体用の画像を生成しなければならない。   On the other hand, without using an actual display device for displaying an integral three-dimensional image, for example, a plurality of elemental images for displaying a three-dimensional image generated by Patent Document 1 etc. are converted into a two-eye three-dimensional image In order to perform simulation, it is necessary to generate all elemental images in advance and to generate an image for two-lens stereo.

この場合、すべての要素画像を生成して主記憶メモリに記憶し、二眼立体用の情報のみをグラフィックメモリに転送することになるため、高解像度の表示装置や要素画像を対象とした場合、大規模の主記憶メモリが必要となってしまうという問題がある。
また、この場合、大容量の要素画像群から表示用の画像を生成するため、表示装置の画面や要素画像が高解像度化すればするほど生成時間を要し、動画像を表示することは困難になる。
In this case, all element images are generated and stored in the main storage memory, and only information for two-eye stereoscopy is transferred to the graphic memory. Therefore, in the case of a high resolution display device or element image, There is a problem that a large-scale main memory is required.
Also, in this case, since the display image is generated from the large-capacity element image group, the higher the resolution of the screen of the display device or the element image, the more time it takes to generate a moving image, making it difficult to display moving images. become.

なお、特許文献2に記載の発明は、視点位置に応じた左右二眼用の画像を生成し、表示用の画像生成の負荷を軽減しているが、インテグラル立体方式に適用するには、予め立体像を表示するための大容量の要素画像を生成する必要があり、大容量の主記憶メモリが必要となってしまうという問題は解消されない。   Although the invention described in Patent Document 2 generates left and right two-eye images according to the viewpoint position and reduces the load of image generation for display, to apply to the integral stereo method, It is necessary to generate a large-capacity element image in advance for displaying a stereoscopic image, and the problem that a large-capacity main memory is required can not be solved.

本発明は、このような問題に鑑みてなされたものであり、観察者の視点位置に対応する部分的な要素画像を生成して使用するメモリ量を抑え、インテグラル立体像をシミュレーションすることが可能な視点位置用要素画像生成装置およびそのプログラム、ならびに、インテグラル立体シミュレーションシステムを提供することを課題とする。   The present invention has been made in view of such a problem, and it is possible to generate a partial element image corresponding to the viewpoint position of the observer, reduce the amount of memory used, and simulate an integral 3D image. An object of the present invention is to provide an element image generating apparatus for possible viewpoint position and its program, and an integral three-dimensional simulation system.

前記課題を解決するため、本発明に係る視点位置用要素画像生成装置は、インテグラル立体方式のシミュレーション対象となる対象表示装置が表示する立体像を他の表示装置でシミュレーションするために、観察者の視点位置に対応して立体像を表示する部分的な要素画像である視点位置用要素画像を生成する視点位置用要素画像生成装置であって、視点対応位置特定手段と、仮想空間撮影手段と、フィルタリング手段と、要素画像再構成手段と、を備える構成とした。   In order to solve the above problem, the viewpoint position element image generating device according to the present invention is an observer in order to simulate a three-dimensional image displayed by a target display device to be a simulation target of the integral three-dimensional method with another display device. A viewpoint position element image generation unit that generates a viewpoint position element image that is a partial element image that displays a stereoscopic image corresponding to the viewpoint position, and includes a viewpoint corresponding position identification unit, a virtual space imaging unit, and , Filtering means, and element image reconstruction means.

かかる構成において、視点位置用要素画像生成装置は、視点対応位置特定手段によって、他の表示装置と同じ座標系(三次元座標系)上に対象表示装置を仮想的に配置し、視点位置検出装置で検出された観察者の視点位置から、対象表示装置の各要素レンズのレンズ中心を通過して対象表示装置の表示面に到達する要素レンズごとの視点対応位置を計算する。なお、対象表示装置を仮想的に配置するために必要な対象表示装置の縦横の画素数および画素間隔、レンズアレーの縦横のレンズ数およびレンズ間隔ならびに焦点距離は、外部からパラメータとして入力される。   In such a configuration, the viewpoint position element image generation device virtually arranges the target display device on the same coordinate system (three-dimensional coordinate system) as the other display devices by the viewpoint corresponding position specifying means, and the viewpoint position detection device From the viewpoint position of the observer detected in the above, the viewpoint corresponding position of each element lens which passes through the lens center of each element lens of the object display device and reaches the display surface of the object display device is calculated. The number of vertical and horizontal pixels and the pixel interval of the target display device, the number of vertical and horizontal lenses of the lens array, the lens interval, and the focal distance necessary to virtually arrange the target display device are externally input as parameters.

これによって、視点位置用要素画像生成装置は、対象表示装置が立体像を表示するための要素レンズの要素画像に対応して、観察者の視点位置から視認される画素位置が特定されることになる。なお、観察者の視点位置からは、要素画像の一部しか視認されていないことから、視認された画素位置以外の要素画像を生成する必要はないことになる。   As a result, in the viewpoint position element image generation device, the pixel position to be visually recognized from the viewpoint position of the observer is specified corresponding to the element image of the element lens for the target display device to display a stereoscopic image. Become. In addition, since only a part of the element image is viewed from the viewpoint position of the observer, it is not necessary to generate an element image other than the viewed pixel position.

そして、視点位置用要素画像生成装置は、仮想空間撮影手段によって、視点対応位置から、当該視点対応位置に対応する要素レンズのレンズ中心を通過して、観察者までの視距離位置に仮想カメラを配置し、CG等の三次元空間データを透視投影により予め定めた投影面に仮想撮影し、要素レンズごとの予め定めた範囲でレンダリングする。   The visual point position element image generation device passes the center of the lens of the element lens corresponding to the visual point corresponding position from the visual point corresponding position by the virtual space photographing means to the virtual camera at the visual distance position to the observer. It arranges, and three-dimensional space data such as CG is virtually photographed on a predetermined projection plane by perspective projection, and is rendered in a predetermined range for each element lens.

そして、視点位置用要素画像生成装置は、フィルタリング手段によって、要素レンズごとにレンダリングされた画像をフィルタリングして、当該要素レンズに対応する画素値を計算する。
このとき、仮想空間撮影手段によってレンダリングされた画像は、視点対応位置の周辺画像を含んでいる。そのため、フィルタリング手段は、理想的な視点位置の周辺の画像を加味して画素値を計算することになり、立体像において、ボケを再現することが可能になる。
Then, the viewpoint position element image generation apparatus filters the image rendered for each element lens by the filtering unit, and calculates a pixel value corresponding to the element lens.
At this time, the image rendered by the virtual space imaging means includes the peripheral image of the viewpoint corresponding position. Therefore, the filtering means calculates the pixel value taking into consideration the image around the ideal viewpoint position, and it becomes possible to reproduce the blur in the three-dimensional image.

そして、視点位置用要素画像生成装置は、要素画像再構成手段によって、フィルタリング手段で計算された要素レンズごとの画素値を、現実に観察者が視認する表示装置の要素レンズごとの視点対応位置に対応する画素に割り当てることで、要素画像の一部分のみを再現した観察者の視点位置用要素画像を生成する。
これによって、視点位置用要素画像生成装置は、観察者の視点位置に対応し、観察者が立体像を視認するために必要となる要素画像の一部のみを生成することができる。
Then, the elemental image generation device for viewpoint position sets the pixel value of each of the component lenses calculated by the filtering unit by the component image reconstruction unit to the viewpoint corresponding position of each of the component lenses of the display that the observer visually recognizes in practice. By assigning to corresponding pixels, an element image for viewpoint position of a viewer is generated which reproduces only a part of the element image.
As a result, the viewpoint position element image generation device can generate only a part of the element image that corresponds to the viewer's viewpoint position and that is necessary for the viewer to visually recognize the stereoscopic image.

なお、視点位置用要素画像生成装置は、コンピュータを、視点対応位置特定手段、仮想空間撮影手段、フィルタリング手段、要素画像再構成手段として機能させるための視点位置用要素画像生成プログラムで動作させることができる。   Note that the viewpoint position element image generation device operates the computer with a viewpoint position element image generation program for causing the computer to function as a viewpoint corresponding position specifying unit, virtual space photographing unit, filtering unit, and element image reconstruction unit. it can.

また、前記課題を解決するため、本発明に係るインテグラル立体シミュレーションシステムは、インテグラル立体方式のシミュレーション対象となる対象表示装置が表示する立体像をシミュレーションするインテグラル立体シミュレーションシステムであって、視点位置検出装置と、視点位置用要素画像生成装置と、要素画像表示装置と、を備える構成とした。   Further, in order to solve the above problems, an integral three-dimensional simulation system according to the present invention is an integral three-dimensional simulation system that simulates a three-dimensional image displayed by a target display device that is an integral three-dimensional simulation target. A position detection device, a viewpoint position element image generation device, and an element image display device are provided.

かかる構成において、インテグラル立体シミュレーションシステムは、視点位置検出装置によって、観察者の視点位置を検出する。
そして、インテグラル立体シミュレーションシステムは、視点位置用要素画像生成装置によって、観察者の視点位置に対応して立体像を表示する部分的な要素画像である視点位置用要素画像を生成する。
そして、インテグラル立体シミュレーションシステムは、要素画像表示装置によって、視点位置用要素画像生成装置で生成された視点位置用要素画像を、レンズアレーを介して表示する。
In such a configuration, the integral stereo simulation system detects the viewpoint position of the observer by the viewpoint position detection device.
Then, the integral stereo simulation system generates a viewpoint position element image which is a partial element image for displaying a stereo image corresponding to the viewpoint position of the observer by the viewpoint position element image generation device.
Then, the integral three-dimensional simulation system displays the viewpoint position element image generated by the viewpoint position element image generation device through the lens array by the element image display device.

これによって、要素画像表示装置は、要素画像の一部のみを生成して表示することで、観察者が視点位置で立体像を視認することができる。
このように、インテグラル立体シミュレーションシステムは、すべての要素画像を生成しなくても、観察者の視点位置から視認される要素画像の一部のみを生成することで、使用するメモリ量を抑えて、インテグラル立体方式の表示装置(対象表示装置)が表示する立体像をシミュレーションすることができる。
As a result, the elemental image display apparatus can generate a partial image of the elemental image and display it so that the observer can visually recognize the stereoscopic image at the viewpoint position.
Thus, the integral 3D simulation system reduces the amount of memory used by generating only a part of the element image viewed from the viewpoint of the observer without generating all the element images. The three-dimensional image displayed by the integral three-dimensional display device (target display device) can be simulated.

本発明は、以下に示す優れた効果を奏するものである。
本発明の視点位置用要素画像生成装置および視点位置用要素画像生成プログラムによれば、観察者の視点位置に対応する部分的な要素画像のみを生成するため、すべての要素画像を生成する場合に比べ、高速に、かつ、メモリ使用量を抑えて、立体像を表示するために必要な要素画像を生成することができる。
The present invention exhibits the following excellent effects.
According to the viewpoint position element image generation apparatus and the viewpoint position element image generation program of the present invention, in order to generate only partial element images corresponding to the observer's viewpoint position, when all element images are generated In comparison, it is possible to generate an element image necessary to display a stereoscopic image at high speed and with a reduced memory usage.

また、本発明のインテグラル立体シミュレーションシステムは、観察者の視点位置に対応する部分的な要素画像のみを生成して表示するため、すべての要素画像を生成して表示する場合に比べ、高速に、かつ、メモリ使用量を抑えて、立体像を表示することができる。   Further, since the integral 3D simulation system of the present invention generates and displays only partial element images corresponding to the viewpoint position of the observer, it is faster than generating and displaying all of the element images. And, it is possible to display a stereoscopic image while suppressing the memory usage.

このように、本発明は、要素画像を生成するためのメモリ使用量を抑えることができるため、要素画像のさらなる高解像度化にも対応することが可能になる。また、本発明は、部分的に要素画像を生成するため、動画像の立体像をシミュレーションすることも可能になる。   As described above, since the present invention can reduce the memory usage for generating the element image, it is possible to cope with the further high resolution of the element image. The present invention also enables simulation of a three-dimensional image of a moving image because the element image is partially generated.

本発明の実施形態に係るインテグラル立体シミュレーションシステムの全体構成を示す構成図である。FIG. 1 is a configuration diagram showing an entire configuration of an integral three-dimensional simulation system according to an embodiment of the present invention. 観察者の視点位置を検出する際の座標系を示し、(a)はxy座標、(b)はyz座標を示す。The coordinate system at the time of detecting an observer's viewpoint position is shown, (a) shows xy coordinates, (b) shows yz coordinates. 本発明の実施形態に係る視点位置用要素画像生成装置のブロック構成を示す構成図である。It is a block diagram which shows the block configuration of the element image production | generation apparatus for viewpoint positions which concerns on embodiment of this invention. 視点対応位置特定手段における視点対応位置の算出手法を説明するための説明図である。It is explanatory drawing for demonstrating the calculation method of the viewpoint corresponding position in a viewpoint corresponding position identification means. 視点対応位置と画素のサブピクセル中心との対応を説明するための説明図である。It is an explanatory view for explaining correspondence with a viewpoint corresponding position and a sub pixel center of a pixel. 仮想空間撮影手段が透視投影を行う際の投影面の領域構成を説明するための説明図である。It is an explanatory view for explaining field composition of a projection plane at the time of virtual space photography means performing perspective projection. 仮想空間撮影手段が透視投影を行う際の仮想カメラの配置を説明するための説明図である。It is an explanatory view for explaining arrangement of a virtual camera at the time of virtual space photographing means performing perspective projection. 透視投影行列を説明するための説明図である。It is an explanatory view for explaining a perspective projection matrix. 本発明の実施形態に係る視点位置用要素画像生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the element image production | generation apparatus for viewpoint positions which concerns on embodiment of this invention. 従来のインテグラル方式の撮像系を説明するための説明図である。It is explanatory drawing for demonstrating the imaging system of the conventional integral system. 従来のインテグラル方式の表示系を説明するための説明図である。It is explanatory drawing for demonstrating the display system of the conventional integral system.

以下、本発明の実施形態について図面を参照して説明する。
〔インテグラル立体シミュレーションシステムの構成〕
まず、図1を参照して、本発明の実施形態に係るインテグラル立体シミュレーションシステムSの構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Configuration of Integral 3D Simulation System]
First, the configuration of an integral three-dimensional simulation system S according to an embodiment of the present invention will be described with reference to FIG.

インテグラル立体シミュレーションシステムSは、シミュレーション対象となる仮想の表示装置で表示するインテグラル立体方式の立体像(インテグラル立体像)をシミュレーション表示するものである。
このインテグラル立体シミュレーションシステムSは、図1に示すように、視点位置用要素画像生成装置1と、視点位置検出装置2と、要素画像表示装置3と、を備える。
なお、以下では、シミュレーション対象の仮想の表示装置を対象表示装置と表記し、観察者が現実に視認する表示装置(他の表示装置)である要素画像表示装置3と区別することとする。
The integral three-dimensional simulation system S simulates and displays an integral three-dimensional image (integral three-dimensional image) displayed by a virtual display device to be simulated.
As shown in FIG. 1, the integral three-dimensional simulation system S includes a viewpoint position element image generation device 1, a viewpoint position detection device 2, and an element image display device 3.
In the following, the virtual display device to be simulated is referred to as a target display device, and is distinguished from the element image display device 3 which is a display device (other display device) that the observer visually recognizes in real.

視点位置用要素画像生成装置1は、被写体を含むCG等の三次元空間データと、対象表示装置(不図示)のパラメータとから、要素画像表示装置3に表示する、観察者Mの視点位置に対応する部分的な要素画像(視点位置用要素画像)を生成するものである。
この視点位置用要素画像生成装置1は、観察者Mの視点位置を視点位置検出装置2から入力し、生成した視点位置用要素画像を要素画像表示装置3に出力する。
なお、この視点位置用要素画像生成装置1については、後で詳細に説明する。
The viewpoint position element image generation device 1 displays the viewpoint position of the observer M displayed on the element image display device 3 from three-dimensional space data such as CG including the subject and parameters of the target display device (not shown). The corresponding partial element image (element image for viewpoint position) is generated.
The viewpoint position element image generation device 1 inputs the viewpoint position of the observer M from the viewpoint position detection device 2, and outputs the generated viewpoint position element image to the element image display device 3.
The viewpoint position element image generating apparatus 1 will be described in detail later.

視点位置検出装置2は、観察者Mの視点位置を検出するものである。この視点位置検出装置2は、例えば、図2に示すような三次元座標系(x,y,z)において、観察者Mの左右二眼それぞれの視点位置を求める。この視点位置検出装置2は、検出した視点位置を視点位置用要素画像生成装置1に出力する。なお、要素画像表示装置3と仮想の対象表示装置とは同じ座標系を用いることとする。   The viewpoint position detection device 2 detects the viewpoint position of the observer M. The viewpoint position detection device 2 obtains viewpoint positions of left and right two eyes of the observer M, for example, in a three-dimensional coordinate system (x, y, z) as shown in FIG. The viewpoint position detection device 2 outputs the detected viewpoint position to the viewpoint position element image generation device 1. The element image display device 3 and the virtual target display device use the same coordinate system.

この視点位置検出装置2における視点位置の計測は、既知の手法を用いることができる。例えば、視点位置検出装置2は、眼球運動計測に用いられる強膜反射法や角膜・瞳孔反射法によって、三次元空間上の予め定めた位置に設置した2台のカメラで撮影した観察者Mのカメラ画像から観察者Mの左右の角膜をそれぞれ検出する。そして、視点位置検出装置2は、2台のカメラ画像の三角測量の原理により、左右二眼の三次元の視点位置を求めることができる。   The measurement of the viewpoint position in the viewpoint position detection device 2 can use a known method. For example, the viewpoint position detection device 2 is configured by the observer M who is photographed by two cameras installed at predetermined positions in a three-dimensional space by the sclera reflection method or the cornea / pupil reflection method used for eye movement measurement. The right and left corneas of the observer M are detected from the camera image. And the viewpoint position detection apparatus 2 can obtain | require the three-dimensional viewpoint position of right-and-left two eyes by the principle of triangulation of two camera images.

なお、視点位置検出装置2の視点位置検出手法はこの手法に限定されるものではない。例えば、マイクロソフト社のKinect(キネクト)(登録商標)を用い、Kinectの「FaceTracking SDK」の出力として、顔モデルの「左右目尻位置」の中点(mx,my,mz)(単位:mm)が与えられた場合、視点位置検出装置2は、図2の座標系において左眼視点座標(mx−6.5/2,my,mz)、右目視点座標(mx+6.5/2,mx,my)として、左右二眼の視点位置を求めることができる。なお、ここで、6.5mmは、一般的な大人の両眼間隔である。   The viewpoint position detection method of the viewpoint position detection device 2 is not limited to this method. For example, using Kinect (registered trademark) of Microsoft Corporation, the midpoint (mx, my, mz) (unit: mm) of the “right and left eye position” of the face model is output as the output of “FaceTracking SDK” of Kinect. If given, the viewpoint position detection device 2 generates the left eye viewpoint coordinates (mx-6.5 / 2, my, mz), the right eye point coordinates (mx + 6.5 / 2, mx, my) in the coordinate system of FIG. It is possible to determine the viewpoint position of the left and right two eyes. In addition, 6.5 mm is a common adult's binocular distance here.

要素画像表示装置3は、視点位置用要素画像生成装置1で生成された視点位置用要素画像を表示するものである。この要素画像表示装置3は、複数の要素レンズからなるレンズアレーを表示面に備えた一般的なインテグラル立体方式の表示装置である。なお、要素画像表示装置3の画素数、要素レンズの数は、シミュレーション対象である対象表示装置と同じである。また、要素レンズの配置は、対象表示装置の要素レンズの配置と相似とする。例えば、対象表示装置の要素レンズの配置が正方配列であれば、要素画像表示装置3の要素レンズの配置は正方配列とする。   The element image display device 3 displays the viewpoint position element image generated by the viewpoint position element image generation device 1. The element image display device 3 is a general integral three-dimensional display device provided with a lens array composed of a plurality of element lenses on the display surface. The number of pixels of the element image display device 3 and the number of element lenses are the same as those of the target display device to be simulated. Further, the arrangement of the element lenses is similar to the arrangement of the element lenses of the target display device. For example, if the arrangement of the element lenses of the target display device is a square arrangement, the arrangement of the element lenses of the element image display device 3 is a square arrangement.

この要素画像表示装置3は、観察者Mの視点位置に応じて、視点位置用要素画像生成装置1が生成した部分的な要素画像を表示するため、その視点位置において、観察者Mに立体像Tを視認させることができる。   Since this element image display device 3 displays the partial element image generated by the viewpoint position element image generation device 1 according to the viewpoint position of the observer M, a stereoscopic image can be displayed on the observer M at that viewpoint position. T can be made visible.

このように、インテグラル立体シミュレーションシステムSは、インテグラル立体像を表示する要素画像をすべて生成することなく、観察者Mの視点位置に応じて、部分的に要素画像を生成して表示するため、使用するメモリ量を抑えてシミュレーションを行うことができる。また、これによって、インテグラル立体シミュレーションシステムSは、高速に立体像を表示することが可能になり、動画像の立体像のシミュレーションにも適用することができる。   As described above, the integral three-dimensional simulation system S partially generates and displays an element image according to the viewpoint position of the observer M without generating all the element images for displaying the integral three-dimensional image. The simulation can be performed with a reduced amount of memory used. In addition, the integral three-dimensional simulation system S can display a three-dimensional image at high speed, and can also be applied to the simulation of a three-dimensional image of a moving image.

〔視点位置用要素画像生成装置の構成〕
次に、図3を参照して、本発明の実施形態に係る視点位置用要素画像生成装置1の構成について説明する。
図3に示すように、視点位置用要素画像生成装置1は、視点対応位置特定手段10と、仮想空間撮影手段11と、フィルタリング手段12と、要素画像再構成手段13と、を備える。
[Configuration of Element Image Generating Device for Viewpoint Position]
Next, with reference to FIG. 3, the configuration of the viewpoint position element image generation device 1 according to the embodiment of the present invention will be described.
As shown in FIG. 3, the viewpoint position element image generating device 1 includes a viewpoint corresponding position specifying unit 10, a virtual space photographing unit 11, a filtering unit 12, and an element image reconstruction unit 13.

視点対応位置特定手段10は、外部から入力される対象表示装置のパラメータに基づいて、対象表示装置の要素レンズごとに、視点位置検出装置2で検出された左右二眼の視点位置のそれぞれから、要素レンズのレンズ中心を通過して、要素画像の表示面に到達する視線の表示面における位置(視点対応位置)を特定するものである。なお、対象表示装置のパラメータは、具体的には、対象表示装置の仕様である縦横の画素数および画素間隔、レンズアレーの縦横のレンズ数およびレンズ間隔ならびに焦点距離等である。
この視点対応位置特定手段10は、左右二眼のそれぞれの視点位置において、すべての要素レンズに対応する視点対応位置(三次元座標)を計算し、仮想空間撮影手段11と要素画像再構成手段13とに出力する。
The viewpoint corresponding position specifying unit 10 detects, based on the parameters of the target display device input from the outside, the viewpoint positions of the left and right two eyes detected by the viewpoint position detection device 2 for each element lens of the target display device. The position (viewpoint corresponding position) on the display surface of the line of sight reaching the display surface of the element image passing through the lens center of the element lens is specified. Specifically, the parameters of the target display device are the number of vertical and horizontal pixels and the pixel interval which are specifications of the target display device, the number of vertical and horizontal lenses of the lens array, the lens interval, and the focal length.
The viewpoint corresponding position specifying unit 10 calculates viewpoint corresponding positions (three-dimensional coordinates) corresponding to all the element lenses at the viewpoint positions of the left and right eyes, and the virtual space photographing unit 11 and the element image reconstructing unit 13 Output to

ここで、図4を参照(適宜図3参照)して、視点対応位置特定手段10が計算する視点対応位置の三次元座標の算出手法について説明する。
図4に示すように、視点対応位置特定手段10は、パラメータで指定された画素間隔Pb、レンズ間隔Lbおよび焦点距離Fで、表示面DとレンズアレーLa(要素レンズLp群)とを、パラメータで指定された画素数およびレンズ数分、仮想空間上に配置し、視点位置Vpから、それぞれの要素レンズLpのレンズ中心Lcを通過して、表示面Dに到達する視線bの表示面Dとの交点を視点対応位置Rとする。この視点対応位置Rは、例えば、視点位置Vpに対して、被写体が表示面Dよりも近い位置に存在する場合の視線b上の被写体点O、あるいは、被写体が表示面Dより遠い位置に存在する場合の視線b上の被写体点Oが対応する表示面D上の理想位置である。
Here, with reference to FIG. 4 (refer to FIG. 3 as needed), a method of calculating three-dimensional coordinates of the viewpoint corresponding position calculated by the viewpoint corresponding position specifying means 10 will be described.
As shown in FIG. 4, the viewpoint corresponding position specifying unit 10 sets parameters of the display surface D and the lens array La (element lens Lp group) with the pixel spacing Pb, the lens spacing Lb and the focal length F specified by the parameters. Are arranged on the virtual space by the number of pixels and the number of lenses specified in step d, and from the viewpoint position Vp, the display surface D of the line of sight b reaching the display surface D passing through the lens center Lc of each element lens Lp Let the intersection of the points be the viewpoint corresponding position R. The viewpoint corresponding position R is, for example, a subject point O 1 on the line of sight b when the subject is closer to the display surface D than the viewpoint position Vp, or a position where the subject is farther than the display surface D the subject point O 2 of the line of sight b when present an ideal position on the corresponding display surface D.

ここで、視点位置Vpの三次元座標を(hx,hy,hz)とし、視点位置VpとレンズアレーLaとの距離(視距離)をL、要素レンズLpの焦点距離をFとしたとき、視点対応位置特定手段10は、視点対応位置Rの三次元座標を、以下の式(1)で計算する。   Here, assuming that the three-dimensional coordinates of the viewpoint position Vp are (hx, hy, hz), the distance (visual distance) between the viewpoint position Vp and the lens array La is L, and the focal distance of the element lens Lp is F The corresponding position specifying means 10 calculates the three-dimensional coordinates of the viewpoint corresponding position R by the following equation (1).

Figure 0006543096
Figure 0006543096

図3に戻って、視点位置用要素画像生成装置1の構成について説明を続ける。
仮想空間撮影手段11は、視点対応位置特定手段10で特定された視点対応位置に対応する画素を含んだ所定範囲の画像を仮想的に撮影するものである。なお、仮想的に撮影する対象は、外部に予め記憶されているCG等の三次元空間データである。
Returning to FIG. 3, the configuration of the viewpoint position element image generation device 1 will be described.
The virtual space imaging means 11 virtually captures an image in a predetermined range including pixels corresponding to the viewpoint corresponding position specified by the viewpoint corresponding position specifying means 10. The target to be virtually photographed is three-dimensional space data such as CG stored in advance externally.

ここでは、仮想空間撮影手段11は、画素を予め定めたサブピクセルで区分し、視点対応位置に相当するサブピクセルを中心とした予め定めた範囲の周辺サブピクセルごとに、サブピクセル中心と要素レンズのレンズ中心とを結ぶ線上で、要素レンズから視距離だけ離れた位置に配置した仮想カメラで、仮想空間(三次元空間データ)を仮想的に撮影(透視投影)し、レンダリングを行う。   Here, the virtual space photographing means 11 divides the pixels into predetermined sub-pixels, and the sub-pixel center and the element lens for each of the predetermined sub-regions of sub-pixels centering on the sub-pixel corresponding to the viewpoint corresponding position. The virtual camera (three-dimensional space data) is virtually photographed (perspective projection) and rendered by a virtual camera arranged at a position separated from the element lens by a visual distance on a line connecting to the lens center of.

ここで、サブピクセルは、図5に示すように、画素Pを予め定めた数に区分した領域を指す。図5では、画素Pを3×3個のサブピクセルpで区分した例を示しているが、5×5個、7×7個等であっても構わない。以下、9個の例で説明を行う。
また、仮想空間を仮想的に撮影(透視投影)するための対象となるサブピクセルは、図5に示すように、視点対応位置Rを含む画素P内のサブピクセルとする。
Here, as shown in FIG. 5, the sub-pixel refers to an area obtained by dividing the pixel P into a predetermined number. Although FIG. 5 shows an example in which the pixel P is divided into 3 × 3 sub-pixels p, it may be 5 × 5, 7 × 7 or the like. Hereinafter, nine examples will be described.
Further, as shown in FIG. 5, a sub-pixel to be a target for imaging (perspective projection) virtually in a virtual space is a sub-pixel in a pixel P including the viewpoint corresponding position R.

すなわち、仮想空間撮影手段11は、図7に示すように、パラメータで指定された画素間隔Pb、レンズ間隔Lbおよび焦点距離Fで、表示面DとレンズアレーLa(要素レンズLp群)とを、パラメータで指定された画素数およびレンズ数分、仮想空間上に配置する。そして、仮想空間撮影手段11は、表示面D上のサブピクセル中心pcと、要素レンズLpのレンズ中心Lcとを結んだ直線上で、レンズアレーLaから視距離Lだけ離間した位置に仮想的に配置した仮想カメラVcを視点(サブピクセル中心視点位置)として、透視投影により、仮想空間(三次元空間データ)を予め定めた投影面に投影する。そして、仮想空間撮影手段11は、9個のサブピクセル中心pcを撮影(透視投影)した画像から、要素レンズに対応する画像をレンダリングする。   That is, as shown in FIG. 7, the virtual space photographing means 11 displays the display surface D and the lens array La (element lens Lp group) with the pixel spacing Pb, the lens spacing Lb and the focal length F specified by the parameters. Arrange in the virtual space for the number of pixels and the number of lenses specified by the parameters. Then, the virtual space photographing means 11 is virtually separated from the lens array La by the visual distance L on a straight line connecting the sub-pixel center pc on the display surface D and the lens center Lc of the element lens Lp. The virtual space (three-dimensional space data) is projected on a predetermined projection plane by perspective projection with the arranged virtual camera Vc as a viewpoint (sub-pixel central viewpoint position). Then, the virtual space imaging unit 11 renders an image corresponding to the element lens from an image obtained by imaging (perspective projection) of nine sub-pixel centers pc.

このレンダリングは、例えば、9個のサブピクセル中心視点位置で撮影した画像を、それぞれのサブピクセル中心pcと、視点対応位置R(図5参照)との距離に応じて重み付け加算してもよいし、9個のサブピクセル中心視点位置で撮影した画像の単純平均としてもよい。なお、レンダリング範囲は、図6に示すように、パラメータで指定されるレンズ間隔の割合で要素レンズのレンズ中心Lcを離間した、要素レンズごとの領域(ここでは、ひし形領域)とする。また、仮想空間撮影手段11が透視投影する投影面Jにおけるレンダリング領域(ひし形領域)の大きさ(画素数)は、少なくとも、レンズ中心Lcに対応する画素を含んでいればよく、数画素から数十画素で予め定めておく。図6では、水平4画素、垂直8画素のひし形領域を示している。   In this rendering, for example, images taken at nine sub-pixel central viewpoint positions may be weighted and added according to the distance between each sub-pixel center pc and the viewpoint corresponding position R (see FIG. 5). It may be a simple average of images taken at nine sub-pixel central viewpoint positions. The rendering range is, as shown in FIG. 6, an area (here, a diamond area) for each element lens in which the lens centers Lc of the element lenses are separated at a ratio of the lens interval specified by the parameter. In addition, the size (number of pixels) of the rendering area (rhombic area) on the projection plane J perspectively projected by the virtual space photographing means 11 needs to include at least a pixel corresponding to the lens center Lc. Ten pixels are predetermined. FIG. 6 shows a diamond region of 4 horizontal pixels and 8 vertical pixels.

透視投影による仮想的な撮影画像は、一般的な透視投影行列を用いて計算することができる。
ここで、図8を参照して、透視投影行列について説明する。図8に示すように、投影対象の範囲をz軸方向の−near面から−far面とし、−near面の投影範囲をx座標の最大値をright、最小値をleft、y座標の最大値をtop、最小値をbottomとする。このとき、三次元空間中の座標点X(P 1)(Tは転置)が、錐台の−near面に投影され、(s(ただし、−1≦s,s,s≦1)へ写像されるとすると、透視投影行列は、同次座標(s w)を用いて、以下の式(2)で表される。
A virtual photographed image by perspective projection can be calculated using a general perspective projection matrix.
Here, the perspective projection matrix will be described with reference to FIG. As shown in FIG. 8, the range of the projection target is the −near plane from the z-axis to the −far plane, the projection range of the −near plane is the maximum of x coordinates, the minimum is left, and the minimum is y maximum Is the top, and the minimum is the bottom. At this time, a coordinate point X (P x P y P z 1) T (T is transposed) in the three-dimensional space is projected onto the −near plane of the frustum, and (s x s y s z ) T (where Assuming that −1 ≦ s x , s y , s z ≦ 1), the perspective projection matrix is expressed by the following equation (2) using homogeneous coordinates (s x s y s z w) T expressed.

Figure 0006543096
Figure 0006543096

なお、ここで、−near面への投影位置は、“−1”と“1”との範囲で正規化された位置であるため、実際の投影面の画素は、その正規化された位置の割合に応じた画素位置とすればよい。
図3に戻って、視点位置用要素画像生成装置1の構成について説明を続ける。
Here, since the projection position on the −near plane is a position normalized in the range of “−1” and “1”, the pixels of the actual projection plane are of the normalized position. The pixel position may be set according to the ratio.
Returning to FIG. 3, the configuration of the viewpoint position element image generation device 1 will be described.

このように、仮想空間撮影手段11は、要素レンズの数だけ、レンダリング画像を生成し、そのレンダリング画像で構成される撮影画像を生成する。
これによって、仮想空間撮影手段11は、左右二眼のそれぞれについて、視点位置から観測される2つの撮影画像を生成する。この仮想空間撮影手段11は、生成した撮影画像をフィルタリング手段12に出力する。
このように、仮想空間撮影手段11は、視点対応位置の近傍の位置まで範囲を広げて透視投影を行うことで、表示する立体像において、ボケを再現することができる。
As described above, the virtual space photographing unit 11 generates rendering images as many as the number of element lenses, and generates a photographed image composed of the rendering images.
By this, the virtual space photographing means 11 generates two photographed images observed from the viewpoint position for each of the left and right eyes. The virtual space photographing unit 11 outputs the generated photographed image to the filtering unit 12.
As described above, the virtual space photographing unit 11 can reproduce blur in a stereoscopic image to be displayed by performing perspective projection by expanding the range up to a position near the viewpoint corresponding position.

フィルタリング手段12は、仮想空間撮影手段11で生成された左右二眼ごとの撮影画像において、要素レンズに対応する領域をフィルタリングするものである。すなわち、フィルタリング手段12は、図6に示すように、投影面J(撮影画像)におけるレンズ中心Lcの水平および垂直の画素間隔で区分されるフィルタ領域(ここでは、ひし形領域)内で、フィルタリングする。
これによって、フィルタリング手段12は、左右二眼ごとに、要素レンズに対応する要素画像の一部(1画素)の値を計算する。
The filtering unit 12 filters an area corresponding to an element lens in the photographed image for each of the left and right eyes generated by the virtual space photographing unit 11. That is, as shown in FIG. 6, the filtering unit 12 performs filtering in a filter area (here, a diamond area) divided by horizontal and vertical pixel intervals of the lens center Lc in the projection plane J (photographed image) .
By this, the filtering means 12 calculates the value of a part (one pixel) of the element image corresponding to the element lens for each of the left and right eyes.

具体的には、フィルタ領域内の画素数をI、フィルタ係数をa(iはフィルタ領域内の画素の識別番号)、フィルタ領域内の撮影画像の画素値をw、フィルタ領域をSとしたとき、フィルタリング手段12は、ある要素レンズに対応する画素値R(jは要素レンズの識別番号)を、以下の式(3)により算出する。 Specifically, the number of pixels in the filter area is I, the filter coefficient is a i (i is an identification number of the pixel in the filter area), the pixel value of the photographed image in the filter area is w i , and the filter area is S In this case, the filtering unit 12 calculates a pixel value R j (j is an identification number of an element lens) corresponding to an element lens according to the following equation (3).

Figure 0006543096
Figure 0006543096

例えば、フィルタリング手段12は、フィルタ領域内の画素値を平均化する。なお、その場合、フィルタ係数aは、すべて“1”とする。
また、フィルタリング手段12は、フィルタ領域内の画素値を、例えば、レンズ中心に近いほど重み(フィルタ係数a)を大きくして加重平均を行うこととしてもよい。
For example, the filtering means 12 averages the pixel values in the filter area. In this case, the filter coefficients ai are all "1".
In addition, the filtering unit 12 may perform weighted averaging by increasing the weight (filter coefficient a i ) as the pixel value in the filter area is closer to the lens center, for example.

このように、フィルタリング手段12は、フィルタ領域内の画素値を平均化することで、要素レンズが離散位置に配置されていることで生じるエイリアジング(折り返し雑音)を抑制することができる。
このフィルタリング手段12は、左右二眼ごとに、撮影画像をフィルタリングし、そのフィルタリング画像を要素画像再構成手段13に出力する。
As described above, the filtering unit 12 can suppress aliasing (folding noise) caused by arranging the element lenses at discrete positions by averaging pixel values in the filter area.
The filtering unit 12 filters the photographed image for each of the left and right eyes, and outputs the filtered image to the elemental image reconstruction unit 13.

要素画像再構成手段13は、フィルタリング手段12でフィルタリングされた左右二眼ごとの撮影画像(フィルタリング画像)から、要素画像表示装置3で表示する観察者の視点位置用の要素画像を再構成するものである。   The element image reconstruction means 13 reconstructs an element image for the viewpoint position of the observer displayed on the element image display device 3 from the photographed image (filtered image) for each of the two left and right eyes filtered by the filtering means 12 It is.

すなわち、要素画像再構成手段13は、フィルタリング画像の要素レンズごとの画素値(前記式(3)の画素値R)を、視点対応位置特定手段10で計算された当該要素レンズの視点対応位置を含む画素の画素値とする。このとき、要素画像再構成手段13は、左右二眼のフィルタリング画像について、それぞれ、視点対応位置特定手段10で計算された左右二眼の視点対応位置を含む画素の画素値を特定する。 That is, the elemental image reconstruction means 13 calculates the pixel value (pixel value R j of the equation (3) above) of each element lens of the filtered image by the viewpoint corresponding position of the element lens calculated by the viewpoint corresponding position specifying means 10 And the pixel value of the pixel including At this time, the elemental image reconstruction means 13 specifies the pixel values of the pixels including the viewpoint corresponding positions of the left and right eyes calculated by the viewpoint corresponding position specifying means 10 for the left and right filtered images.

そして、要素画像再構成手段13は、要素レンズごとに、左右二眼の視点対応位置の二次元座標位置(xy座標位置)に、対応するフィルタリング画像の画素値を割り当てた画像信号(視点位置用要素画像)を生成し、要素画像表示装置3に出力する。   Then, the elemental image reconstruction unit 13 assigns an image signal (for the viewpoint position) in which the pixel value of the corresponding filtered image is assigned to the two-dimensional coordinate position (xy coordinate position) of the viewpoint corresponding position of left and right two eyes for each element lens. Elemental images are generated and output to the element image display device 3.

以上説明したように視点位置用要素画像生成装置1を構成することで、視点位置用要素画像生成装置1は、観察者Mの視点位置に対応する要素画像の一部のみを生成するため、全視点に対応する要素画像を生成する従来の手法に比べて、使用するメモリ容量を抑えて、高速に視点位置用要素画像を生成することができる。また、このように、視点位置用要素画像生成装置1は、高速化を実現することができるため、動画像の立体像をシミュレーションすることが可能になる。   As described above, by forming the viewpoint position element image generation device 1, the viewpoint position element image generation device 1 generates only a part of the element image corresponding to the viewpoint position of the observer M. Compared to the conventional method of generating an element image corresponding to a viewpoint, it is possible to generate an element image for viewpoint position at high speed while suppressing the memory capacity to be used. Further, as described above, since the viewpoint position element image generating device 1 can realize high speed, it is possible to simulate a stereoscopic image of a moving image.

なお、視点位置用要素画像生成装置1は、図示を省略したコンピュータを、前記した各手段として機能させるプログラム(視点位置用要素画像生成プログラム)で動作させることができる。   Note that the viewpoint position element image generation device 1 can be operated by a program (viewpoint position element image generation program) that causes a computer (not shown) to function as the above-described units.

〔視点位置用要素画像生成装置の動作〕
次に、図9を参照(構成については適宜図3参照)して、本発明の実施形態に係る視点位置用要素画像生成装置1の動作について説明する。
[Operation of Element Image Generating Device for Viewpoint Position]
Next, with reference to FIG. 9 (refer to FIG. 3 for the configuration as appropriate), the operation of the viewpoint position element image generation device 1 according to the embodiment of the present invention will be described.

まず、視点位置用要素画像生成装置1は、視点対応位置特定手段10によって、対象表示装置のパラメータ(縦横の画素数および画素間隔、レンズアレーの縦横のレンズ数およびレンズ間隔ならびに焦点距離)を入力する(ステップS1)。
その後、視点位置用要素画像生成装置1は、視点対応位置特定手段10によって、視点位置検出装置2から出力される左右二眼の視点位置を入力する(ステップS2)。
First, the viewpoint position element image generation apparatus 1 inputs the parameters (number of pixels in vertical and horizontal directions, number of pixels in vertical and horizontal directions, number of lenses in vertical and horizontal directions of lens array, focal length) of the target display device To do (step S1).
Thereafter, the viewpoint position element image generation device 1 inputs the viewpoint positions of the left and right two eyes outputted from the viewpoint position detection device 2 by the viewpoint corresponding position specifying means 10 (step S2).

そして、視点位置用要素画像生成装置1は、視点対応位置特定手段10によって、ステップS1で入力されたパラメータに基づいて、ステップS2で入力された視点位置に対応する要素画像の表示面の位置(視点対応位置)を計算する(ステップS3)。
すなわち、視点対応位置特定手段10は、図4に示すように、パラメータで指定された対象表示装置の画素間隔Pb、要素レンズLpのレンズ間隔Lbおよび焦点距離Fで、要素画像の表示面DとレンズアレーLaとを仮想空間上に配置する。そして、視点対応位置特定手段10は、視点位置Vpから、要素レンズLpのレンズ中心Lcを通過する視線bの表示面Dとの交点を視点対応位置Rとして算出する。ここでは、視点対応位置特定手段10は、左右二眼のそれぞれの視点位置Vpについて、すべての要素レンズに対応する視点対応位置Rを算出する。
Then, the viewpoint position element image generation device 1 causes the viewpoint corresponding position specifying unit 10 to display the position of the display surface of the element image corresponding to the viewpoint position input in step S2 based on the parameters input in step S1. The viewpoint corresponding position is calculated (step S3).
That is, as shown in FIG. 4, the viewpoint corresponding position specifying unit 10 displays the display surface D of the element image with the pixel interval Pb of the target display designated by the parameters, the lens interval Lb of the element lens Lp and the focal length F. A lens array La is disposed on a virtual space. Then, the viewpoint corresponding position specifying means 10 calculates, as the viewpoint corresponding position R, an intersection point of the line of sight b passing through the lens center Lc of the element lens Lp with the display surface D from the viewpoint position Vp. Here, the viewpoint corresponding position specifying means 10 calculates viewpoint corresponding positions R corresponding to all the element lenses for the viewpoint positions Vp of the left and right eyes.

そして、視点位置用要素画像生成装置1は、仮想空間撮影手段11によって、ステップS3で特定された視点対応位置に対応するサブピクセルおよび予め定めたその周辺サブピクセルのそれぞれのサブピクセル中心とレンズ中心とを通る線上において、仮想カメラで仮想空間を撮影(透視投影)する(ステップS4)。この仮想空間は、外部に予め記憶されている仮想三次元空間データである。   Then, the viewpoint position element image generation device 1 causes the virtual space photographing means 11 to select the subpixel center and lens center of each of the subpixels corresponding to the viewpoint corresponding position identified in step S3 and the peripheral subpixels determined in advance. The virtual space is photographed (perspective projection) with a virtual camera on a line passing through (step S4). This virtual space is virtual three-dimensional space data stored in advance externally.

また、視点位置用要素画像生成装置1は、仮想空間撮影手段11によって、ステップS4で撮影されたサブピクセルごとの画像から、要素画像ごとのレンダリング画像(撮影画像)を生成する(ステップS5)。これによって、仮想空間撮影手段11は、左右二眼のそれぞれの撮影画像を生成する。   Further, the viewpoint position element image generation device 1 generates a rendering image (photographed image) for each element image from the image for each sub-pixel photographed at step S4 by the virtual space photographing means 11 (step S5). By this, the virtual space photographing means 11 generates respective photographed images of the left and right eyes.

そして、視点位置用要素画像生成装置1は、フィルタリング手段12によって、ステップS5で生成された左右二眼ごとのレンダリング画像(撮影画像)において、要素レンズに対応するレンダリング領域をフィルタリングする(ステップS6)。すなわち、フィルタリング手段12は、要素レンズごとのレンダリング領域の画像を平均化する。   Then, the viewpoint position element image generation device 1 filters the rendering area corresponding to the element lens in the rendering image (captured image) for each of the two left and right eyes generated in step S5 by the filtering unit 12 (step S6) . That is, the filtering means 12 averages the image of the rendering area for each element lens.

そして、視点位置用要素画像生成装置1は、要素画像再構成手段13によって、ステップS6で平均化されたフィルタリング画像から、観察者の視点位置用の要素画像を再構成する(ステップS7)。すなわち、要素画像再構成手段13は、要素レンズごとに、ステップS2で特定された左右二眼の視点対応位置(xy座標位置)に、対応するフィルタリング画像の画素値を割り当てた画像信号(視点位置用要素画像)を生成する。   Then, the viewpoint position element image generation device 1 reconstructs the element image for the viewpoint position of the observer from the filtered image averaged in step S6 by the element image reconstruction means 13 (step S7). That is, the element image reconstruction unit 13 assigns an image signal (viewpoint position) to which the pixel value of the corresponding filtered image is assigned to the viewpoint corresponding position (xy coordinate position) of the left and right two eyes identified in step S2 for each element lens. Element image) is generated.

そして、視点位置用要素画像生成装置1は、要素画像再構成手段13によって、ステップS6で生成した画像信号(視点位置用要素画像)を、要素画像表示装置3に出力する(ステップS8)。   Then, the element image generating device for viewpoint position 1 outputs the image signal (element image for viewpoint position) generated in step S6 to the element image display device 3 by the element image reconstructing means 13 (step S8).

以上の動作によって、視点位置用要素画像生成装置1は、観察者の視点位置に対応した部分的な要素画像のみを生成し、観察者に提示することができる。
これによって、視点位置用要素画像生成装置1は、従来の手法に比べて、使用するメモリ容量を抑えて、高速に視点位置用要素画像を生成することができる。
By the above-described operation, the viewpoint position element image generating device 1 can generate only a partial element image corresponding to the viewpoint position of the observer and can present it to the observer.
As a result, the viewpoint position element image generation device 1 can generate the viewpoint position element image at high speed while suppressing the memory capacity to be used compared to the conventional method.

以上、本発明の実施形態に係る視点位置用要素画像生成装置1の構成および動作について説明したが、本発明はこの実施形態に限定されるものではない。
例えば、ここでは、仮想空間撮影手段11およびフィルタリング手段12において、レンダリング対象を、図6に示すようなひし形領域としたが、これは、要素レンズの配列に応じた形の領域とすればよい。例えば、要素レンズの水平間隔と垂直間隔が同じであれば、レンダリング対象の領域を正方形領域とすればよい。
As mentioned above, although composition and operation of an element picture generating device 1 for viewpoint position concerning an embodiment of the present invention were explained, the present invention is not limited to this embodiment.
For example, in the virtual space photographing means 11 and the filtering means 12 here, the object to be rendered is a diamond region as shown in FIG. 6, but this may be a region according to the arrangement of element lenses. For example, if the horizontal interval and the vertical interval of the element lenses are the same, the area to be rendered may be a square area.

S インテグラル立体シミュレーションシステム
1 視点位置用要素画像生成装置
10 視点対応位置特定手段
11 仮想空間撮影手段
12 フィルタリング手段
13 要素画像再構成手段
2 視点位置検出装置
3 要素画像表示装置
S Integral 3D Simulation System 1 Element Image Generating Device for Viewpoint Position 10 Point-to-Point Corresponding Position Identification Means 11 Virtual Space Photographing Means 12 Filtering Means 13 Element Image Reconstruction Means 2 Viewpoint Position Detection Device 3 Element Image Display Device

Claims (5)

インテグラル立体方式のシミュレーション対象となる対象表示装置が表示する立体像を他の表示装置でシミュレーションするために、観察者の視点位置に対応して前記立体像を表示する部分的な要素画像である視点位置用要素画像を生成する視点位置用要素画像生成装置であって、
前記他の表示装置と同じ座標系上に前記対象表示装置を仮想的に配置し、視点位置検出装置で検出された前記観察者の視点位置から、前記対象表示装置における各要素レンズのレンズ中心を通過して前記対象表示装置の表示面に到達する前記要素レンズごとの視点対応位置を計算する視点対応位置特定手段と、
前記視点対応位置から、当該視点対応位置に対応する前記要素レンズのレンズ中心を通過して、前記観察者までの視距離位置に配置した仮想カメラで、三次元空間データを透視投影により予め定めた投影面に仮想撮影し、前記要素レンズごとの予め定めた範囲でレンダリングする仮想空間撮影手段と、
この仮想空間撮影手段で前記要素レンズごとにレンダリングされた画像をフィルタリングして、当該要素レンズに対応する画素値を計算するフィルタリング手段と、
このフィルタリング手段で計算された前記要素レンズごとの画素値を、前記他の表示装置の要素レンズごとの前記視点対応位置に対応する画素に割り当てることで、前記視点位置用要素画像を生成する要素画像再構成手段と、
を備えることを特徴とする視点位置用要素画像生成装置。
It is a partial element image that displays the three-dimensional image corresponding to the viewpoint position of the observer in order to simulate the three-dimensional image displayed by the target display device to be simulated by the integral three-dimensional method on another display device. A viewpoint position element image generation apparatus that generates a viewpoint position element image, comprising:
The target display device is virtually arranged on the same coordinate system as the other display devices, and the lens centers of the element lenses in the target display device are determined from the viewpoint position of the observer detected by the viewpoint position detection device. Viewpoint corresponding position specifying means for calculating the position corresponding to the viewpoint of each of the element lenses passing through and reaching the display surface of the target display device;
Three-dimensional space data was previously determined by perspective projection with a virtual camera arranged from the viewpoint corresponding position to the visual distance position to the observer passing through the lens center of the element lens corresponding to the viewpoint corresponding position Virtual space photographing means for virtually photographing on a projection plane and rendering in a predetermined range for each of the element lenses;
Filtering means for filtering an image rendered for each of the element lenses by the virtual space imaging means, and calculating pixel values corresponding to the element lenses;
An element image for generating the viewpoint position element image by assigning the pixel value of each element lens calculated by the filtering unit to a pixel corresponding to the viewpoint corresponding position of each element lens of the other display device Reconstruction means,
An apparatus for generating an element image for viewpoint position, comprising:
前記仮想空間撮影手段は、前記視点対応位置を含んだ予め定めた視点近接領域内の複数の位置から、当該視点対応位置に対応する要素レンズのレンズ中心を通過して、前記観察者までの視距離位置に配置した仮想カメラで、前記三次元空間データを複数撮影し、前記視点対応位置と前記複数の位置との距離に応じて重み付け加算することでレンダリングすることを特徴とする請求項1に記載の視点位置用要素画像生成装置。   The virtual space photographing means is configured to, from a plurality of positions in a predetermined near eye area including the eye point corresponding position, pass through the lens center of an element lens corresponding to the eye point corresponding position to view to the observer The virtual camera arranged at the distance position captures a plurality of three-dimensional space data, and performs rendering by weighting addition according to the distance between the viewpoint corresponding position and the plurality of positions. An element image generating device for viewpoint position described. 前記フィルタリング手段は、前記対象表示装置の要素レンズごとにレンダリングされた画像をそのレンダリング範囲内で平均化することで当該要素レンズに対応する画素値を計算することを特徴とする請求項1または請求項2に記載の視点位置用要素画像生成装置。   2. The image processing apparatus according to claim 1, wherein the filtering unit calculates a pixel value corresponding to the element lens by averaging within a rendering range an image rendered for each element lens of the target display device. An element image generating apparatus for a viewpoint position according to Item 2. コンピュータを、請求項1から請求項3のいずれか一項に記載の視点位置用要素画像生成装置として機能させるための視点位置用要素画像生成プログラム。   The viewpoint position element image generation program for causing a computer to function as the viewpoint position element image generation device according to any one of claims 1 to 3. インテグラル立体方式のシミュレーション対象となる対象表示装置が表示する立体像を他の表示装置でシミュレーションするインテグラル立体シミュレーションシステムであって、
観察者の視点位置を検出する視点位置検出装置と、
前記観察者の視点位置に対応して立体像を表示する視点位置用要素画像を生成する請求項1から請求項3のいずれか一項に記載の視点位置用要素画像生成装置と、
この視点位置用要素画像生成装置で生成された視点位置用要素画像を表示する前記他の表示装置である要素画像表示装置と、
を備えることを特徴とするインテグラル立体シミュレーションシステム。
An integral three-dimensional simulation system for simulating, with another display device, a three-dimensional image displayed by a target display device to be simulated by the integral three-dimensional method,
A viewpoint position detection device that detects a viewer's viewpoint position;
The viewpoint position element image generation apparatus according to any one of claims 1 to 3, which generates a viewpoint position element image for displaying a stereoscopic image corresponding to the observer's viewpoint position.
An element image display apparatus which is the other display apparatus for displaying the element image for viewpoint position generated by the element image generating apparatus for viewpoint position;
An integral three-dimensional simulation system comprising:
JP2015109716A 2015-05-29 2015-05-29 Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system Active JP6543096B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015109716A JP6543096B2 (en) 2015-05-29 2015-05-29 Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015109716A JP6543096B2 (en) 2015-05-29 2015-05-29 Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system

Publications (2)

Publication Number Publication Date
JP2016224656A JP2016224656A (en) 2016-12-28
JP6543096B2 true JP6543096B2 (en) 2019-07-10

Family

ID=57748464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015109716A Active JP6543096B2 (en) 2015-05-29 2015-05-29 Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system

Country Status (1)

Country Link
JP (1) JP6543096B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7141833B2 (en) * 2018-02-28 2022-09-26 日本放送協会 Image processing device and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238369A (en) * 1996-02-29 1997-09-09 Mitsubishi Electric Corp Three-dimension image display device
JP4928476B2 (en) * 2008-01-22 2012-05-09 日本放送協会 Stereoscopic image generating apparatus, method thereof and program thereof
JP5747679B2 (en) * 2011-06-17 2015-07-15 国立研究開発法人情報通信研究機構 Presentation method of 3D image
JP5845123B2 (en) * 2012-03-22 2016-01-20 日本放送協会 Three-dimensional model-integral image conversion apparatus and program thereof

Also Published As

Publication number Publication date
JP2016224656A (en) 2016-12-28

Similar Documents

Publication Publication Date Title
JP4764305B2 (en) Stereoscopic image generating apparatus, method and program
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
RU2689971C2 (en) Stereoscopic imaging device
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP6018468B2 (en) Depth range calculation device and program thereof
TW201230775A (en) Three-dimensional image display apparatus, method and computer readable medium
JPWO2019198784A1 (en) Light field image generation system, image display system, shape information acquisition server, image generation server, display device, light field image generation method and image display method
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP7141833B2 (en) Image processing device and image processing program
JPH07240945A (en) Virtual space generating and presenting device
KR101208767B1 (en) Stereoscopic image generation method, device and system using circular projection and recording medium for the same
US20130342536A1 (en) Image processing apparatus, method of controlling the same and computer-readable medium
JP6543096B2 (en) Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system
WO2014119555A1 (en) Image processing device, display device and program
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
JP6846165B2 (en) Image generator, image display system and program
CN116309854A (en) Method, device, equipment, system and storage medium for calibrating augmented reality equipment
KR101567002B1 (en) Computer graphics based stereo floting integral imaging creation system
KR100893381B1 (en) Methods generating real-time stereo images
KR101425321B1 (en) System for displaying 3D integrated image with adaptive lens array, and method for generating elemental image of adaptive lens array
CN105913379A (en) Virtual reality terminal, its picture display method and apparatus
Lin et al. Perceived depth analysis for view navigation of stereoscopic three-dimensional models
JP2014216719A (en) Image processing apparatus, stereoscopic image display device, image processing method and program
JP7357884B2 (en) VR test system and VR test method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190614

R150 Certificate of patent or registration of utility model

Ref document number: 6543096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250