JP2020028114A - Stereoscopic image generation device and program thereof - Google Patents

Stereoscopic image generation device and program thereof Download PDF

Info

Publication number
JP2020028114A
JP2020028114A JP2019116115A JP2019116115A JP2020028114A JP 2020028114 A JP2020028114 A JP 2020028114A JP 2019116115 A JP2019116115 A JP 2019116115A JP 2019116115 A JP2019116115 A JP 2019116115A JP 2020028114 A JP2020028114 A JP 2020028114A
Authority
JP
Japan
Prior art keywords
cost volume
image
viewpoint
depth layer
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019116115A
Other languages
Japanese (ja)
Other versions
JP7416573B2 (en
Inventor
正規 加納
Masanori Kano
正規 加納
三浦 雅人
Masato Miura
雅人 三浦
健介 久富
Kensuke Hisatomi
健介 久富
洗井 淳
Jun Arai
淳 洗井
河北 真宏
Masahiro Kawakita
真宏 河北
三科 智之
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Publication of JP2020028114A publication Critical patent/JP2020028114A/en
Application granted granted Critical
Publication of JP7416573B2 publication Critical patent/JP7416573B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

To provide an element image generation device capable of efficiently calculating a cost volume.SOLUTION: In a stereoscopic image generation system 1, an element image generation device 3 includes a multi-view image input means 30, parameter setting means 31, sampling point setting means 32, cost volume calculation means 33 for calculating a cost volume by image-based rendering, cost volume interpolation means 34 for calculating the shift amount on a depth layer and interpolating the cost volume according to the calculated shift amount, light color information generation means 35 for generating light color information from a cost volume by image-based rendering, and element image generating means 36 for generating an element image from light ray color information.SELECTED DRAWING: Figure 1

Description

本発明は、イメージベースドレンダリングにより立体画像を生成する立体画像生成装置及びそのプログラムに関する。   The present invention relates to a three-dimensional image generation device that generates a three-dimensional image by image-based rendering and a program therefor.

立体テレビをはじめとした将来の立体映像メディアの研究開発が盛んに行われている。これを実現するための手法は複数知られているが、それら手法の一つにインテグラル立体方式がある(非特許文献1,2)。インテグラル立体方式の特徴は、特殊な眼鏡が不要で、上下左右への運動視差を有することである。その理由は、撮影・表示にレンズアレイを用いることで様々な方向からの光線を取得して表示できるためである。ここで、インテグラル立体方式の表示に用いられる画像を要素画像と呼ぶ。つまり、インテグラル立体方式の撮影においては要素画像を生成すればよい。   Research and development of future three-dimensional image media such as three-dimensional television have been actively conducted. A plurality of methods for realizing this are known, and one of those methods is an integral three-dimensional method (Non-Patent Documents 1 and 2). The feature of the integral three-dimensional system is that special glasses are not required, and there is a vertical and horizontal motion parallax. The reason is that light rays from various directions can be acquired and displayed by using a lens array for photographing and displaying. Here, an image used for the display in the integral three-dimensional system is called an element image. That is, in the integral three-dimensional imaging, an element image may be generated.

インテグラル立体方式の撮影技術としては、レンズアレイを用いる手法以外にも様々な手法がある。例えば、複数のカメラで三次元モデルを構築し、その後、再度レンダリングして要素画像を生成する手法が知られている(非特許文献3)。また、複数のカメラで撮影し、三次元モデルを構築せずに要素画像の生成に必要な光線を直接算出する手法も知られている(非特許文献4)。   As an integral three-dimensional imaging technique, there are various techniques other than a technique using a lens array. For example, a method is known in which a three-dimensional model is constructed by a plurality of cameras and then rendered again to generate an element image (Non-Patent Document 3). There is also known a method of directly calculating light rays necessary for generating an element image without photographing with a plurality of cameras and constructing a three-dimensional model (Non-Patent Document 4).

後者の手法で要素画像を生成する場合を考える。この従来手法では、イメージベースドレンダリング(IBR:Image-based rendering)という技術を用いて、要素画像の生成に必要な光線色情報を生成できる(非特許文献5)。イメージベースドレンダリングは、カメラを2次元状に並べたカメラアレイを用いて多視点画像を撮影し、この多視点画像に光線を挿入することで任意視点画像を生成するものである。   Consider the case where an element image is generated by the latter method. In this conventional method, light color information required for generating an element image can be generated by using a technique called image-based rendering (IBR) (Non-Patent Document 5). In the image-based rendering, an arbitrary viewpoint image is generated by photographing a multi-view image using a camera array in which cameras are arranged two-dimensionally and inserting light rays into the multi-view image.

以下、イメージベースドレンダリングについて説明する。任意視点画像の生成には、その光線色情報がわかればよい。そこで、光線色情報を得るために、撮影空間に幾つか奥行きレイヤを設定し、光線がどの奥行きレイヤから発生したものかを推定する。奥行きレイヤの推定には、カラーコンシステンシ(color consistency)コストなどの一般的なコストを用いる。このコストを全ピクセルで集めたものをコストマップ(コストの2次元配列)と呼ぶ。さらにコストマップを奥行き方向に拡張し、このコストマップを全奥行きレイヤで集めたものをコストボリューム(コストの3次元配列)と呼ぶ。このコストボリュームを算出できれば、コストボリュームから各光線が発生した奥行きレイヤを推定し、奥行きレイヤから光線色情報を算出できる。   Hereinafter, the image-based rendering will be described. In order to generate an arbitrary viewpoint image, the ray color information may be known. Therefore, in order to obtain light ray color information, several depth layers are set in the photographing space, and it is estimated from which depth layer the light ray originated. For the estimation of the depth layer, a general cost such as a color consistency cost is used. The sum of the costs for all pixels is called a cost map (two-dimensional array of costs). Further, the cost map is extended in the depth direction, and a collection of the cost maps in all depth layers is called a cost volume (a three-dimensional array of costs). If this cost volume can be calculated, it is possible to estimate the depth layer in which each light ray has occurred from the cost volume, and calculate the light color information from the depth layer.

G. Lippmann, “Epreuves reversibles Photographies integrals,” Comptes-Rendus Academie des Sciences 146, 446-451 (1908).G. Lippmann, “Epreuves reversibles Photographies integrals,” Comptes-Rendus Academie des Sciences 146, 446-451 (1908). F. Okano, H. Hoshino, J. Arai, and I. Yuyama, “Real-time pickup method for a three-dimensional image based on integral photography,” Appl. Opt. 36(7), 1598-1603 (1997).F. Okano, H. Hoshino, J. Arai, and I. Yuyama, “Real-time pickup method for a three-dimensional image based on integral photography,” Appl. Opt. 36 (7), 1598-1603 (1997) . 岩舘祐一,片山美和, “斜投影によるインテグラル立体像の生成手法”,映像情報メディア学会技術報告, Vol.34, No.43, 3DIT2010-66, IDY2010-63, IST2010-52, 2010, p.17-20Yuichi Iwadate, Miwa Katayama, "Integral stereoscopic image generation method by oblique projection", IEICE Technical Report, Vol.34, No.43, 3DIT2010-66, IDY2010-63, IST2010-52, 2010, p. 17-20 Y. Taguchi, T. Koike, K. Takahashi and T. Naemura, "TransCAIP: A live 3D TV system using a camera array and an integral photography display with interactive control of viewing parameters." IEEE Transactions on Visualization and Computer Graphics 15.5 (2009): 841-852.Y. Taguchi, T. Koike, K. Takahashi and T. Naemura, "TransCAIP: A live 3D TV system using a camera array and an integral photography display with interactive control of viewing parameters." IEEE Transactions on Visualization and Computer Graphics 15.5 ( (2009): 841-852. 田口裕一, 高橋桂太, 苗村健,“ネットワークカメラアレイを用いた実時間全焦点自由視点映像合成システム”, 電子情報通信学会技術研究報告, vol. 107, no. 539, PRMU2007-258, pp. 79-86 (2008)Yuichi Taguchi, Keita Takahashi, Ken Naemura, "Real-Time All-Focus Free Viewpoint Video Synthesis System Using Network Camera Array", IEICE Technical Report, vol. 107, no. 539, PRMU2007-258, pp. 79 -86 (2008)

しかし、従来手法では、要素画像を生成するためには、膨大な量の光線色情報が必要となり、コストボリュームの計算量が膨大になってしまうという問題がある。
さらに、従来手法では、オクルージョンなどの影響により、コストボリュームにより単純な奥行き推定処理を行っても、高精度に奥行き推定ができないという問題もある。これは、ある1視点から生成したコストボリュームでは精度が低くなるためである。
However, in the conventional method, an enormous amount of light color information is required to generate an element image, and there is a problem that a calculation amount of a cost volume becomes enormous.
Furthermore, in the conventional method, there is a problem that depth estimation cannot be performed with high accuracy even if simple depth estimation processing is performed using a cost volume due to the influence of occlusion and the like. This is because the accuracy is low in a cost volume generated from one viewpoint.

そこで、本発明は、効率的にコストボリュームを算出できる立体画像生成装置及びそのプログラムを提供することを課題とする。
さらに、本発明は、簡易で正確な奥行き推定処理を行えるように高精度なコストボリュームを算出できる立体画像生成装置及びそのプログラムを提供することを課題とする。
Therefore, an object of the present invention is to provide a three-dimensional image generation device and a program for efficiently calculating a cost volume.
Still another object of the present invention is to provide a stereoscopic image generation device and a program for calculating a cost volume with high accuracy so that simple and accurate depth estimation processing can be performed.

前記した課題に鑑みて、本発明に係る立体画像生成装置は、撮影カメラを二次元状に並べたカメラアレイが被写体を撮影した多視点画像を用いて、イメージベースドレンダリングにより被写体からの光線を表す光線情報を生成し、その光線情報から立体画像を生成する立体画像生成装置であって、パラメータ設定手段と、コストボリューム算出手段と、コストボリューム内挿手段と、光線情報生成手段と、立体画像生成手段とを備える構成とした。   In view of the above-described problem, the stereoscopic image generation device according to the present invention represents light rays from a subject by image-based rendering using a multi-view image of a subject captured by a camera array in which two or more photographing cameras are arranged. A three-dimensional image generating apparatus that generates light information and generates a three-dimensional image from the light information, comprising: a parameter setting means, a cost volume calculating means, a cost volume interpolating means, a light information generating means, and a three-dimensional image generating means. Means.

かかる構成によれば、パラメータ設定手段は、立体画像を表示する立体表示装置が備える光学素子アレイを被写体が位置する撮影空間内に配置した仮想光学素子アレイと平行で、かつ、奥行き方向で所定間隔となるように撮影空間内に配置された奥行きレイヤと、視点位置と、前記視点位置同士の間となる内挿位置とが予め設定される。
コストボリューム算出手段は、イメージベースドレンダリングにより、奥行きレイヤ上のサンプリング点を多視点画像に投影したときの画像間の類似度又は非類似度を表すコストの三次元配列であるコストボリュームを、視点位置毎に算出する。
コストボリューム内挿手段は、視点位置と内挿位置とのシフト量を奥行きレイヤ上で算出し、算出したシフト量に応じて、コストボリューム算出手段が算出した各視点位置のコストボリュームから内挿位置のコストボリュームを内挿する。
このように、立体画像生成装置は、シフト量に応じてコストボリュームを内挿するので、効率的にコストボリュームを算出することができる。
According to such a configuration, the parameter setting unit is configured such that the optical element array provided in the stereoscopic display device for displaying the stereoscopic image is parallel to the virtual optical element array arranged in the imaging space where the subject is located, and at a predetermined interval in the depth direction. Are set in advance, a depth layer arranged in the shooting space, a viewpoint position, and an interpolation position between the viewpoint positions.
The cost volume calculation means converts the cost volume, which is a three-dimensional array of costs representing the similarity or dissimilarity between images when the sampling points on the depth layer are projected onto the multi-viewpoint image by image-based rendering, to the viewpoint position. It is calculated every time.
The cost volume interpolation unit calculates the shift amount between the viewpoint position and the interpolation position on the depth layer, and calculates the interpolation position from the cost volume of each viewpoint position calculated by the cost volume calculation unit according to the calculated shift amount. Interpolate the cost volume of
As described above, since the three-dimensional image generation device interpolates the cost volume according to the shift amount, the cost volume can be efficiently calculated.

光線情報生成手段は、イメージベースドレンダリングにより、視点位置及び内挿位置のコストボリュームから光線が発生した奥行きレイヤを推定し、推定した奥行きレイヤにおける光線情報を生成する。
立体画像生成手段は、光線情報から立体画像を生成する。
The ray information generation unit estimates the depth layer in which the ray has occurred from the cost volume of the viewpoint position and the interpolation position by image-based rendering, and generates ray information in the estimated depth layer.
The three-dimensional image generating means generates a three-dimensional image from the light beam information.

ここで、立体画像生成装置は、新たにコストボリュームを内挿するのではなく、算出済みのコストボリュームを補正してもよい。つまり、立体画像生成装置は、コストボリューム内挿手段の代わりに、コストボリューム補正手段を備えてもよい。
コストボリューム補正手段は、補正対象の視点位置同士のシフト量を奥行きレイヤ上で算出し、算出したシフト量に応じて、補正対象のコストボリュームを補正する。
このように、立体画像生成装置は、シフト量に応じてコストボリュームを補正するので、高精度なコストボリュームを算出することができる。
Here, the stereoscopic image generation device may correct the calculated cost volume instead of newly interpolating the cost volume. That is, the stereoscopic image generation device may include a cost volume correction unit instead of the cost volume interpolation unit.
The cost volume correction unit calculates the shift amount between the viewpoint positions to be corrected on the depth layer, and corrects the cost volume to be corrected according to the calculated shift amount.
As described above, since the three-dimensional image generation device corrects the cost volume according to the shift amount, it is possible to calculate the cost volume with high accuracy.

なお、本発明に係る立体画像生成装置は、一般的なコンピュータを前記した各手段として協調動作させるプログラムで実現することもできる。   Note that the stereoscopic image generation device according to the present invention can also be realized by a program that causes a general computer to perform a cooperative operation as the above-described units.

本発明によれば、シフト量に応じてコストボリュームを内挿するので、効率的にコストボリュームを算出し、コストボリュームの算出に要する膨大な演算量を低減することができる。
本発明によれば、シフト量に応じてコストボリュームを補正するので、高精度なコストボリュームを算出し、簡易で正確な奥行き推定処理が可能となり、高品質な立体画像を生成することができる。
According to the present invention, since the cost volume is interpolated according to the shift amount, the cost volume can be calculated efficiently, and the enormous amount of calculation required for calculating the cost volume can be reduced.
According to the present invention, since the cost volume is corrected according to the shift amount, a highly accurate cost volume can be calculated, a simple and accurate depth estimation process can be performed, and a high-quality stereoscopic image can be generated.

第1、第3実施形態に係る要素画像生成装置の構成を示すブロック図である。It is a block diagram showing composition of an element picture generation device concerning a 1st, 3rd embodiment. 第1実施形態において、撮影空間を説明する説明図である。FIG. 3 is an explanatory diagram illustrating a shooting space in the first embodiment. 第1実施形態において、(a)及び(b)は、コストボリュームの算出に必要な光線群を説明する説明図である。In the first embodiment, (a) and (b) are explanatory diagrams illustrating a ray group necessary for calculating a cost volume. 第1実施形態において、(a)及び(b)は、光線領域を説明する説明図である。In the first embodiment, (a) and (b) are explanatory diagrams illustrating a light beam area. 第1実施形態において、(a)は奥行きレイヤを説明する説明図であり、(b)はサンプリング点を説明する説明図である。In the first embodiment, (a) is an explanatory diagram illustrating a depth layer, and (b) is an explanatory diagram illustrating a sampling point. 第1実施形態において、(a)及び(b)は、奥行きレイヤ毎のシフト量を説明する説明図である。In the first embodiment, (a) and (b) are explanatory diagrams illustrating the shift amount for each depth layer. 第1実施形態において、シフト量の算出を説明する説明図である。FIG. 4 is an explanatory diagram illustrating calculation of a shift amount in the first embodiment. 第1実施形態において、奥行きレイヤでのシフト方向を説明する説明図である。FIG. 4 is an explanatory diagram illustrating a shift direction in a depth layer in the first embodiment. 第1実施形態において、MATLABで表記された計算式を説明する説明図である。FIG. 4 is an explanatory diagram illustrating a calculation formula described in MATLAB in the first embodiment. 第1実施形態において、コストボリュームの内挿を説明する説明図である。FIG. 4 is an explanatory diagram illustrating interpolation of a cost volume in the first embodiment. 第1実施形態において、要素画像の生成を説明する説明図である。FIG. 4 is an explanatory diagram illustrating generation of an element image in the first embodiment. 図1の要素画像生成装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the element image generation device of FIG. 1. 第2、第4実施形態に係る要素画像生成装置の構成を示すブロック図である。It is a block diagram showing composition of an element image generation device concerning a 2nd, 4th embodiment. 第2実施形態において、コストボリュームの補正を説明する説明図である。FIG. 13 is an explanatory diagram illustrating correction of a cost volume in the second embodiment. 図13の要素画像生成装置の動作を示すフローチャートである。14 is a flowchart showing the operation of the element image generation device of FIG. 第3実施形態において、(a)及び(b)は透視投影レンズシフトの光線構造を説明する説明図である。In the third embodiment, (a) and (b) are explanatory diagrams illustrating a light beam structure of a perspective projection lens shift. 第3実施形態において、サンプリング点を説明する説明図である。FIG. 13 is an explanatory diagram illustrating sampling points in a third embodiment. 第3実施形態において、サンプリング点同士の間隔を説明する説明図である。FIG. 13 is an explanatory diagram illustrating an interval between sampling points in a third embodiment. 第3実施形態において、シフト量の算出を説明する説明図である。FIG. 13 is an explanatory diagram illustrating calculation of a shift amount in a third embodiment. 第3実施形態において、シフト量の算出を説明する説明図である。FIG. 13 is an explanatory diagram illustrating calculation of a shift amount in a third embodiment. 第3実施形態において、コストボリュームの内挿を説明する説明図である。FIG. 14 is an explanatory diagram illustrating interpolation of a cost volume in the third embodiment.

以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段には同一の符号を付し、説明を省略した。   Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, the same means is denoted by the same reference numeral, and the description is omitted.

(第1実施形態)
[立体画像生成システムの概要]
図1を参照し、第1実施形態に係る立体画像生成システム1の概要を説明する。
立体画像生成システム1は、イメージベースドレンダリングにより、インテグラル立体方式の要素画像(立体画像)を生成するものである。図1に示すように、立体画像生成システム1は、カメラアレイ2と、要素画像生成装置(立体画像生成装置)3とを備える。
(1st Embodiment)
[Overview of 3D image generation system]
An overview of a stereoscopic image generation system 1 according to the first embodiment will be described with reference to FIG.
The stereoscopic image generation system 1 generates an integral stereoscopic element image (stereoscopic image) by image-based rendering. As shown in FIG. 1, the stereoscopic image generation system 1 includes a camera array 2 and an element image generation device (stereoscopic image generation device) 3.

なお、「イメージベースドレンダリング」とは、異なる視点位置で被写体を撮影した多視点画像を用いて、3次元空間の視覚情報を光線として記述する枠組みに基づいて、任意の視点位置の画像を合成する技術のことである。例えば、イメージベースドレンダリングは、前記した非特許文献5に詳細に記載されている。   Note that “image-based rendering” is to synthesize an image at an arbitrary viewpoint position based on a framework that describes visual information in a three-dimensional space as light rays using a multi-view image obtained by photographing a subject at a different viewpoint position. Technology. For example, image-based rendering is described in detail in Non-Patent Document 5 described above.

カメラアレイ2は、撮影カメラ20を二次元状に並べたものであり、異なる視点位置で被写体を撮影した多視点画像を生成し、生成した多視点画像を要素画像生成装置3に出力する。例えば、カメラアレイ2は、縦横に8台ずつ等間隔で配列された計64台の撮影カメラ20を備え、64視点分の多視点画像を生成する。また、カメラアレイ2は、撮影カメラ20が同一平面(図2のX−Y面)上に位置するように、図示を省略したフレームに撮影カメラ20を搭載している。例えば、撮影カメラ20としては、一般的なネットワークカメラを用いることができる。
なお、カメラアレイ2では、カメラ校正を行えばよいので、各撮影カメラ20が厳密に同一平面に位置せずともよい。また、カメラアレイ2の詳細は、前記した非特許文献5に詳細に記載されているため、これ以上の説明を省略する。
The camera array 2 is configured by arranging the photographing cameras 20 two-dimensionally. The camera array 2 generates a multi-viewpoint image in which a subject is photographed at different viewpoint positions, and outputs the generated multi-viewpoint image to the element image generation device 3. For example, the camera array 2 includes a total of 64 photographing cameras 20 arranged at equal intervals in the vertical and horizontal directions, and generates a multi-viewpoint image for 64 viewpoints. Further, the camera array 2 has the photographing camera 20 mounted on a frame (not shown) so that the photographing camera 20 is located on the same plane (the XY plane in FIG. 2). For example, a general network camera can be used as the photographing camera 20.
In the camera array 2, since the camera calibration may be performed, the photographing cameras 20 do not have to be strictly located on the same plane. Since the details of the camera array 2 are described in detail in Non-Patent Document 5 described above, further description is omitted.

[要素画像生成装置の構成]
以下、要素画像生成装置3の構成を説明する。
要素画像生成装置3は、カメラアレイ2からの多視点画像を用いて、イメージベースドレンダリングにより、被写体からの光線の色を表す光線色情報(光線情報)を生成し、その光線色情報から要素画像を生成するものである。図1に示すように、要素画像生成装置3は、多視点画像入力手段30と、パラメータ設定手段31と、サンプリング点設定手段32と、コストボリューム算出手段33と、コストボリューム内挿手段34と、光線色情報生成手段(光線情報生成手段)35と、要素画像生成手段(立体画像生成手段)36とを備える。
[Configuration of Element Image Generation Device]
Hereinafter, the configuration of the element image generation device 3 will be described.
The element image generating device 3 generates light color information (light information) representing the color of the light from the subject by image-based rendering using the multi-view image from the camera array 2 and uses the element image from the light color information. Is generated. As shown in FIG. 1, the element image generating device 3 includes a multi-view image input unit 30, a parameter setting unit 31, a sampling point setting unit 32, a cost volume calculation unit 33, a cost volume interpolation unit 34, A light color information generating means (light information generating means) 35 and an element image generating means (stereoscopic image generating means) 36 are provided.

多視点画像入力手段30は、カメラアレイ2から多視点画像が入力され、入力された多視点画像をコストボリューム算出手段33に出力するものである。   The multi-viewpoint image input unit 30 receives a multi-viewpoint image from the camera array 2 and outputs the input multi-viewpoint image to the cost volume calculation unit 33.

パラメータ設定手段31は、要素画像の生成に必要な各種パラメータが予め設定されるものである。例えば、立体画像生成システム1の利用者が、図示を省略したマウス、キーボード等の操作手段を介して、パラメータ設定手段31に各種パラメータを設定する。そして、パラメータ設定手段31は、設定された各種パラメータをサンプリング点設定手段32に出力する。   The parameter setting means 31 is for setting various parameters necessary for generating the element image in advance. For example, a user of the three-dimensional image generation system 1 sets various parameters in the parameter setting unit 31 via operation units such as a mouse and a keyboard (not shown). Then, the parameter setting means 31 outputs the set various parameters to the sampling point setting means 32.

各種パラメータとしては、後記する仮想レンズアレイ(仮想光学素子アレイ)の位置及びピッチと、仮想要素レンズ(仮想光学素子)の個数と、撮影空間と、奥行きレイヤと、視点位置と、内挿位置とがあげられる。これらパラメータの詳細は後記する。   The various parameters include the position and pitch of a virtual lens array (virtual optical element array) described later, the number of virtual element lenses (virtual optical elements), the imaging space, the depth layer, the viewpoint position, the interpolation position, and the like. Is raised. Details of these parameters will be described later.

サンプリング点設定手段32は、撮影空間内の奥行きレイヤ上において、平行投影のサンプリング点が予め設定されるものである。例えば、サンプリング点設定手段32は、後記する奥行きレイヤの平面と光線ベクトル(位置・方向の6自由度)の交点をサンプリング点として設定する。そして、サンプリング点設定手段32は、設定されたサンプリング点と各種パラメータをコストボリューム算出手段33に出力する。
なお、平行投影とは、視点位置毎の光線が平行になる投影のことである。
The sampling point setting means 32 is for presetting parallel sampling points on a depth layer in the photographing space. For example, the sampling point setting means 32 sets an intersection point between a plane of a depth layer described later and a ray vector (6 degrees of freedom in position and direction) as a sampling point. Then, the sampling point setting means 32 outputs the set sampling points and various parameters to the cost volume calculation means 33.
Note that the parallel projection is a projection in which light rays at each viewpoint position are parallel.

<パラメータ及びサンプリング点の設定>
図2〜図5を参照し、パラメータ及びサンプリング点の設定を詳細に説明する。なお、図2では、水平方向をX軸、垂直方向をY軸、奥行き方向をZ軸として図示した。
本実施形態では、図2に示すように、3体の被写体9(9〜9)が撮影空間α内に配置されていることとする。奥行き方向において、被写体9〜9が撮影空間αの手前側から順に並んでおり、被写体9が撮影空間αの中央に位置する。また、水平方向において、被写体9〜9は、左右にずれて配置される。
<Setting of parameters and sampling points>
The setting of parameters and sampling points will be described in detail with reference to FIGS. In FIG. 2, the horizontal direction is shown as an X axis, the vertical direction is shown as a Y axis, and the depth direction is shown as a Z axis.
In the present embodiment, as shown in FIG. 2, the three-body object 9 (9 1 to 9 3) is to be disposed within the imaging space alpha. In the depth direction, the object 9 to 93 3 are aligned from the front side of the imaging space alpha in order, subject 9 2 is positioned at the center of the imaging space alpha. Further, in the horizontal direction, the object 91 to 93 3 are arranged offset to the left and right.

以下、「インテグラル立体表示装置」を「IP立体表示装置」と略記する。このIP立体表示装置は、所定個数の要素レンズを二次元状に並べたレンズアレイを備える。従って、撮影空間αにおいて、インテグラル立体表示装置のレンズアレイ面となる場所に、仮想レンズアレイLを設定する。   Hereinafter, the “integral stereoscopic display device” is abbreviated as “IP stereoscopic display device”. This IP stereoscopic display device includes a lens array in which a predetermined number of element lenses are arranged two-dimensionally. Therefore, the virtual lens array L is set at a position in the photographing space α that will be the lens array surface of the integral stereoscopic display device.

仮想レンズアレイLは、IP立体表示装置のレンズアレイを撮影空間α内に配置したものである。つまり、仮想レンズアレイLは、撮影空間αにおいて、IP立体表示装置のレンズアレイを仮想したものである。この仮想レンズアレイLは、実物のレンズアレイと同様、二次元状に並んだ所定個数の仮想要素レンズlを備える。ここで、仮想要素レンズl同士の間隔(素子間隔)がピッチとなる。また、仮想レンズアレイLは、奥行き方向で撮影空間αの中央に位置し、奥行きレイヤD(図5)と平行になる(X−Y面上に位置する)。
以上を考慮し、パラメータ設定手段31では、仮想レンズアレイLの位置と方向、仮想要素レンズlのピッチ及び個数とを設定すればよい。
The virtual lens array L is one in which the lens array of the IP stereoscopic display device is arranged in the photographing space α. That is, the virtual lens array L is a virtual one of the lens array of the IP stereoscopic display device in the photographing space α. This virtual lens array L includes a predetermined number of virtual element lenses 1 arranged two-dimensionally, like a real lens array. Here, the pitch (element spacing) between the virtual element lenses 1 is the pitch. The virtual lens array L is located at the center of the imaging space α in the depth direction, and is parallel to the depth layer D (FIG. 5) (located on the XY plane).
In consideration of the above, the parameter setting unit 31 may set the position and direction of the virtual lens array L, the pitch and the number of the virtual element lenses l.

IP立体表示装置の視域や奥行きをどこまで再現するかにより、立体像を再現する範囲が定まり、この再現範囲をカメラアレイ2で撮影する。従って、撮影空間αが立体像の再現範囲を含んでいればよい。なお、図2では、撮影空間αをハッチングで図示した。奥行き方向では、撮影空間αが、仮想レンズアレイLを中心として、手前側位置αから奥側位置αまでの範囲となる。また、水平方向では、撮影空間αが、最も外側の仮想要素レンズlの主点からIP立体表示装置の視域角だけ拡がった範囲となる。
以上を考慮し、パラメータ設定手段31では、撮影空間αを設定すればよい。
The range in which the stereoscopic image is reproduced is determined by the extent to which the viewing range and the depth of the IP stereoscopic display device are reproduced, and the reproduction range is photographed by the camera array 2. Therefore, the imaging space α only needs to include the reproduction range of the stereoscopic image. In FIG. 2, the photographing space α is shown by hatching. In the depth direction, the imaging space alpha is around the virtual lens array L, in the range of from the front position alpha F deep side position alpha B. In the horizontal direction, the photographing space α is a range extending from the principal point of the outermost virtual element lens 1 by the viewing angle of the IP stereoscopic display device.
In consideration of the above, the parameter setting unit 31 may set the photographing space α.

図3(a)には、平行投影において、コストボリュームの算出に必要な光線群を矢印で図示した。同一線種の光線群が、平行投影カメラで撮影したときの同一視点に対応する。つまり、実線、一点鎖線及び破線の光線群のそれぞれが、別々の視点位置に対応する。
以上を考慮し、パラメータ設定手段31では、コストボリュームの算出に必要な視点位置と、コストボリュームを内挿したい視点位置である内挿位置とを設定すればよい。
In FIG. 3A, light rays necessary for calculating the cost volume in the parallel projection are shown by arrows. Ray groups of the same line type correspond to the same viewpoint when photographed by a parallel projection camera. That is, each of the solid-line, dashed-dotted line, and dashed-line ray groups corresponds to a different viewpoint position.
In consideration of the above, the parameter setting unit 31 may set a viewpoint position necessary for calculating the cost volume and an interpolation position which is a viewpoint position at which the cost volume is to be interpolated.

図3(b)には図3(a)の光線群で形成される光線領域を図示し、図面を見やすくするため、図4(a)には図3(b)の光線領域のみを図示した。なお、「光線領域」とは、撮影空間αにおいて、同一視点に対応する光源群が仮想レンズアレイLを通過する領域のことである。実際のインテグラル立体方式では、光線群がもっと密なので、図4(a)の光線領域を高密度にしたものを図4(b)に図示した。図4(b)では、図4(a)の破線及び一点鎖線の光線領域の間に点線の光線領域を追加し、一点鎖線及び実線の光線領域の間に二点鎖線の光線領域を追加した。   FIG. 3B shows a light beam region formed by the light beam group of FIG. 3A, and FIG. 4A shows only the light beam region of FIG. . The “light ray region” is a region in the imaging space α where the light source group corresponding to the same viewpoint passes through the virtual lens array L. In the actual integral three-dimensional system, since the light beam group is denser, FIG. 4B shows a light beam region in FIG. In FIG. 4B, a dotted ray region is added between the dashed line and the dashed line in FIG. 4A, and a two-dot chain line is added between the dashed line and the solid line. .

図5(a)に示すように、撮影空間αに奥行きレイヤD(D〜D)を設定する。この奥行きレイヤDは、仮想レンズアレイLと平行である。また、奥行きレイヤDは、奥行き方向において、仮想レンズアレイLを基準として、撮影空間α内で等間隔に位置する。例えば、奥行きレイヤD〜Dが、撮影空間αの手前側から奥側まで順に等間隔で並んでいる。奥行きレイヤDは、撮影空間αの手前側位置αに重なる。奥行きレイヤDは、奥行き方向で撮影空間の中央に位置し、仮想レンズアレイLに重なる。奥行きレイヤDは、撮影空間αの奥側位置αに重なる。
以上を考慮し、パラメータ設定手段31では、奥行きレイヤDを設定すればよい。なお、奥行きレイヤDは、奥行き方向で必ずしも等間隔である必要はない。
As shown in FIG. 5 (a), it sets the depth layer D (D 1 ~D 5) in the imaging space alpha. This depth layer D is parallel to the virtual lens array L. The depth layer D is located at equal intervals in the imaging space α with respect to the virtual lens array L in the depth direction. For example, the depth layers D 1 to D 5 are arranged at regular intervals from the near side to the far side of the imaging space α. Depth layer D 1 overlaps the front side position alpha F of the imaging space alpha. Depth Layer D 3 is located in the center of the imaging space in the depth direction, it overlaps the virtual lens array L. Depth layer D 5 overlaps the back side position alpha B the imaging space alpha.
In consideration of the above, the parameter setting unit 31 may set the depth layer D. Note that the depth layers D do not necessarily have to be at equal intervals in the depth direction.

平行投影において、ある1視点、例えば、図4(a)で実線の光線群に対応する視点位置について考える。この視点では、図5(b)に示すように、実線矢印で図示した光線と奥行きレイヤDとの交点がサンプリング点SPとなり、サンプリング点SPを中心に、後記するコストが算出される。つまり、サンプリング点SPは、ドットで図示した小領域の代表として機能する。
以上を考慮し、サンプリング点設定手段32では、視点位置毎に、各光線と奥行きレイヤDとの交点をサンプリング点SPとして設定すればよい。
In parallel projection, a viewpoint, for example, a viewpoint position corresponding to a group of light rays indicated by solid lines in FIG. From this viewpoint, as shown in FIG. 5 (b), the intersection of the ray indicated by the solid line arrow and the depth layer D is the sampling point SP, and the cost described later is calculated around the sampling point SP. That is, the sampling point SP functions as a representative of the small area illustrated by dots.
In consideration of the above, the sampling point setting unit 32 may set the intersection of each ray and the depth layer D as the sampling point SP for each viewpoint position.

図1に戻り、要素画像生成装置3の構成について、説明を続ける。
コストボリューム算出手段33は、視点位置毎に、イメージベースドレンダリングによりコストボリュームを算出するものである。本実施形態では、コストボリューム算出手段33は、サンプリング点設定手段32で設定されたサンプリング点SPについて、コストボリュームを算出する。
Returning to FIG. 1, the description of the configuration of the element image generation device 3 will be continued.
The cost volume calculation means 33 calculates a cost volume by image-based rendering for each viewpoint position. In the present embodiment, the cost volume calculation means 33 calculates a cost volume for the sampling point SP set by the sampling point setting means 32.

なお、「コスト」とは、奥行きレイヤD上のサンプリング点SPを多視点画像に投影したときの画像間の類似度(又は非類似度)を表すものである。
また、コストを水平方向及び垂直方向に2次元配列したものが「コストマップ」となり、コストを水平方向と垂直方向と奥行き方向とに3次元配列したものが「コストボリューム」となる。
The “cost” represents the similarity (or dissimilarity) between the images when the sampling point SP on the depth layer D is projected on the multi-view image.
A two-dimensional array of costs in the horizontal and vertical directions is a “cost map”, and a three-dimensional array of costs in the horizontal, vertical, and depth directions is a “cost volume”.

ここで、コストボリューム算出手段33は、一般的なイメージベースドレンダリングを用いて、コストボリュームを算出できる。例えば、コストボリューム算出手段33は、RGB各色の分散の和によりカラーコンシステンシコストを求める。
コストボリューム算出手段33は、算出したコストボリュームと、多視点画像及び各種パラメータとをコストボリューム内挿手段34に出力する。
Here, the cost volume calculation unit 33 can calculate the cost volume using general image-based rendering. For example, the cost volume calculation unit 33 obtains a color consistency cost from the sum of the variances of the RGB colors.
The cost volume calculation unit 33 outputs the calculated cost volume, the multi-viewpoint image, and various parameters to the cost volume interpolation unit 34.

コストボリューム内挿手段34は、平行投影において、視点位置と内挿位置とのシフト量を奥行きレイヤD上で算出するものである。そして、コストボリューム内挿手段34は、算出したシフト量に応じて、各視点位置で算出済みのコストボリュームから内挿位置のコストボリュームを内挿する。その後、コストボリューム内挿手段34は、視点位置及び内挿位置のコストボリュームを光線色情報生成手段35に出力する。
なお、「シフト」とは奥行きレイヤD上での視点位置と内挿位置との位置ずれのことであり、「シフト量」とはその位置ずれ量のことである。
The cost volume interpolation means 34 calculates the shift amount between the viewpoint position and the interpolation position on the depth layer D in the parallel projection. Then, the cost volume interpolation means 34 interpolates the cost volume at the interpolation position from the cost volumes already calculated at each viewpoint position according to the calculated shift amount. Thereafter, the cost volume interpolation means 34 outputs the cost volume at the viewpoint position and the interpolation position to the light color information generation means 35.
Note that “shift” is a displacement between the viewpoint position and the interpolation position on the depth layer D, and “shift amount” is the displacement amount.

<平行投影におけるコストボリュームの内挿>
図6〜図10を参照し、平行投影におけるコストボリュームの内挿を説明する。
実線の光線領域に対応する視点位置を「視点A」、一点鎖線の光線領域に対応する視点位置を「視点C」、二点鎖線の光線領域に対応する視点位置を「視点B」と呼ぶ。図6(a)では、視点A〜Cのそれぞれに対応する光線領域に符号A〜Cを付した。また、視点A及び視点Cのコストボリュームがコストボリューム算出手段33で算出済みであり、視点Bのコストボリュームを内挿することとする。
<Interpolation of cost volume in parallel projection>
The interpolation of the cost volume in the parallel projection will be described with reference to FIGS.
The viewpoint position corresponding to the solid ray region is referred to as “viewpoint A”, the viewpoint position corresponding to the one-dot chain line ray region is referred to as “viewpoint C”, and the viewpoint position corresponding to the two-dot chain line ray region is referred to as “viewpoint B”. In FIG. 6A, reference numerals A to C are given to light beam regions corresponding to the viewpoints A to C, respectively. In addition, the cost volumes of the viewpoints A and C have already been calculated by the cost volume calculation unit 33, and the cost volumes of the viewpoint B are interpolated.

奥行きレイヤDを後記する集光面F(各視点での光線が一点に集中する面)に設定し、かつ、被写体9(図6不図示)が完全に奥行きレイヤD上のみに存在する場合、つまり、厚みの無い被写体9が奥行きレイヤD上に位置する場合を考える。この場合、コストボリュームの内挿は、奥行きレイヤD毎のコストマップをシフトし、合成するだけでよい。この算出処理は、単純なために演算量が低い。しかし、実際には、そうならないことが多いため、近似的な内挿となる。   When the depth layer D is set to a light-converging surface F (a surface in which light rays at each viewpoint are concentrated at one point), and the subject 9 (not shown in FIG. 6) is completely present only on the depth layer D, That is, consider a case where the subject 9 having no thickness is located on the depth layer D. In this case, the interpolation of the cost volume only needs to shift and combine the cost maps for each depth layer D. This calculation process is simple and requires a small amount of calculation. However, in practice, this is often not the case, so it is an approximate interpolation.

図6(b)に示すように、奥行きレイヤD〜Dでは、シフト量sが異なっている。奥行きレイヤDが奥行き方向で撮影空間αの中心に位置するので、シフト量sが0である。そして、奥行きレイヤDから離れる程、シフト量sが増大する。つまり、奥行きレイヤD,Dのシフト量sの方が、奥行きレイヤD,Dのシフト量sよりも大きくなる。 As shown in FIG. 6 (b), the depth layer D 1 to D 5, the shift amount s is different. Since the depth Layer D 3 located at the center of the imaging space α in the depth direction, the shift amount s is 0. The farther from the depth Layer D 3, the shift amount s is increased. That is, the shift amount s of the depth layers D 1 and D 5 is larger than the shift amount s of the depth layers D 2 and D 4 .

図7を参照し、シフト量sの具体的な算出方法を説明する。
図7に示すように、仮想レンズアレイLは、仮想要素レンズlがピッチpで並んでいる。この仮想レンズアレイLのレンズアレイ面LPを基準にレンズアレイ座標系を設定し、このレンズアレイ座標系で考える。ここで、内挿する側の視点Aの光線ベクトルVと内挿される側の視点Bの光線ベクトルVを定義する。2本の光線ベクトルV,Vの奥行き方向(Z軸方向)の成分が1となるように正規化し、その差分ベクトルVA−Bの水平方向(X軸方向)の成分をvとする。このとき、コストボリューム内挿手段34は、下記の式(1)でシフト量sを算出できる。なお、式(1)において、奥行きレイヤDの奥行き方向の位置をdとする。
A specific method of calculating the shift amount s will be described with reference to FIG.
As shown in FIG. 7, in the virtual lens array L, virtual element lenses 1 are arranged at a pitch p. A lens array coordinate system is set on the basis of the lens array surface LP of the virtual lens array L, and the lens array coordinate system is used. Here, a ray vector V A of the viewpoint A on the interpolating side and a ray vector V B of the viewpoint B on the interpolating side are defined. The two light vectors V A and V B are normalized such that the component in the depth direction (Z-axis direction) becomes 1, and the difference vector V A−B in the horizontal direction (X-axis direction) is defined as v. . At this time, the cost volume interpolation means 34 can calculate the shift amount s by the following equation (1). In Expression (1), the position of the depth layer D in the depth direction is d.

Figure 2020028114
Figure 2020028114

図8に示すように、仮想レンズアレイLが位置する奥行きレイヤDを境に、シフト方向が反転する。ここでは、手前側の奥行きレイヤDでは左方向にシフトする一方、奥側の奥行きレイヤDでは右方向にシフトする。このシフト方向の反転を考慮し、奥行きレイヤD毎に、視点Aのコストマップをシフト量sにより移動させ、視点Bのコストマップを埋める。コストマップが2次元配列なので、下記の式(2)又は式(3)で内挿を行うことができる。つまり、コストボリューム内挿手段34は、式(2)又は式(3)の演算を各奥行きレイヤDで行うことで、コストボリュームの内挿を行うことができる。 As shown in FIG. 8, the boundary of the depth layer D 3 virtual lens array L is situated, the shift direction is reversed. Here, while shifting to the left in the depth layer D 1 of the front side, shifted to the right in the depth layer D 5 on the back side. In consideration of the reversal of the shift direction, the cost map of the viewpoint A is moved by the shift amount s for each depth layer D to fill the cost map of the viewpoint B. Since the cost map is a two-dimensional array, interpolation can be performed using the following equation (2) or equation (3). That is, the cost volume interpolation unit 34 can perform the interpolation of the cost volume by performing the calculation of the expression (2) or the expression (3) on each depth layer D.

Figure 2020028114
Figure 2020028114

なお、式(2)及び式(3)では、s=round(s)であり、round()は四捨五入の関数である。
また、式(2)及び式(3)では、説明を簡易にするため、下記の参考文献に記載のMATLABの表記を用いた。
参考文献:「MATLAB」、[平成30年6月15日検索]、インターネット〈URL:https://jp.mathworks.com/products/matlab.html〉
In Equations (2) and (3), s i = round (s), and round () is a rounded function.
In Expressions (2) and (3), for ease of explanation, the notation of MATLAB described in the following reference is used.
References: "MATLAB", [Search on June 15, 2018], Internet <URL: https://jp.mathworks.com/products/matlab.html>

具体的には、‘A’及び‘B’が、視点A及び視点Bのコストマップを表す。また、‘()’については、垂直方向及び水平方向の順でコストマップの要素を表し、‘:’がその要素を範囲で特定することを表す。例えば、‘A(−,1:U−s)’であれば、視点Aのコストマップにおいて、水平方向で1からU−sまでの範囲を表す。ここでは、水平方向のみ考えているので、垂直方向は‘−’と表記した。 Specifically, 'A' and 'B' represent the cost maps of viewpoint A and viewpoint B. In addition, “()” indicates an element of the cost map in the order of the vertical direction and the horizontal direction, and “:” indicates that the element is specified in a range. For example, “A (−, 1: U-s i )” represents a range from 1 to U-s i in the horizontal direction in the cost map of viewpoint A. Here, since only the horizontal direction is considered, the vertical direction is indicated by "-".

つまり、式(2)及び式(3)は、図9に示すように、視点AのコストマップCMで一定範囲(ハッチングで図示)を、シフト量sだけ移動させて視点BのコストマップCMに内挿することを表す。実際には、垂直方向にもシフトが必要なので、コストボリューム内挿手段34は、水平方向と同様、垂直方向のシフト量sも算出することになる。 That is, Equations (2) and (3) are obtained by moving a fixed range (shown by hatching) in the cost map CM A of the viewpoint A by the shift amount s as shown in FIG. B represents interpolation. Actually, since the shift is necessary in the vertical direction, the cost volume interpolation means 34 also calculates the shift amount s in the vertical direction as in the horizontal direction.

ここで、視点Cの利用法について説明する。図6に示すように、手前側の奥行きレイヤD,Dでは、視点Aの光線領域が視点Bの光線領域より右側に位置する。一方、奥側の奥行きレイヤD,Dでは、視点Aの光線領域が視点Bの光線領域より左側に位置する。このように、視点Bの光線領域の一部が、視点Aの光線領域から外れてしまう。つまり、視点Bのコストボリュームには、視点Aのコストボリュームだけでは内挿できない範囲が存在する(ドットで図示)。そこで、コストボリューム内挿手段34は、視点Bから見て、視点Aの反対側となる視点Cのコストボリュームも用いて、同様にコストボリュームの内挿を行う。 Here, how to use the viewpoint C will be described. As shown in FIG. 6, in the depth layers D 1 and D 2 on the near side, the ray region of the viewpoint A is located on the right side of the ray region of the viewpoint B. On the other hand, in the depth layers D 4 and D 5 on the far side, the ray region of the viewpoint A is located on the left side of the ray region of the viewpoint B. As described above, a part of the light beam region of the viewpoint B deviates from the light beam region of the viewpoint A. That is, the cost volume of the viewpoint B has a range that cannot be interpolated only by the cost volume of the viewpoint A (illustrated by dots). Therefore, the cost volume interpolation means 34 similarly performs the interpolation of the cost volume by using the cost volume of the viewpoint C opposite to the viewpoint A when viewed from the viewpoint B.

なお、図6に示すように、視点A,Cの光線領域が重複する範囲が存在する(ハッチングで図示)。この重複範囲では、コストボリューム内挿手段34は、視点A,Cという複数のコストボリュームを用いて、視点Bのコストボリュームを内挿できる。この重複範囲において、視点A,Cのコスト平均値を採用する、視点A,Cでコストが低い方を採用する、シフト量sに応じて重み付けを行うなど、任意の手法で内挿する。   Note that, as shown in FIG. 6, there is a range where the ray regions of the viewpoints A and C overlap (shown by hatching). In this overlapping range, the cost volume interpolation means 34 can interpolate the cost volume of the viewpoint B using the plurality of cost volumes of the viewpoints A and C. In this overlapping range, interpolation is performed by an arbitrary method such as adopting the average cost value of the viewpoints A and C, adopting the lower cost in the viewpoints A and C, and performing weighting according to the shift amount s.

以上より、コストボリューム内挿手段34は、図10に示すように、シフト量sに応じて、視点A,CのコストボリュームCVA,CVから、視点BのコストボリュームCVを内挿できる。ここでは、視点A〜Cの3視点位置のみで説明したが、より多くの視点位置にも拡張可能である。 Thus, the cost volume interpolation unit 34, as shown in FIG. 10, according to the shift amount s, viewpoint A, C costs volume CV A of the CV C, it can be interpolated the cost volume CV B viewpoint B . Although only three viewpoint positions A to C have been described here, the present invention can be extended to more viewpoint positions.

図1に戻り、要素画像生成装置3の構成について、説明を続ける。
光線色情報生成手段35は、コストボリューム内挿手段34より入力されたコストボリュームから、視点位置及び内挿位置における光線色情報を生成するものである。図1に示すように、光線色情報生成手段35は、奥行きレイヤ推定手段35Aと、光線色情報取得手段35Bとを備える。
Returning to FIG. 1, the description of the configuration of the element image generation device 3 will be continued.
The light color information generation unit 35 generates light color information at the viewpoint position and the interpolation position from the cost volume input from the cost volume interpolation unit 34. As shown in FIG. 1, the light color information generation means 35 includes a depth layer estimation means 35A and a light color information acquisition means 35B.

奥行きレイヤ推定手段35Aは、視点位置及び内挿位置毎のコストボリュームから、イメージベースドレンダリングにより被写体9の光線が発生した奥行きレイヤDを推定するものである。例えば、奥行きレイヤ推定手段35Aは、コストボリュームに含まれるコストの最小値探索を行い、コストが最小となる奥行きレイヤDを各光線に割り当てる。このようにして、各光線に適切な奥行きレイヤDが推定される。   The depth layer estimating means 35A estimates the depth layer D where the light rays of the subject 9 are generated by the image-based rendering from the cost volume for each viewpoint position and interpolation position. For example, the depth layer estimating unit 35A searches for the minimum value of the cost included in the cost volume, and allocates the depth layer D having the minimum cost to each ray. In this way, an appropriate depth layer D is estimated for each ray.

光線色情報取得手段35Bは、イメージベースドレンダリングにより、奥行きレイヤ推定手段35Aが推定した奥行きレイヤDにおける光線色情報を取得するものである。例えば、光線色情報取得手段35Bは、視点位置及び内挿位置毎に、最適な奥行きレイヤDにおける光線の色の双線形補完により、光線色情報を取得する。この他、光線色情報取得手段35Bは、内挿位置の奥行きを多視点画像に投影して、その奥行きの光線色情報を取得してもよい。なお、「光線色情報」とは、被写体からの光線の色を表すものであり、被写体を撮影した任意視点画像と等価である。
光線色情報取得手段35Bは、各視点位置で取得した光線色情報を、視点位置及び内挿位置の任意視点画像として、要素画像生成手段36に出力する。
The light color information acquiring means 35B acquires light color information on the depth layer D estimated by the depth layer estimating means 35A by image-based rendering. For example, the ray color information acquiring unit 35B acquires ray color information for each viewpoint position and interpolation position by bilinear interpolation of the color of the ray in the optimal depth layer D. In addition, the ray color information acquiring unit 35B may project the depth of the interpolation position onto a multi-viewpoint image and acquire ray color information of the depth. It should be noted that the “light color information” indicates the color of a light ray from a subject, and is equivalent to an arbitrary viewpoint image of the subject.
The ray color information acquiring unit 35B outputs the ray color information acquired at each viewpoint position to the element image generating unit 36 as an arbitrary viewpoint image at the viewpoint position and the interpolation position.

要素画像生成手段36は、光線色情報取得手段35Bより入力された光線色情報から、要素画像を生成するものである。例えば、要素画像生成手段36は、視点位置及び内挿位置の任意視点画像から同一位置の画素を抽出し、抽出した画素で構成される要素画像を生成する。そして、要素画像生成手段36は、生成した要素画像を外部(例えば、IP立体表示装置)に出力する。   The element image generation means 36 generates an element image from the light color information input from the light color information acquisition means 35B. For example, the element image generation unit 36 extracts pixels at the same position from an arbitrary viewpoint image at the viewpoint position and the interpolation position, and generates an element image composed of the extracted pixels. Then, the element image generating means 36 outputs the generated element image to the outside (for example, an IP stereoscopic display device).

<要素画像の生成>
図11を参照し、要素画像Eの生成について説明する。
図11(a)に示すように、左上視点の画像P11、画像P11の右側視点の画像P21、画像P11の下側視点の画像P12という、3視点分の画像Pについて考える。また、説明を簡易にするため、画像P11では、左上画素に「●1」を付し、右側画素に「●2」を付し、下側画素に「●3」を付した。これと同様、画像P21には、「▲1」〜「▲3」を付し、画像P12には、「■1」〜「■3」を付した。
<Generation of element image>
The generation of the element image E will be described with reference to FIG.
As shown in FIG. 11 (a), an image P 11 of the upper left perspective, right-side perspective image P 21 of the image P 11, that the image P 12 of the lower viewpoint picture P 11, consider the image P of the 3 perspectives. Also, order to simplify the description, the image P 11, denoted by "● 1" in the upper left pixel, labeled "● 2" to the right pixel, denoted by "● 3" in the lower pixel. Similarly, the image P 21 are denoted by the "▲ 1" - "▲ 3", the image P 12, denoted by "■ 1" - "■ 3".

この場合、要素画像生成手段36は、図11(b)に示すように、画像P11,P12,P21から左上画素●1,▲1,■1,…を抽出し、左上の要素画像E11を生成する。つまり、要素画像E11は、同一位置の左上画素●1,▲1,■1,…で構成されている。また、要素画像E11において、左上画素●1,▲1,■1,…の並び方は、それら画素を抽出した画像P11,P12,P21の視点位置に対応する。つまり、要素画像E11では、画素●1が左上に配置され、画素▲1が右側に配置され、画素■1が下側に配置される。 In this case, as shown in FIG. 11B, the element image generating means 36 extracts the upper left pixels ● 1, ▲ 1, ■ 1,... From the images P 11 , P 12 , P 21 and outputs the upper left element image. to generate the E 11. In other words, the elemental image E 11 is the top left pixel of the same position ● 1, ▲ 1, and is configured ■ 1, in .... Further, the elemental image E 11, the upper left pixel ● 1, ▲ 1, ■ 1 , ... arrangement of the image P 11 obtained by extracting them pixels, corresponding to the viewpoint position of P 12, P 21. That is, in the element image E 11, pixel ● 1 is disposed on the upper left, pixel ▲ 1 is arranged on the right side, the pixel ■ 1 is disposed on the lower side.

また、要素画像生成手段36は、要素画像E11と同様、画像P11,P12,P21から抽出した右側画素●2,▲2,■2,…で構成される要素画像E21を生成する。さらに、要素画像生成手段36は、要素画像E11,E21と同様、画像P11,P12,P21から抽出した下側画素●3,▲3,■3,…で構成される要素画像E12を生成する。 Further, the element image generating means 36 generates an element image E 21 composed of right pixels ● 2, ▲ 2, ■ 2,... Extracted from the images P 11 , P 12 , P 21 similarly to the element image E 11. I do. Further, like the element images E 11 and E 21 , the element image generation unit 36 generates an element image composed of lower pixels ● 3, ▲ 3, ■ 3,... Extracted from the images P 11 , P 12 , P 21. to generate the E 12.

ここで、要素画像Eは、その要素画像Eを構成する各画素の画素位置に対応した位置に配置される。例えば、要素画像E11は、左上画素●1,▲1,■1,…で構成されているので、左上に配置される。また、要素画像E21は、右側画素●2,▲2,■2,…で構成されているので、要素画像E11の右側に配置される。さらに、要素画像E12は、下側画素●3,▲3,■3,…で構成されるので、要素画像E11の下側に配置される。 Here, the element image E is arranged at a position corresponding to the pixel position of each pixel constituting the element image E. For example, the element image E 11 is a top left pixel ● 1, ▲ 1, ■ 1 , which is configured by ..., it is arranged in the upper left. Further, the elemental image E 21 is right pixel ● 2, ▲ 2, ■ 2 , which is configured by ..., it is disposed on the right side of the element image E 11. Further, the elemental image E 12 is lower pixel ● 3, ▲ 3, ■ 3 , since it is constituted ... in, it is arranged below the element image E 11.

なお、IP立体表示装置の光学系の構成によっては、立体像の倒立像が表示される場合もある。この場合、要素画像生成手段36は、各画素の位置を上下左右に反転させて、立体像の正立像が表示されるように要素画像Eを生成してもよい。   Note that, depending on the configuration of the optical system of the IP stereoscopic display device, an inverted stereoscopic image may be displayed. In this case, the element image generating means 36 may generate the element image E by inverting the position of each pixel vertically and horizontally so that an erect image of a stereoscopic image is displayed.

[要素画像生成装置の動作]
図12を参照し、要素画像生成装置3の動作について説明する。
図12に示すように、パラメータ設定手段31は、要素画像の生成に必要な各種パラメータが予め設定される。この各種パラメータとしては、仮想レンズアレイの位置及びピッチと、仮想要素レンズの個数と、撮影空間と、奥行きレイヤと、視点位置とがあげられる(ステップS1)。
多視点画像入力手段30は、カメラアレイ2から多視点画像が入力される(ステップS2)。
[Operation of Element Image Generation Device]
The operation of the element image generation device 3 will be described with reference to FIG.
As shown in FIG. 12, the parameter setting means 31 sets in advance various parameters necessary for generating an element image. These various parameters include the position and pitch of the virtual lens array, the number of virtual element lenses, the imaging space, the depth layer, and the viewpoint position (step S1).
The multi-view image input unit 30 receives a multi-view image from the camera array 2 (step S2).

サンプリング点設定手段32は、撮影空間内で奥行きレイヤ上にサンプリング点が予め設定される。例えば、サンプリング点設定手段32では、視点位置毎に、各光線と奥行きレイヤとの交点がサンプリング点として設定される(ステップS3)。
コストボリューム算出手段33は、視点位置毎に、イメージベースドレンダリングによりコストボリュームを算出する。例えば、コストボリューム算出手段33は、ステップS3で設定されたサンプリング点について、コストボリュームを算出する(ステップS4)。
The sampling point setting means 32 sets a sampling point on the depth layer in the photographing space in advance. For example, the sampling point setting means 32 sets an intersection between each ray and the depth layer as a sampling point for each viewpoint position (step S3).
The cost volume calculation means 33 calculates a cost volume by image-based rendering for each viewpoint position. For example, the cost volume calculation means 33 calculates a cost volume for the sampling points set in step S3 (step S4).

コストボリューム内挿手段34は、前記した式(1)を用いて、シフト量を奥行きレイヤ上で算出する。そして、コストボリューム内挿手段34は、算出したシフト量に応じて、ステップS4で算出したコストボリュームから内挿位置のコストボリュームを内挿する(ステップS5)。
奥行きレイヤ推定手段35Aは、ステップS4,S5で求めたコストボリュームから、イメージベースドレンダリングにより被写体9の光線が発生した奥行きレイヤを推定する。例えば、奥行きレイヤ推定手段35Aは、コストボリュームに含まれるコストの最小値探索を行い、コストが最小となる奥行きレイヤを各光線に割り当てる(ステップS6)。
The cost volume interpolation means 34 calculates the shift amount on the depth layer by using the above-described equation (1). Then, the cost volume interpolation means 34 interpolates the cost volume at the interpolation position from the cost volume calculated in step S4 according to the calculated shift amount (step S5).
The depth layer estimation unit 35A estimates the depth layer where the light rays of the subject 9 have been generated by the image-based rendering from the cost volumes obtained in steps S4 and S5. For example, the depth layer estimating unit 35A searches for the minimum value of the cost included in the cost volume, and assigns the depth layer with the minimum cost to each ray (step S6).

光線色情報取得手段35Bは、イメージベースドレンダリングにより、ステップS6で推定した奥行きレイヤDにおける光線色情報を取得する。例えば、光線色情報取得手段35Bは、最適な奥行きにおける光線の色の双線形補完により、光線色情報を取得する。この他、光線色情報取得手段35Bは、内挿位置の奥行きを多視点画像に投影して、その奥行きの光線色情報を取得してもよい(ステップS7)。
要素画像生成手段36は、ステップS7で取得した光線色情報から、要素画像を生成するものである。例えば、要素画像生成手段36は、光線色情報(任意視点画像)から同一位置の画素を抽出し、抽出した画素で構成される要素画像を生成する(ステップS8)。
The light color information acquiring unit 35B acquires light color information on the depth layer D estimated in step S6 by image-based rendering. For example, the light color information obtaining unit 35B obtains light color information by bilinear interpolation of light colors at the optimum depth. In addition, the ray color information acquiring unit 35B may project the depth of the interpolation position on a multi-viewpoint image to acquire ray color information of the depth (step S7).
The element image generation unit 36 generates an element image from the light ray color information acquired in step S7. For example, the element image generation unit 36 extracts pixels at the same position from the light ray color information (arbitrary viewpoint image), and generates an element image composed of the extracted pixels (step S8).

[作用・効果]
以上のように、第1実施形態に係る要素画像生成装置3は、平行投影の光線構造において、シフト量に応じてコストボリュームを内挿するので、効率的にコストボリュームを算出し、コストボリュームの算出に要する膨大な演算量を低減することができる。
[Action / Effect]
As described above, the element image generating apparatus 3 according to the first embodiment interpolates the cost volume according to the shift amount in the light beam structure of the parallel projection, so that the cost volume is efficiently calculated and the cost volume is calculated. An enormous amount of calculation required for calculation can be reduced.

(第2実施形態)
[要素画像生成装置の構成]
図13を参照し、第2実施形態に係る要素画像生成装置3Bについて、第1実施形態と異なる点を説明する。
要素画像生成装置3Bは、全視点位置のコストボリュームを算出し、そのコストボリュームを補正する点が、第1実施形態と異なる。図13に示すように、要素画像生成装置3Bは、多視点画像入力手段30と、パラメータ設定手段31Bと、サンプリング点設定手段32と、コストボリューム算出手段33と、コストボリューム補正手段37と、光線色情報生成手段35と、要素画像生成手段36とを備える。
なお、パラメータ設定手段31B及びコストボリューム補正手段37以外は、第1実施形態と同様のため、説明を省略する。
(2nd Embodiment)
[Configuration of Element Image Generation Device]
With reference to FIG. 13, a different point of the element image generation device 3B according to the second embodiment from the first embodiment will be described.
The element image generating apparatus 3B is different from the first embodiment in that the cost volumes of all viewpoint positions are calculated and the cost volumes are corrected. As shown in FIG. 13, the element image generating apparatus 3B includes a multi-view image input unit 30, a parameter setting unit 31B, a sampling point setting unit 32, a cost volume calculation unit 33, a cost volume correction unit 37, a light beam A color information generation unit 35 and an element image generation unit 36 are provided.
Except for the parameter setting unit 31B and the cost volume correction unit 37, the configuration is the same as that of the first embodiment, and the description is omitted.

パラメータ設定手段31Bは、コストボリュームを算出する全視点位置がパラメータとして予め設定される。つまり、パラメータ設定手段31Bでは、コストボリュームの内挿を行わないので、内挿位置をパラメータとして設定する必要がない。他の点、パラメータ設定手段31Bは、第1実施形態と同様のため、これ以上の説明を省略する。   In the parameter setting means 31B, all viewpoint positions for calculating the cost volume are set in advance as parameters. That is, since the parameter setting means 31B does not perform the interpolation of the cost volume, it is not necessary to set the interpolation position as a parameter. In other respects, the parameter setting unit 31B is the same as that of the first embodiment, and further description will be omitted.

コストボリューム補正手段37は、補正対象の視点位置同士のシフト量を奥行きレイヤ上で算出し、算出したシフト量に応じて、補正対象となるコストボリュームを補正するものである。そして、コストボリューム補正手段37は、補正したコストボリュームを光線色情報生成手段35に出力する。   The cost volume correction means 37 calculates the shift amount between the viewpoint positions to be corrected on the depth layer, and corrects the cost volume to be corrected according to the calculated shift amount. Then, the cost volume correction unit 37 outputs the corrected cost volume to the light color information generation unit 35.

<コストボリュームの補正>
図14を参照し、コストボリュームの補正について説明する。
前記したように、隣り合う2つの視点位置の光線領域が重複し(図6(b)のハッチングの範囲)、この重複範囲ではコストボリュームも重複するので、この重複範囲内でコストボリュームを補正する。ここでは、補正対象の視点位置が、互いに隣り合う視点A、Bであることとする。
<Cost volume correction>
The cost volume correction will be described with reference to FIG.
As described above, the ray regions at two adjacent viewpoint positions overlap (the hatched area in FIG. 6B), and the cost volume also overlaps in this overlapping range. Therefore, the cost volume is corrected within this overlapping range. . Here, it is assumed that the viewpoint positions to be corrected are viewpoints A and B adjacent to each other.

図14に示すように、視点A,BのコストボリュームCVA,CVの間では、シフト量sだけシフトしている。従って、第1実施形態と同様、視点Aの光線ベクトルVと視点Bの光線ベクトルVとの差分ベクトルVA-Bが定義できる。また、仮想要素レンズのピッチpや奥行きベクトルVも、第1実施形態と同様に定義できる。従って、コストボリューム補正手段37は、前記した式(1)を用いて、シフト量sを算出できる。 As shown in FIG. 14, between the viewpoint A, the cost volume CV A of B, CV B, shifted by the shift amount s. Therefore, similarly to the first embodiment, it can be defined difference vectors V A-B between the light vectors V B light vectors V A and the viewpoint B of the viewpoint A. The pitch p and depth vector V d virtual element lens can also be defined as in the first embodiment. Therefore, the cost volume correction unit 37 can calculate the shift amount s using the above-described equation (1).

次に、コストボリューム補正手段37は、算出したシフト量sに応じて、補正対象となる視点A,BのコストボリュームCV,CVを補正する。ここでは、コストボリューム補正手段37は、視点A,Bのコストボリュームが重複する範囲でコストの平均値を求め、その平均値で補正を行う。このとき、コストボリューム補正手段37は、コストボリュームが重複する範囲において、互いのコストが予め設定された値以上異なる場合、そのコストのみ対象として補正を行ってもよい。この値は、互いのコストが大きく異なる場合を想定し、任意に設定できる。 Then, the cost volume correction section 37, according to the calculated shift amount s, the correction object viewpoint A, the cost volume CV A of B, and corrects the CV B. Here, the cost volume correction unit 37 calculates an average value of the costs in a range where the cost volumes of the viewpoints A and B overlap, and performs correction using the average value. At this time, if the costs differ from each other by a predetermined value or more in a range where the cost volumes overlap, the cost volume correcting unit 37 may perform the correction only on the cost. This value can be set arbitrarily, assuming that costs are greatly different from each other.

[要素画像生成装置の動作]
図15を参照し、要素画像生成装置3Bの動作について説明する。
なお、ステップS2〜S4,S6〜S8の処理は、第1実施形態と同様のため、説明を省略した。
[Operation of Element Image Generation Device]
The operation of the element image generation device 3B will be described with reference to FIG.
Note that the processing of steps S2 to S4 and S6 to S8 is the same as that of the first embodiment, and thus the description is omitted.

図15に示すように、パラメータ設定手段31Bは、要素画像の生成に必要な各種パラメータが予め設定される。ここで、パラメータ設定手段31Bでは、コストボリュームの内挿を行わないので、内挿位置をパラメータとして設定する必要がない(ステップS1B)。   As shown in FIG. 15, various parameters required for generating an element image are set in the parameter setting unit 31B in advance. Here, since the parameter setting means 31B does not perform interpolation of the cost volume, there is no need to set the interpolation position as a parameter (step S1B).

コストボリューム補正手段37は、前記した式(1)を用いて、シフト量を奥行きレイヤ上で算出する。そして、コストボリューム補正手段37は、算出したシフト量に応じて、ステップS4で算出したコストボリュームの補正を行う。ここで、コストボリューム補正手段37は、コストボリュームが重複する範囲でコストの平均値を求め、その平均値で補正を行う。このとき、コストボリューム補正手段37は、コストボリュームが重複する範囲において、互いのコストが予め設定された値以上異なる場合、そのコストのみを対象として補正を行ってもよい(ステップS5B)。   The cost volume correction unit 37 calculates the shift amount on the depth layer using the above-described equation (1). Then, the cost volume correction unit 37 corrects the cost volume calculated in step S4 according to the calculated shift amount. Here, the cost volume correcting unit 37 calculates an average value of the costs in a range where the cost volumes overlap, and performs correction using the average value. At this time, if the costs differ from each other by a predetermined value or more in a range where the cost volumes overlap, the cost volume correcting unit 37 may perform the correction only on the cost (step S5B).

[作用・効果]
以上のように、第2実施形態に係る要素画像生成装置3Bは、平行投影の光線構造において、シフト量に応じてコストボリュームを補正するので、高精度なコストボリュームを算出し、高品質な要素画像を生成することができる。
[Action / Effect]
As described above, since the element image generating apparatus 3B according to the second embodiment corrects the cost volume according to the shift amount in the parallel projection light beam structure, it calculates a high-precision cost volume and outputs a high-quality element. Images can be generated.

(第3実施形態)
以下、第3実施形態を説明する前提として、光線再生型表示システムの光線構造について説明する。
光線再生型表示システムの光線構造は、第1、第2実施形態で説明した平行投影(図3)と、第3実施形態で説明する透視投影レンズシフト(図16)とに大別できる。平行投影は、図3(a)に示すように全光線が平行である。一方、透視投影レンズシフトは、図16(a)に示すように全光線が奥行き方向の一定距離で集光点Tに集光する。
(Third embodiment)
Hereinafter, as a premise for describing the third embodiment, a light beam structure of the light beam reproducing type display system will be described.
The light beam structure of the light beam reproducing type display system can be roughly classified into the parallel projection (FIG. 3) described in the first and second embodiments and the perspective projection lens shift (FIG. 16) described in the third embodiment. In the parallel projection, all rays are parallel as shown in FIG. On the other hand, in the perspective projection lens shift, as shown in FIG. 16A, all light rays are condensed at a focal point T at a certain distance in the depth direction.

なお、図16(a)には、透視投影レンズシフトにおける光線群を矢印で図示した。同一線種の光線群が、斜投影カメラで撮影したときの同一視点に対応する。つまり、実線、一点鎖線及び破線の光線群のそれぞれが、別々の視点位置に対応する。また、図16(b)には、図16(a)の光線群で形成される光線領域を図示した。   Note that, in FIG. 16A, the light beam group in the perspective projection lens shift is illustrated by arrows. Ray groups of the same line type correspond to the same viewpoint when photographed by the oblique projection camera. That is, each of the solid-line, dashed-dotted line, and dashed-line ray groups corresponds to a different viewpoint position. FIG. 16B illustrates a light beam region formed by the light beam group of FIG. 16A.

ここで、図17に示すように、奥行きレイヤDと各光線との交点をサンプリング点SPとする。そして、図18に示すように、透視投影レンズシフトは、奥行きレイヤDが同一であれば、視点位置に関わらず、サンプリング点SPの間隔が同一になる。つまり、透視投影レンズシフトは、平行投影と同様、奥行きレイヤDが同一であれば、シフト量が同一になるという特徴がある。この特徴を利用し、奥行きレイヤD毎にシフト量を算出し、コストボリュームを内挿するので、効率的にコストボリュームを算出できる。   Here, as shown in FIG. 17, the intersection of the depth layer D and each light ray is set as a sampling point SP. Then, as shown in FIG. 18, in the perspective projection lens shift, if the depth layer D is the same, the interval between the sampling points SP is the same regardless of the viewpoint position. That is, similar to the parallel projection, the perspective projection lens shift is characterized in that the shift amount is the same if the depth layer D is the same. By utilizing this feature and calculating the shift amount for each depth layer D and interpolating the cost volume, the cost volume can be calculated efficiently.

[要素画像生成装置の構成]
図1を参照し、第3実施形態に係る要素画像生成装置3Cの構成について、第1実施形態と異なる点を説明する。
図1に示すように、要素画像生成装置3Cは、多視点画像入力手段30と、パラメータ設定手段31と、サンプリング点設定手段32Cと、コストボリューム算出手段33と、コストボリューム内挿手段34Cと、光線色情報生成手段35と、要素画像生成手段36とを備える。
なお、サンプリング点設定手段32C及びコストボリューム内挿手段34C以外の構成は、第1実施形態と同様のため、説明を省略する。
[Configuration of Element Image Generation Device]
With reference to FIG. 1, a configuration of an element image generating device 3C according to the third embodiment will be described, focusing on differences from the first embodiment.
As shown in FIG. 1, the element image generating apparatus 3C includes a multi-view image input unit 30, a parameter setting unit 31, a sampling point setting unit 32C, a cost volume calculation unit 33, a cost volume interpolation unit 34C, A light color information generator 35 and an element image generator 36 are provided.
The configuration other than the sampling point setting unit 32C and the cost volume interpolation unit 34C is the same as that of the first embodiment, and a description thereof will be omitted.

サンプリング点設定手段32Cは、撮影空間内の奥行きレイヤ上において、視点位置毎の光線が1つの集光点Tに集光する透視投影レンズシフトのサンプリング点SPが予め設定されるものである。   The sampling point setting means 32C pre-sets a sampling point SP of a perspective projection lens shift at which a light beam at each viewpoint position converges on one converging point T on a depth layer in the photographing space.

透視投影レンズシフトにおいて、ある1視点の光線群について考える。この視点では、図17に示すように、光線と奥行きレイヤDとの交点がサンプリング点SPとなり、サンプリング点SPを中心に、コストが算出される。つまり、サンプリング点SPは、ドットで図示した小領域の代表として機能する。
以上を考慮し、サンプリング点設定手段32Cでは、視点位置毎に、各光線と奥行きレイヤDとの交点をサンプリング点SPとして設定すればよい。
In the perspective projection lens shift, a ray group at a certain viewpoint is considered. From this viewpoint, as shown in FIG. 17, the intersection of the light ray and the depth layer D is the sampling point SP, and the cost is calculated around the sampling point SP. That is, the sampling point SP functions as a representative of the small area illustrated by dots.
In consideration of the above, the sampling point setting unit 32C may set the intersection between each ray and the depth layer D as the sampling point SP for each viewpoint position.

コストボリューム内挿手段34Cは、視点位置と内挿位置とのシフト量を奥行きレイヤD上で算出するものである。本実施形態では、コストボリューム内挿手段34Cは、後記する式(4)及び式(5)を用いて、透視投影レンズシフトにおけるシフト量sを算出する。他の点、コストボリューム内挿手段34Cは、第1実施形態と同様である。   The cost volume interpolation means 34C calculates the shift amount between the viewpoint position and the interpolation position on the depth layer D. In the present embodiment, the cost volume interpolation means 34C calculates the shift amount s in the perspective projection lens shift using Expressions (4) and (5) described later. In other respects, the cost volume interpolation means 34C is the same as in the first embodiment.

<透視投影レンズシフトにおけるコストボリュームの内挿>
図19〜図21を参照し、透視投影レンズシフトにおけるコストボリュームの内挿を説明する。
仮想レンズアレイLのレンズアレイ面LPを基準にレンズアレイ座標系を設定し、このレンズアレイ座標系で考える。図19に示すように、仮想レンズアレイLに対する集光点Tの奥行き方向の位置をW、レンズアレイ面LPに対する奥行きレイヤDの奥行き方向の位置をdとする。ここで、隣り合う仮想要素レンズlを通り同一の集光点Tに集まる2本の光線について考える。この2本の光線の間隔Pは、集光点Tからレンズアレイ面LPに近づくに従って大きくなり、以下の式(4)で表される。
<Interpolation of cost volume in perspective projection lens shift>
The interpolation of the cost volume in the perspective projection lens shift will be described with reference to FIGS.
A lens array coordinate system is set on the basis of the lens array surface LP of the virtual lens array L, and the lens array coordinate system is used. As shown in FIG. 19, the position of the converging point T with respect to the virtual lens array L in the depth direction is W, and the position of the depth layer D with respect to the lens array plane LP in the depth direction is d. Here, two light beams passing through the adjacent virtual element lens 1 and converging at the same light condensing point T will be considered. Interval P P of the two light beams is greater the closer the focal point T on lens array surface LP, it is expressed by the following equation (4).

Figure 2020028114
Figure 2020028114

ここで、レンズアレイ面LP上におけるレンズピッチをpとする。さらに、図20に示すように、レンズアレイ面LP上で交差する視点A,Bの光線ベクトルV,Vについて考える。図20において、集光点T,Tは、視点A,Bそれぞれの集光点Tである。2本の光線ベクトルV,VのZ軸成分が1となるように正規化し、その差分ベクトルVA−Bの水平方向(X軸方向)の成分をv、その差分ベクトルVA−Bの大きさを|v|とする。この場合、各奥行きレイヤDのシフト量sは、以下の式(5)で表される。 Here, the lens pitch on the lens array plane LP is p. Furthermore, as shown in FIG. 20 think viewpoint intersects on the lens array plane LP A, ray vector V A of B, and V B. In Figure 20, the focal point T A, T B is the viewpoint A, B each focusing point T. Two light vectors V A, normalized so Z-axis component of V B becomes 1, the component in the horizontal direction (X axis direction) of the difference vector V A-B v, the difference vector V A-B Is | v |. In this case, the shift amount s of each depth layer D is represented by the following equation (5).

Figure 2020028114
Figure 2020028114

コストボリューム内挿手段34Cは、図21に示すように、式(4)及び式(5)の演算を各奥行きレイヤD〜Dで行うことで、コストボリュームを内挿する。例えば、実線及び破線の光線群に対応する視点位置において、コストボリュームが既知であることとする。この場合、コストボリューム内挿手段34Cは、既知の2視点分のコストボリュームから、一点鎖線の光線群に対応する視点位置のコストボリュームを内挿できる。 As shown in FIG. 21, the cost volume interpolation unit 34C performs the calculations of Expressions (4) and (5) on each of the depth layers D 1 to D 5 to interpolate the cost volume. For example, it is assumed that the cost volume is known at the viewpoint positions corresponding to the ray groups of the solid line and the broken line. In this case, the cost volume interpolation means 34C can interpolate the cost volume at the viewpoint position corresponding to the dashed-dotted ray group from the known cost volumes for the two viewpoints.

[作用・効果]
以上のように、第3実施形態に係る要素画像生成装置3Cは、透視投影レンズシフトの光線構造において、シフト量に応じてコストボリュームを内挿するので、効率的にコストボリュームを算出し、コストボリュームの算出に要する膨大な演算量を低減することができる。
[Action / Effect]
As described above, since the element image generating apparatus 3C according to the third embodiment interpolates the cost volume according to the shift amount in the light beam structure of the perspective projection lens shift, it efficiently calculates the cost volume, and An enormous amount of calculation required for calculating the volume can be reduced.

(第4実施形態)
[要素画像生成装置の構成]
図13を参照し、第3実施形態に係る要素画像生成装置3Dの構成について、第2実施形態と異なる点を説明する。
要素画像生成装置3Dは、光線構造が透視投影レンズシフトである点が、第2実施形態と異なる。
(Fourth embodiment)
[Configuration of Element Image Generation Device]
With reference to FIG. 13, a difference of the configuration of the element image generation device 3D according to the third embodiment from the second embodiment will be described.
The element image generating apparatus 3D differs from the second embodiment in that the light beam structure is a perspective projection lens shift.

図13に示すように、要素画像生成装置3Dは、多視点画像入力手段30と、パラメータ設定手段31Bと、サンプリング点設定手段32Dと、コストボリューム算出手段33と、コストボリューム補正手段37Dと、光線色情報生成手段35と、要素画像生成手段36とを備える。
なお、サンプリング点設定手段32D及びコストボリューム補正手段37D以外の構成は、第2実施形態と同様のため、説明を省略する。
As shown in FIG. 13, the elementary image generation device 3D includes a multi-view image input unit 30, a parameter setting unit 31B, a sampling point setting unit 32D, a cost volume calculation unit 33, a cost volume correction unit 37D, a light beam A color information generation unit 35 and an element image generation unit 36 are provided.
Note that the configuration other than the sampling point setting unit 32D and the cost volume correction unit 37D is the same as that of the second embodiment, and thus the description is omitted.

サンプリング点設定手段32Dは、図1のサンプリング点設定手段32Cと同様、透視投影レンズシフトにおけるサンプリング点SPが予め設定されるものである。サンプリング点設定手段32Dは、第3実施形態と同様のため、これ以上の説明を省略する。   In the sampling point setting means 32D, similarly to the sampling point setting means 32C of FIG. 1, the sampling point SP in the perspective projection lens shift is set in advance. Since the sampling point setting means 32D is the same as in the third embodiment, further description is omitted.

コストボリューム補正手段37Dは、透視投影レンズシフトにおいて、補正対象の視点位置同士のシフト量を奥行きレイヤD上で算出するものである。本実施形態では、コストボリューム補正手段37Dは、図1のコストボリューム内挿手段34Cと同様、前記した式(4)及び式(5)を用いて、透視投影レンズシフトにおけるシフト量sを算出する。他の点、コストボリューム補正手段37Dは、第2実施形態と同様のため、これ以上の説明を省略する。   The cost volume correction unit 37D calculates the shift amount between the viewpoint positions to be corrected on the depth layer D in the perspective projection lens shift. In the present embodiment, the cost volume correction unit 37D calculates the shift amount s in the perspective projection lens shift using the above-described equations (4) and (5), similarly to the cost volume interpolation unit 34C of FIG. . In other respects, the cost volume correction unit 37D is the same as that of the second embodiment, and thus further description is omitted.

以上のように、第4実施形態に係る要素画像生成装置3Dは、透視投影レンズシフトの光線構造において、シフト量に応じてコストボリュームを補正するので、高精度なコストボリュームを算出し、高品質な要素画像を生成することができる。   As described above, the element image generating apparatus 3D according to the fourth embodiment corrects the cost volume according to the shift amount in the light beam structure of the perspective projection lens shift. Element images can be generated.

(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、奥行きレイヤが5つであることとして説明したが、奥行きレイヤの数は特に制限されない。
前記した各実施形態では、水平方向のシフト量を説明したが、垂直方向についても同様にシフト量を算出できる。
(Modification)
As described above, the embodiments of the present invention have been described in detail. However, the present invention is not limited to each of the above-described embodiments, and includes a design change or the like without departing from the gist of the present invention.
In each of the embodiments described above, the number of depth layers is five, but the number of depth layers is not particularly limited.
In each of the embodiments described above, the shift amount in the horizontal direction has been described. However, the shift amount can be similarly calculated in the vertical direction.

図3(a)に示すように、インテグラル立体方式では、奥行き方向において、仮想レンズアレイLから前後に一定間隔で光線が集光する集光面Fが存在する。図3(a)では、奥行き方向における集光面Fの位置を図示した。この集光面Fでは、実線、一点鎖線及び破線の光線が交差、集光している。従って、パラメータ設定手段31では、より正確な内挿が可能となるので、この集光面Fに奥行きレイヤDを設定することが好ましい。   As shown in FIG. 3A, in the integral three-dimensional system, there is a light-condensing surface F on which light beams converge at predetermined intervals in front and rear from the virtual lens array L in the depth direction. FIG. 3A illustrates the position of the light collecting surface F in the depth direction. On this light condensing surface F, the solid line, the one-dot chain line and the broken line intersect and converge. Therefore, since the parameter setting means 31 can perform more accurate interpolation, it is preferable to set the depth layer D on the light-collecting surface F.

前記した各実施形態では、本発明をインテグラル立体方式に適用する例で説明したが、これに限定されない。例えば、1つの視点が斜投影の光線となる立体方式(例えば、パララックスバリア立体方式)にも適用できる。   In each of the embodiments described above, an example in which the present invention is applied to the integral three-dimensional system has been described, but the present invention is not limited to this. For example, the present invention can be applied to a three-dimensional system in which one viewpoint is a light beam of oblique projection (for example, a parallax barrier three-dimensional system).

前記した実施形態では、要素画像生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した要素画像生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   In the embodiment described above, the element image generation device is described as independent hardware, but the present invention is not limited to this. For example, the present invention can also be realized by a program that causes hardware resources such as a CPU, a memory, and a hard disk of a computer to cooperate as the above-described element image generation device. These programs may be distributed via a communication line, or may be distributed by writing to a recording medium such as a CD-ROM or a flash memory.

1,1B〜1D 立体画像生成システム
2 カメラアレイ
3,3B〜3D要素画像生成装置(立体画像生成装置)
20 撮影カメラ
30 多視点画像入力手段
31,31B パラメータ設定手段
32,32C,32D サンプリング点設定手段
33 コストボリューム算出手段
34,34C コストボリューム内挿手段
35 光線色情報生成手段(光線情報生成手段)
35A 奥行きレイヤ推定手段
35B 光線色情報取得手段
36 要素画像生成手段(立体画像生成手段)
37,37D コストボリューム補正手段
9,9〜9 被写体
A,B,C 光線領域
CM,CM コストマップ
CVA,CVB,CV コストボリューム
D,D〜D 奥行きレイヤ
E,E11,E12,E21 要素画像
L 仮想レンズアレイ(仮想光学素子アレイ)
LP レンズアレイ面
l 仮想要素レンズ(仮想光学素子)
P,P11,P12,P21 画像
SP サンプリング点
T,T,T 集光点
,V 光線ベクトル
α 撮影空間
α 奥側位置
α 手前側位置
1, 1B-1D stereoscopic image generation system 2 Camera array 3, 3B-3D element image generation device (stereoscopic image generation device)
Reference Signs List 20 photographing camera 30 multi-viewpoint image input means 31, 31B parameter setting means 32, 32C, 32D sampling point setting means 33 cost volume calculation means 34, 34C cost volume interpolation means 35 light color information generation means (light information generation means)
35A Depth layer estimating means 35B Ray color information acquiring means 36 Element image generating means (stereoscopic image generating means)
37,37D cost volume correcting means 9,9 to 93 3 subjects A, B, C light region CM A, CM B cost map CV A, CV B, CV C costs volume D, D 1 ~D 5 depth layer E, E 11 , E 12 , E 21 Element image L Virtual lens array (virtual optical element array)
LP Lens array surface l Virtual element lens (virtual optical element)
P, P 11, P 12, P 21 image SP sampling points T, T A, T B focal point V A, V B light vector alpha imaging space alpha B far side position alpha F front position

Claims (9)

撮影カメラを二次元状に並べたカメラアレイが被写体を撮影した多視点画像を用いて、イメージベースドレンダリングにより前記被写体からの光線を表す光線情報を生成し、当該光線情報から立体画像を生成する立体画像生成装置であって、
前記立体画像を表示する立体表示装置が備える光学素子アレイを前記被写体が位置する撮影空間内に配置した仮想光学素子アレイと平行で、かつ、奥行き方向で所定間隔となるように前記撮影空間内に配置された奥行きレイヤと、視点位置と、前記視点位置同士の間となる内挿位置とが予め設定されるパラメータ設定手段と、
前記イメージベースドレンダリングにより、前記奥行きレイヤ上のサンプリング点を前記多視点画像に投影したときの画像間の類似度又は非類似度を表すコストの三次元配列であるコストボリュームを、前記視点位置毎に算出するコストボリューム算出手段と、
前記視点位置と前記内挿位置とのシフト量を前記奥行きレイヤ上で算出し、算出した前記シフト量に応じて、前記コストボリューム算出手段が算出した各視点位置のコストボリュームから前記内挿位置のコストボリュームを内挿するコストボリューム内挿手段と、
前記イメージベースドレンダリングにより、前記視点位置及び前記内挿位置のコストボリュームから前記光線が発生した奥行きレイヤを推定し、推定した前記奥行きレイヤにおける前記光線情報を生成する光線情報生成手段と、
前記光線情報から前記立体画像を生成する立体画像生成手段と、
を備えることを特徴とする立体画像生成装置。
Using a multi-view image obtained by photographing a subject with a camera array in which photographing cameras are arranged two-dimensionally, ray information representing rays from the subject is generated by image-based rendering, and a stereoscopic image is generated from the ray information. An image generation device,
An optical element array included in a stereoscopic display device that displays the stereoscopic image is parallel to a virtual optical element array arranged in an imaging space where the subject is located, and in the imaging space so as to have a predetermined interval in a depth direction. A parameter setting unit in which an arranged depth layer, a viewpoint position, and an interpolation position between the viewpoint positions are set in advance;
By the image-based rendering, a cost volume that is a three-dimensional array of costs representing similarity or dissimilarity between images when the sampling points on the depth layer are projected onto the multi-viewpoint image, for each viewpoint position. Cost volume calculating means for calculating;
The shift amount between the viewpoint position and the interpolation position is calculated on the depth layer, and the interpolation position of the interpolation position is calculated from the cost volume of each viewpoint position calculated by the cost volume calculation unit according to the calculated shift amount. Cost volume interpolation means for interpolating the cost volume,
By the image-based rendering, a ray information generating unit that estimates a depth layer in which the light ray has occurred from the cost volume of the viewpoint position and the interpolation position, and generates the ray information in the estimated depth layer,
Stereoscopic image generating means for generating the stereoscopic image from the light beam information,
A stereoscopic image generation device comprising:
前記奥行きレイヤ上において、前記視点位置毎の光線が平行になる平行投影のサンプリング点が予め設定されるサンプリング点設定手段、をさらに備え、
前記パラメータ設定手段は、前記仮想光学素子アレイの位置及び素子間隔がさらに設定され、前記奥行きレイヤが前記仮想光学素子アレイの位置を基準として奥行き方向に設定され、
前記コストボリューム内挿手段は、前記仮想光学素子アレイから前記奥行きレイヤまでの奥行きベクトルの要素dと、前記視点位置の光線ベクトルと前記内挿位置の光線ベクトルとの差分ベクトルの要素vと、前記仮想光学素子アレイの素子間隔pとが含まれる下記の式(1)を用いて、
Figure 2020028114
前記シフト量sを算出することを特徴とする請求項1に記載の立体画像生成装置。
On the depth layer, further includes a sampling point setting unit in which a sampling point of parallel projection in which light rays for each of the viewpoint positions are parallel is set in advance,
The parameter setting unit further sets a position and an element interval of the virtual optical element array, and sets the depth layer in a depth direction based on a position of the virtual optical element array,
The cost volume interpolation means includes a depth vector element d from the virtual optical element array to the depth layer, a difference vector element v between the viewpoint position ray vector and the interpolation position ray vector, and Using the following equation (1) including the element interval p of the virtual optical element array,
Figure 2020028114
The three-dimensional image generation device according to claim 1, wherein the shift amount s is calculated.
前記奥行きレイヤ上において、前記視点位置毎の光線が1つの集光点に集光する透視投影レンズシフトのサンプリング点が予め設定されるサンプリング点設定手段、をさらに備え、
前記パラメータ設定手段は、前記仮想光学素子アレイの位置及び素子間隔がさらに設定され、前記奥行きレイヤが前記仮想光学素子アレイの位置を基準として奥行き方向に設定され、
前記コストボリューム内挿手段は、
前記仮想光学素子アレイの素子間隔pと、前記仮想光学素子アレイから前記奥行きレイヤまでの奥行きベクトルの要素dと、前記仮想光学素子アレイに対する前記集光点の位置を示すベクトルの要素Wとが含まれる式(4)を用いて、
Figure 2020028114
前記視点位置と前記内挿位置とのサンプリング点同士の間隔Pを算出し、
前記視点位置の光線ベクトルと前記内挿位置の光線ベクトルとの差分ベクトルの要素vと、前記要素dと、前記間隔Pとが含まれる式(5)を用いて、
Figure 2020028114
前記シフト量sを算出することを特徴とする請求項1に記載の立体画像生成装置。
On the depth layer, further includes a sampling point setting unit in which a sampling point of a perspective projection lens shift in which the light beam for each of the viewpoint positions converges to one converging point,
The parameter setting unit further sets a position and an element interval of the virtual optical element array, and sets the depth layer in a depth direction based on a position of the virtual optical element array,
The cost volume interpolation means,
Includes an element interval p of the virtual optical element array, an element d of a depth vector from the virtual optical element array to the depth layer, and an element W of a vector indicating the position of the converging point with respect to the virtual optical element array. Using equation (4)
Figure 2020028114
Calculating the distance P P sampling points each other and the interpolation position and the view point position,
Using an element v of the difference vector of the ray vector of the interpolation position the ray vector of the viewpoint position, and the element d, the equation that contains the interval P P (5),
Figure 2020028114
The three-dimensional image generation device according to claim 1, wherein the shift amount s is calculated.
撮影カメラを二次元状に並べたカメラアレイが被写体を撮影した多視点画像を用いて、イメージベースドレンダリングにより前記被写体からの光線を表す光線情報を生成し、当該光線情報から立体画像を生成する立体画像生成装置であって、
前記立体画像を表示する立体表示装置が備える光学素子アレイを前記被写体が位置する撮影空間内に配置した仮想光学素子アレイと平行で、かつ、奥行き方向で所定間隔となるように前記撮影空間内に配置された奥行きレイヤと、視点位置とが予め設定されるパラメータ設定手段と、
前記イメージベースドレンダリングにより、前記奥行きレイヤ上のサンプリング点を前記多視点画像に投影したときの画像間の類似度又は非類似度を表すコストの三次元配列であるコストボリュームを、前記視点位置毎に算出するコストボリューム算出手段と、
補正対象の前記視点位置同士のシフト量を前記奥行きレイヤ上で算出し、算出した前記シフト量に応じて、前記補正対象のコストボリュームを補正するコストボリューム補正手段と、
前記イメージベースドレンダリングにより、前記コストボリューム補正手段が補正したコストボリュームから前記光線が発生した奥行きレイヤを推定し、推定した前記奥行きレイヤにおける前記光線情報を生成する光線情報生成手段と、
前記光線情報から前記立体画像を生成する立体画像生成手段と、
を備えることを特徴とする立体画像生成装置。
Using a multi-view image obtained by photographing a subject with a camera array in which photographing cameras are arranged two-dimensionally, ray information representing rays from the subject is generated by image-based rendering, and a stereoscopic image is generated from the ray information. An image generation device,
An optical element array included in a stereoscopic display device that displays the stereoscopic image is parallel to a virtual optical element array arranged in an imaging space where the subject is located, and in the imaging space so as to have a predetermined interval in a depth direction. Parameter setting means for setting the arranged depth layer and the viewpoint position in advance;
By the image-based rendering, a cost volume that is a three-dimensional array of costs representing similarity or dissimilarity between images when the sampling points on the depth layer are projected onto the multi-viewpoint image, for each viewpoint position. Cost volume calculating means for calculating;
Cost volume correction means for calculating the shift amount between the viewpoint positions to be corrected on the depth layer, and correcting the cost volume to be corrected according to the calculated shift amount,
The image-based rendering, ray information generating means for estimating a depth layer in which the light ray has occurred from the cost volume corrected by the cost volume correcting means, and generating the ray information in the estimated depth layer,
Stereoscopic image generating means for generating the stereoscopic image from the light beam information,
A stereoscopic image generation device comprising:
前記奥行きレイヤ上において、前記視点位置毎の光線が平行になる平行投影のサンプリング点が予め設定されるサンプリング点設定手段、をさらに備え、
前記パラメータ設定手段は、前記仮想光学素子アレイの位置及び素子間隔がさらに設定され、前記奥行きレイヤが前記仮想光学素子アレイの位置を基準として奥行き方向に設定され、
前記コストボリューム補正手段は、前記仮想光学素子アレイから前記奥行きレイヤまでの奥行きベクトルの要素dと、前記補正対象の視点位置同士における光線ベクトルの差分ベクトルの要素vと、前記仮想光学素子アレイの素子間隔pとが含まれる下記の式(1)を用いて、
Figure 2020028114
前記シフト量sを算出することを特徴とする請求項4に記載の立体画像生成装置。
On the depth layer, further includes a sampling point setting unit in which a sampling point of parallel projection in which light rays for each of the viewpoint positions are parallel is set in advance,
The parameter setting unit further sets a position and an element interval of the virtual optical element array, and sets the depth layer in a depth direction based on a position of the virtual optical element array,
The cost volume correction unit includes a depth vector element d from the virtual optical element array to the depth layer, a light vector difference vector element v between the correction target viewpoint positions, and a virtual optical element array element. Using the following equation (1) including the interval p,
Figure 2020028114
The three-dimensional image generation device according to claim 4, wherein the shift amount s is calculated.
前記奥行きレイヤ上において、前記視点位置毎の光線が1つの集光点に集光する透視投影レンズシフトのサンプリング点が予め設定されるサンプリング点設定手段、をさらに備え、
前記パラメータ設定手段は、前記仮想光学素子アレイの位置及び素子間隔がさらに設定され、前記奥行きレイヤが前記仮想光学素子アレイの位置を基準として奥行き方向に設定され、
前記コストボリューム補正手段は、
前記仮想光学素子アレイの素子間隔pと、前記仮想光学素子アレイから前記奥行きレイヤまでの奥行きベクトルの要素dと、前記仮想光学素子アレイに対する前記集光点の位置を示すベクトルの要素Wとが含まれる式(4)を用いて、
Figure 2020028114
前記補正対象の視点位置同士におけるサンプリング点の間隔Pを算出し、
前記補正対象の視点位置同士における光線ベクトルの差分ベクトルの要素vと、前記要素dと、前記間隔Pとが含まれる式(5)を用いて、
Figure 2020028114
前記シフト量sを算出することを特徴とする請求項4に記載の立体画像生成装置。
On the depth layer, further includes a sampling point setting unit in which a sampling point of a perspective projection lens shift in which the light beam for each of the viewpoint positions converges to one converging point,
The parameter setting unit further sets a position and an element interval of the virtual optical element array, and sets the depth layer in a depth direction based on a position of the virtual optical element array,
The cost volume correction means,
Includes an element interval p of the virtual optical element array, an element d of a depth vector from the virtual optical element array to the depth layer, and an element W of a vector indicating the position of the converging point with respect to the virtual optical element array. Using equation (4)
Figure 2020028114
Calculating the distance P P of sampling points at the viewpoint position between the correction target,
Above using an element v of the difference vector of the ray vector at the correction target viewpoint position between, said element d, the equation that contains the interval P P (5),
Figure 2020028114
The three-dimensional image generation device according to claim 4, wherein the shift amount s is calculated.
前記コストボリューム補正手段は、前記コストボリュームに含まれる互いの前記コストが予め設定された値以上異なる場合、当該コストを補正することを特徴とする請求項4から請求項6の何れか一項に記載の立体画像生成装置。   7. The cost volume correction unit according to claim 4, wherein, when the costs included in the cost volume are different from each other by a predetermined value or more, the cost volume correction unit corrects the cost. 8. The stereoscopic image generation device according to claim 1. 前記立体画像は、インテグラル立体方式の要素画像であり、
前記立体画像生成手段は、各光線情報から同一位置の画素を抽出し、抽出した前記画素で構成される前記要素画像を生成することを特徴とする請求項1から請求項7の何れか一項に記載の立体画像生成装置。
The stereoscopic image is an integral stereoscopic element image,
The said three-dimensional image production | generation means extracts the pixel of the same position from each ray information, and produces | generates the said element image comprised by the extracted said pixel, The one of Claim 1 to 7 characterized by the above-mentioned. 3. The stereoscopic image generation device according to claim 1.
コンピュータを、請求項1から請求項8の何れか一項に記載の立体画像生成装置として機能させるためのプログラム。   A program for causing a computer to function as the three-dimensional image generation device according to claim 1.
JP2019116115A 2018-08-10 2019-06-24 Stereoscopic image generation device and its program Active JP7416573B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018151252 2018-08-10
JP2018151252 2018-08-10

Publications (2)

Publication Number Publication Date
JP2020028114A true JP2020028114A (en) 2020-02-20
JP7416573B2 JP7416573B2 (en) 2024-01-17

Family

ID=69620484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116115A Active JP7416573B2 (en) 2018-08-10 2019-06-24 Stereoscopic image generation device and its program

Country Status (1)

Country Link
JP (1) JP7416573B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7489253B2 (en) 2020-07-28 2024-05-23 日本放送協会 Depth map generating device and program thereof, and depth map generating system
JP7501481B2 (en) 2021-09-27 2024-06-18 トヨタ自動車株式会社 Distance estimation device, distance estimation method, and computer program for distance estimation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007528631A (en) * 2004-02-20 2007-10-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3D television system and method for providing 3D television
JP2016158213A (en) * 2015-02-26 2016-09-01 日本放送協会 Element image group generation device and program thereof, and digital broadcast receiver

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007528631A (en) * 2004-02-20 2007-10-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3D television system and method for providing 3D television
JP2016158213A (en) * 2015-02-26 2016-09-01 日本放送協会 Element image group generation device and program thereof, and digital broadcast receiver

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUICHI TAGUCHI (外3名): "TransCAIP: A Live 3D TV System Using a Camera Array and an Integral Photography Display with Interac", IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS, vol. Volume:15, Issue: 5, JPN6023010219, 10 February 2009 (2009-02-10), US, pages 841 - 852, ISSN: 0005112955 *
田口裕一(外2名): "ネットワークカメラアレイを用いた実時間全焦点自由視点映像合成システム", 電子情報通信学会技術研究報告, vol. 第107巻, 第539号, JPN6023010218, 3 March 2008 (2008-03-03), JP, pages 79 - 86, ISSN: 0005112954 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7489253B2 (en) 2020-07-28 2024-05-23 日本放送協会 Depth map generating device and program thereof, and depth map generating system
JP7501481B2 (en) 2021-09-27 2024-06-18 トヨタ自動車株式会社 Distance estimation device, distance estimation method, and computer program for distance estimation

Also Published As

Publication number Publication date
JP7416573B2 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
JP4942221B2 (en) High resolution virtual focal plane image generation method
JP5153940B2 (en) System and method for image depth extraction using motion compensation
JP6750183B2 (en) Image distance calculating device, image distance calculating method, and image distance calculating program
KR20110049039A (en) High density multi-view display system and method based on the active sub-pixel rendering
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP6655379B2 (en) Method and apparatus for generating an adaptive slice image from a focus stack
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP6717576B2 (en) Video rendering apparatus and method
JP7416573B2 (en) Stereoscopic image generation device and its program
JP4729011B2 (en) Element image group conversion device, stereoscopic image display device, and element image group conversion program
JP5931062B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JP2013120435A (en) Image processing apparatus and image processing method, and program
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
JP7257272B2 (en) DEPTH MAP GENERATION DEVICE AND PROGRAM THEREOF, AND 3D IMAGE GENERATION DEVICE
JP6595878B2 (en) Element image group generation apparatus and program thereof
WO2012014695A1 (en) Three-dimensional imaging device and imaging method for same
EP2595393A1 (en) Rectified stereoscopic 3d panoramic picture
JP6118527B2 (en) Spatial distortion correction apparatus and program thereof
JP5243359B2 (en) Stereoscopic image generation system and program
JP2018050253A (en) Image generating apparatus and program
JP6788472B2 (en) Element image generator and its program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240104

R150 Certificate of patent or registration of utility model

Ref document number: 7416573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150