JP2017073710A - Element image group generation device and program therefor - Google Patents

Element image group generation device and program therefor Download PDF

Info

Publication number
JP2017073710A
JP2017073710A JP2015200560A JP2015200560A JP2017073710A JP 2017073710 A JP2017073710 A JP 2017073710A JP 2015200560 A JP2015200560 A JP 2015200560A JP 2015200560 A JP2015200560 A JP 2015200560A JP 2017073710 A JP2017073710 A JP 2017073710A
Authority
JP
Japan
Prior art keywords
camera
vector
image group
image
element image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015200560A
Other languages
Japanese (ja)
Other versions
JP6595878B2 (en
Inventor
健介 久富
Kensuke Hisatomi
健介 久富
人誌 日浦
Hitoshi Hiura
人誌 日浦
三科 智之
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2015200560A priority Critical patent/JP6595878B2/en
Publication of JP2017073710A publication Critical patent/JP2017073710A/en
Application granted granted Critical
Publication of JP6595878B2 publication Critical patent/JP6595878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an element image group by reducing influence caused by an error included in a three-dimensional model of a subject.SOLUTION: An element image group generation device 100 comprises: beam tracking means 110 for calculating coordinates of an intersection between a linear line showing a beam that is originated from a pixel of a virtual display disposed in a virtual space before passing through a lens of a virtual lens array and a three-dimensional model disposed in the virtual space; image integration means 120 that, on the basis of angles between camera vectors showing photographing directions by a plurality of cameras arranged in the virtual space on the basis of a camera parameter and a beam vector, a direction vector of the linear line, selects a camera having an angle equal to or lower than a predetermined value, projects the coordinates of the intersection on a camera image input with respect to the selected camera, and allocates pixel values of a point of the projection or a pixel value obtained by synthesizing the pixel values to the pixel of the virtual display; and image generation control means 130 for generating an element image group obtained by integrating pixel values allocated to all pixels of the virtual display.SELECTED DRAWING: Figure 1

Description

本発明は、立体テレビ用の要素画像群生成装置及びそのプログラムに関する。   The present invention relates to an element image group generation device for stereoscopic television and a program thereof.

マイクロレンズが2次元配列状に並んだレンズアレーを、2次元ディスプレーの前に設置し、所定の画像を2次元ディスプレーに表示することで、方向によって異なる輝度値(色)の光線を射出することができる。これを用いると、目の位置によって、右目と左目で異なる光線を受光するために、メガネなしで立体像を再生することができる。この原理を用いた立体テレビをインテグラル式立体テレビという。   A lens array in which microlenses are arranged in a two-dimensional array is placed in front of a two-dimensional display, and a predetermined image is displayed on the two-dimensional display, thereby emitting light beams having different luminance values (colors) depending on directions. Can do. When this is used, a three-dimensional image can be reproduced without glasses because different light rays are received by the right eye and the left eye depending on the position of the eyes. A stereoscopic television using this principle is called an integral stereoscopic television.

レンズアレーを構成する個々のマイクロレンズ(要素レンズ:以下、単にレンズともいう)に対して割り当てられる画素群は要素画像と呼ばれている。この要素画像を集積した要素画像群が2次元ディスプレーに表示される。インテグラル方式では、要素画像群は、一般的には、高精細な多数の画素を有した高精細カメラを用いて被写体をレンズアレー越しに撮影することにより取得される。ただし、遠方の被写体をレンズアレー越しに撮影すると、この被写体を表示させた際に、立体感の少ない平面的な立体像となってしまう。   A pixel group assigned to each microlens (element lens: hereinafter, also simply referred to as a lens) constituting the lens array is called an element image. An element image group in which the element images are accumulated is displayed on the two-dimensional display. In the integral method, the element image group is generally acquired by photographing a subject through a lens array using a high-definition camera having a large number of high-definition pixels. However, if a distant subject is photographed through a lens array, when this subject is displayed, it becomes a planar three-dimensional image with little stereoscopic effect.

そこで、被写体をレンズアレー越しに撮影するのではなく、複数のカメラで取得された多視点映像から要素画像群を生成し、この手法で生成した要素画像群を用いてインテグラル立体像を生成する手法が従来知られている(非特許文献1、非特許文献2参照)。この手法では、はじめに、多視点映像から既存の3次元形状復元手法を用いて、被写体の3次元モデル(3次元形状)を生成する。そして、その3次元モデルを演算機内の仮想空間に配置し、実空間と同じ要領で仮想的なレンズアレーと仮想的なカメラも仮想空間内に配置することで、演算機内で要素画像群及びインテグラル立体像を生成することができる。   Therefore, instead of photographing the subject through the lens array, an element image group is generated from multi-viewpoint images acquired by a plurality of cameras, and an integral stereoscopic image is generated using the element image group generated by this method. Methods are conventionally known (see Non-Patent Document 1 and Non-Patent Document 2). In this method, first, a three-dimensional model (three-dimensional shape) of a subject is generated from a multi-view video using an existing three-dimensional shape restoration method. The three-dimensional model is arranged in the virtual space in the computing machine, and the virtual lens array and the virtual camera are also arranged in the virtual space in the same manner as in the real space. A three-dimensional image can be generated.

Yasutaka Furukawa and Jean Ponce, “Accurate, Dense, and Robust Multi-View Stereopsis”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition, July 2007.Yasutaka Furukawa and Jean Ponce, “Accurate, Dense, and Robust Multi-View Stereopsis”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition, July 2007. K. Hisatomi, K. Tomiyama, M. Katayama, and Y. Iwadate, “3D archive system for traditional performing arts”, International Journal of Computer Vision (IJCV), Vol. 94, pp78-88 (2011)K. Hisatomi, K. Tomiyama, M. Katayama, and Y. Iwadate, “3D archive system for traditional performing arts”, International Journal of Computer Vision (IJCV), Vol. 94, pp78-88 (2011)

しかしながら、従来技術では、被写体の3次元モデルを仮想空間に配置することを前提としているが、この3次元モデルそのものには誤差が伴っている。
また、要素画像群を生成するために用いる多視点映像は、同一被写体を複数のカメラで撮影して生成されているので、各カメラ画像には重複している部分がある。そこで、3次元モデルから要素画像群を生成する際に、ある画素に対してどのカメラ画像(どのカメラ)を選択するのか、また選択したカメラが適切なものなのかどうかは極めて重要である。
従来、一般的には、3次元モデルの法線に一番近いカメラを選択するようにしており、表示された際に再生されるインテグラル立体像を、遠くから眺めた場合には3次元モデルの誤差(エラー)が誇張されてしまう問題があった。そして、撮影した方向(撮影時に被写体から発してカメラに記録された光線の方向)と、観測する方向(2次元ディスプレーに被写体を表示させた際に再現される光線の方向)と、のなす角度が大きくなるほど、3次元モデルにおける誤差の影響が大きくなってしまう。
However, the conventional technology assumes that a three-dimensional model of a subject is arranged in a virtual space, but the three-dimensional model itself has an error.
In addition, since the multi-view video used for generating the element image group is generated by photographing the same subject with a plurality of cameras, there is an overlapping portion in each camera image. Therefore, when generating an element image group from a three-dimensional model, it is very important which camera image (which camera) is selected for a certain pixel and whether the selected camera is appropriate.
Conventionally, in general, the camera closest to the normal line of the 3D model is selected, and when the integral stereoscopic image reproduced when displayed is viewed from a distance, the 3D model is selected. There was a problem that the error of () was exaggerated. The angle formed by the direction in which the image was taken (the direction of the light beam emitted from the subject at the time of shooting and recorded in the camera) and the direction to be observed (the direction of the light beam that is reproduced when the subject is displayed on the two-dimensional display) As the value of becomes larger, the influence of errors in the three-dimensional model becomes larger.

本発明は、以上のような問題点に鑑みてなされたものであり、被写体の3次元モデルに含まれている誤差による影響を低減できる要素画像群生成装置及びそのプログラムを提供することを課題とする。   The present invention has been made in view of the above problems, and it is an object of the present invention to provide an element image group generation device and a program thereof that can reduce the influence of errors included in a three-dimensional model of a subject. To do.

前記課題を解決するために、本発明の第1の観点に係る要素画像群生成装置は、被写体の予め生成された3次元モデルを利用し、前記被写体を多視点カメラで撮影した多視点のカメラ画像から要素画像群を生成する要素画像群生成装置であって、光線追跡手段と、画像統合手段と、画像生成制御手段と、を備えることとした。   In order to solve the above-described problem, an element image group generation device according to a first aspect of the present invention uses a multi-view camera that captures a subject using a multi-view camera using a pre-generated three-dimensional model of the subject. An element image group generation apparatus that generates an element image group from an image, and includes a light ray tracing unit, an image integration unit, and an image generation control unit.

かかる構成によれば、要素画像群生成装置は、光線追跡手段によって、仮想空間に配置した仮想ディスプレーの画素から発して仮想レンズアレーのレンズを通過する光線を表す直線の方向ベクトルである光線ベクトルを算出すると共に前記直線と前記仮想空間に配置した前記3次元モデルとの交点のうち観測者に最も近い位置に対応して決定した交点の座標を求める。
そして、要素画像群生成装置は、画像統合手段によって、前記被写体の撮影に用いる多視点カメラのカメラパラメータに基づいて前記仮想空間上に配置された複数のカメラによる撮影方向を示すカメラベクトルと前記光線ベクトルとのなす角度が所定値以下であるカメラを選択し、前記選択されたカメラについて入力された前記カメラ画像に対して前記交点の座標を投影し、この投影点の画素値又はそれらを合成した画素値を前記仮想ディスプレーの画素に割り当てる。
これにより、被写体を撮影した複数のカメラの中から、被写体を表示させた際に観測する光線の方向と最も近い方向から撮影したカメラを選択することができる。
そして、要素画像群生成装置は、画像生成制御手段によって、前記仮想ディスプレーの全画素について割り当てられた画素値を集積した要素画像群を生成する。
したがって、要素画像群生成装置は、観測する光線の方向と最も近い方向から撮影したカメラの映像を用いて立体像を生成するので、演算機内の仮想空間に配置した3次元モデルにおける誤差の影響を最小限にすることができる。
According to this configuration, the element image group generation device uses the ray tracing means to obtain a ray vector that is a linear direction vector representing rays that are emitted from the pixels of the virtual display arranged in the virtual space and pass through the lenses of the virtual lens array. The coordinates of the intersection determined corresponding to the position closest to the observer among the intersections of the straight line and the three-dimensional model arranged in the virtual space are obtained.
Then, the element image group generation device uses the image integration unit to generate a camera vector indicating the shooting direction of the plurality of cameras arranged in the virtual space based on the camera parameters of the multi-viewpoint camera used for shooting the subject and the light beam. Select a camera whose angle with the vector is equal to or less than a predetermined value, project the coordinates of the intersection point on the camera image input for the selected camera, and synthesize the pixel value of this projection point or them Assign pixel values to the pixels of the virtual display.
This makes it possible to select a camera photographed from the direction closest to the direction of the light beam observed when the subject is displayed from among a plurality of cameras that photographed the subject.
Then, the element image group generation device generates an element image group in which pixel values assigned to all the pixels of the virtual display are accumulated by the image generation control unit.
Therefore, the element image group generation device generates a stereoscopic image using the video of the camera taken from the direction closest to the direction of the light beam to be observed. Therefore, the effect of the error in the three-dimensional model arranged in the virtual space in the computing machine is reduced. Can be minimized.

また、前記課題を解決するために、本発明の第2の観点に係る要素画像群生成装置は、被写体の予め生成された複数のデプスマップを利用し、前記被写体を多視点カメラで撮影した多視点のカメラ画像から要素画像群を生成する要素画像群生成装置であって、光線追跡手段と、画像統合手段と、画像生成制御手段と、を備えることとした。   In order to solve the above problem, an element image group generation device according to a second aspect of the present invention uses a plurality of depth maps generated in advance of a subject, and uses a multi-view camera to capture the subject. An element image group generation apparatus that generates an element image group from a viewpoint camera image, and includes a ray tracing unit, an image integration unit, and an image generation control unit.

かかる構成によれば、要素画像群生成装置は、光線追跡手段によって、仮想空間に配置した仮想ディスプレーの画素から発して仮想レンズアレーのレンズを通過する光線を表す直線の方向ベクトルである光線ベクトルを算出すると共に前記直線と前記仮想空間に配置した前記デプスマップとの交点のうち観測者に最も近い位置に対応して決定した交点の座標を求める。
そして、要素画像群生成装置は、画像統合手段によって、前記被写体の撮影に用いる多視点カメラのカメラパラメータに基づいて前記仮想空間上に配置された複数のカメラによる撮影方向を示すカメラベクトルと前記光線ベクトルとのなす角度が所定値以下であるカメラを選択し、前記選択されたカメラについて入力された前記カメラ画像に対して前記交点の座標を投影し、この投影点の画素値又はそれらを合成した画素値を前記仮想ディスプレーの画素に割り当てる。
そして、要素画像群生成装置は、画像生成制御手段によって、前記仮想ディスプレーの全画素について割り当てられた画素値を集積した要素画像群を生成する。
According to this configuration, the element image group generation device uses the ray tracing means to obtain a ray vector that is a linear direction vector representing rays that are emitted from the pixels of the virtual display arranged in the virtual space and pass through the lenses of the virtual lens array. The coordinates of the intersection determined corresponding to the position closest to the observer among the intersections of the straight line and the depth map arranged in the virtual space are obtained.
Then, the element image group generation device uses the image integration unit to generate a camera vector indicating the shooting direction of the plurality of cameras arranged in the virtual space based on the camera parameters of the multi-viewpoint camera used for shooting the subject and the light beam. Select a camera whose angle with the vector is equal to or less than a predetermined value, project the coordinates of the intersection point on the camera image input for the selected camera, and synthesize the pixel value of this projection point or them Assign pixel values to the pixels of the virtual display.
Then, the element image group generation device generates an element image group in which pixel values assigned to all the pixels of the virtual display are accumulated by the image generation control unit.

また、本発明は、コンピュータを、前記要素画像群生成装置として機能させるための要素画像群生成プログラムで実現することもできる。   The present invention can also be realized by an element image group generation program for causing a computer to function as the element image group generation apparatus.

本発明によれば、被写体の3次元モデルに含まれている誤差による影響を低減して要素画像群を生成することができる。   According to the present invention, it is possible to generate an element image group by reducing the influence of errors included in a three-dimensional model of a subject.

本発明の第1実施形態に係る要素画像群生成装置の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the element image group production | generation apparatus which concerns on 1st Embodiment of this invention. 図1の要素画像群生成装置に入力する各カメラ画像を撮影した多視点カメラの配置の一例を示す模式図である。It is a schematic diagram which shows an example of arrangement | positioning of the multiview camera which image | photographed each camera image input into the element image group generation apparatus of FIG. 図1の要素画像群生成装置の動作の説明図であって、設定される仮想空間を模式的に示している。It is explanatory drawing of operation | movement of the element image group production | generation apparatus of FIG. 1, Comprising: The virtual space to set is shown typically. 図1の要素画像群生成装置の動作の説明図であって、仮想空間において光線ベクトルを模式的に示している。It is explanatory drawing of operation | movement of the element image group production | generation apparatus of FIG. 1, Comprising: The light vector is typically shown in virtual space. 図1の要素画像群生成装置の動作の説明図であって、(a)は画素値の割り当て処理の一例、(b)は要素画像群格納メモリの記憶構造の一例を示している。FIGS. 2A and 2B are explanatory diagrams of the operation of the element image group generation device of FIG. 1, in which FIG. 1A shows an example of pixel value assignment processing, and FIG. 図1の要素画像群生成装置による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process by the element image group production | generation apparatus of FIG. 本発明の第2実施形態に係る要素画像群生成装置の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the element image group production | generation apparatus which concerns on 2nd Embodiment of this invention. 図7の要素画像群生成装置の動作の説明図であって、仮想空間及び光線ベクトルを模式的に示している。FIG. 8 is an explanatory diagram of the operation of the element image group generation device in FIG. 7, schematically showing a virtual space and a light vector. 図7の要素画像群生成装置による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the element image group generation apparatus of FIG.

本発明に係る要素画像群生成装置を実施するための形態について図面を参照して詳細に説明する。
(第1実施形態)
[要素画像群生成装置の構成]
図1に示す要素画像群生成装置100は、同一被写体を多視点カメラ(複数のカメラ)で撮影した多視点のカメラ画像(多視点映像)からインテグラル式立体テレビの立体像を生成するための要素画像群を生成するものである。本実施形態の要素画像群生成装置100は、被写体の予め生成された3次元モデルを演算機内の仮想空間上に配置して要素画像群を生成する。
An embodiment for implementing an element image group generation device according to the present invention will be described in detail with reference to the drawings.
(First embodiment)
[Configuration of Element Image Group Generation Device]
An element image group generation device 100 shown in FIG. 1 generates a stereoscopic image of an integral 3D television from a multi-view camera image (multi-view video) obtained by shooting the same subject with a multi-view camera (a plurality of cameras). An element image group is generated. The element image group generation device 100 according to the present embodiment generates an element image group by arranging a previously generated three-dimensional model of a subject in a virtual space in a computing machine.

要素画像群生成装置100は、図1に示すように、主として、光線追跡手段110と、画像統合手段120と、画像生成制御手段130と、を備えている。この要素画像群生成装置100は、例えば一般的なコンピュータで構成され、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力インタフェース等を備えている。なお、仮想空間情報メモリ114や要素画像群格納メモリ131は、HDDや一般的な画像メモリから構成される。   As shown in FIG. 1, the element image group generation apparatus 100 mainly includes a ray tracing unit 110, an image integration unit 120, and an image generation control unit 130. The element image group generation device 100 is configured by, for example, a general computer, and includes a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a hard disk drive (HDD), an input / output interface, and the like. It has. Note that the virtual space information memory 114 and the element image group storage memory 131 are configured by an HDD or a general image memory.

本実施形態では、要素画像群生成装置100の処理の際に外部から、被写体を撮影したカメラ画像、予め取得されたカメラパラメータ、適宜設定されたディスプレーパラメータ及びレンズアレーパラメータ、予め生成された前記被写体に関する3次元モデルがそれぞれ入力されるものとする。なお、これらの入力データは、処理の前に、要素画像群生成装置100の内部のメモリに記憶させておくこととしてもよい。   In the present embodiment, a camera image obtained by photographing a subject from outside during the processing of the element image group generation device 100, camera parameters acquired in advance, display parameters and lens array parameters set as appropriate, and the subject generated in advance. It is assumed that a three-dimensional model is input. These input data may be stored in the internal memory of the element image group generation device 100 before processing.

まず、入力データについて説明する。
<入力データ>
カメラ画像とは、多視点カメラで撮影した多視点映像の少なくとも1つの視点映像を表している。なお、視点映像や多視点映像に関して、画像処理を説明する場合や、記憶された画像又はフレーム単位の画像等を指す場合、カメラ画像あるいは単に画像と呼ぶ場合もある。撮影に用いる多視点カメラの配置の一例を図2に示す。図2に示す例では、縦3×横7の合計21台のカラーカメラC(以下、単にカメラという)による2次元カメラアレーとしている。ただし、カメラ台数はこれに限らず、また、例えば縦1×横7の合計7台のカメラCによる1次元カメラアレーとしても構わない。
First, input data will be described.
<Input data>
A camera image represents at least one viewpoint video of a multi-view video shot by a multi-view camera. It should be noted that, regarding viewpoint video and multi-view video, when describing image processing, or when referring to a stored image or an image in units of frames, it may be referred to as a camera image or simply an image. An example of the arrangement of multi-viewpoint cameras used for shooting is shown in FIG. In the example shown in FIG. 2, a two-dimensional camera array using a total of 21 color cameras C (hereinafter simply referred to as cameras) of 3 × 7 in the vertical direction is used. However, the number of cameras is not limited to this, and may be a one-dimensional camera array including a total of seven cameras C, for example, 1 × 7 vertically.

カメラパラメータは、前記被写体の撮影に用いる多視点カメラについての各カメラの焦点距離等のレンズ系のパラメータと、各カメラの回転や並進等の姿勢に関するパラメータと、を含んでいる。
なお、カメラパラメータを取得する方法としては、例えば多視点カメラを設置した後、被写体を撮影する前に、既知の位置に点群が描画されているパターンを全てのカメラで同時に撮影し、撮影された全てのカメラ画像を用いて例えば以下の参考文献1に記載されているような手法を用いることでカメラパラメータを取得することが可能である。
参考文献1:R.Y.Tsai,「A versatile camera calibration technique for high accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses.」,IEEE Journal of Robotics and Automation,RA-3(4) ,pp323-344,1987
The camera parameters include lens system parameters such as the focal length of each camera for the multi-viewpoint camera used for photographing the subject, and parameters relating to postures such as rotation and translation of each camera.
As a method for acquiring camera parameters, for example, after a multi-viewpoint camera is installed and before a subject is photographed, a pattern in which a point cloud is drawn at a known position is simultaneously photographed and photographed by all cameras. It is possible to acquire camera parameters by using a technique as described in Reference Document 1 below using all camera images.
Reference 1: R.R. Y. Tsai, “A versatile camera calibration technique for high accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses”, IEEE Journal of Robotics and Automation, RA-3 (4), pp323-344, 1987

または、既知の位置に点群が描画されているパターンを用いる代わりに、例えば以下の参考文献2に記載されているような手法を用いることで、カメラによって撮影された画像内から抽出した特徴点の画像間の対応関係を用いて、カメラパラメータを取得することも可能である。
参考文献2:Noah Snavely,Steven M.Seitz, Richard Szeliski,「Modeling the World from Internet Photo Collections」,International Journal of Computer Vision,80(2) ,189-210,November 2008
Alternatively, instead of using a pattern in which a point cloud is drawn at a known position, for example, a feature point extracted from the image photographed by the camera by using a technique as described in Reference Document 2 below. It is also possible to acquire camera parameters using the correspondence between the images.
Reference 2: Noah Snavely, Steven M. et al. Seitz, Richard Szeliski, “Modeling the World from Internet Photo Collections”, International Journal of Computer Vision, 80 (2), 189-210, November 2008

ディスプレーパラメータとしては、例えば仮想ディスプレーの縦横の大きさや、仮想ディスプレー上の画素の大きさ、画素数、画素ピッチ、各画素の位置等を挙げることができる。
レンズアレーパラメータとしては、例えば仮想レンズアレーの縦横の大きさ、仮想レンズアレーを構成するレンズ(マイクロレンズ)の直径、個数、レンズピッチ、各レンズの光学主点の位置、レンズの焦点距離等を挙げることができる。
画像を表示させたいディスプレーやレンズアレーが分かっていれば、そのディスプレーやレンズアレーのパラメータをそのまま当てはめてもよい。
Examples of the display parameter include the vertical and horizontal sizes of the virtual display, the size of the pixels on the virtual display, the number of pixels, the pixel pitch, and the position of each pixel.
The lens array parameters include, for example, the vertical and horizontal sizes of the virtual lens array, the diameter and number of lenses (microlenses) constituting the virtual lens array, the lens pitch, the position of the optical principal point of each lens, the focal length of the lens, and the like. Can be mentioned.
If the display or lens array in which the image is to be displayed is known, the parameters of the display or lens array may be applied as they are.

3次元モデルは、被写体の3次元形状を表すものであり、予め生成されている。本実施形態では、3次元モデルの生成手法は特に限定されない。
一例として被写体を多視点カメラで撮影して得られた多視点映像から復元したものであるとして説明する。なお、多視点映像から3次元モデルを生成する手法としては、全てのカメラ画像を用いて一度にモデルを生成する多眼視による手法と、2台のカメラペアから順次生成したモデルを統合するステレオ視による手法とが知られている。また、多眼視による手法の1つとして視体積交差法も知られている。このようないずれの手法も採用することができる。
The three-dimensional model represents the three-dimensional shape of the subject and is generated in advance. In the present embodiment, the method for generating the three-dimensional model is not particularly limited.
As an example, a description will be given assuming that a subject is restored from a multi-view video obtained by shooting with a multi-view camera. As a method for generating a three-dimensional model from a multi-view video, a stereo method for integrating a model generated sequentially from two camera pairs with a multi-view method that generates a model at once using all camera images. A visual method is known. A visual volume intersection method is also known as one of the multi-view methods. Any of these methods can be employed.

次に、要素画像群生成装置100を構成する各手段について説明する。
<光線追跡手段>
光線追跡手段110は、画像生成制御手段130の制御の下、仮想空間に配置した仮想ディスプレーの画素から発する光線を追跡するものである。
光線追跡手段110には、ディスプレーパラメータ、レンズアレーパラメータ、カメラパラメータ及び3次元モデルが入力される。この光線追跡手段110は、仮想空間設定手段111と、光線ベクトル算出手段112と、位置情報算出手段113と、を備えている。
Next, each unit constituting the element image group generation device 100 will be described.
<Ray tracing means>
The ray tracing unit 110 tracks rays emitted from the pixels of the virtual display arranged in the virtual space under the control of the image generation control unit 130.
The ray tracing unit 110 receives display parameters, lens array parameters, camera parameters, and a three-dimensional model. The ray tracing unit 110 includes a virtual space setting unit 111, a ray vector calculation unit 112, and a position information calculation unit 113.

まず、図3を参照(適宜図1参照)して仮想空間設定手段111について説明する。
仮想空間設定手段111は、入力されるディスプレーパラメータに基づいて、仮想空間(仮想空間情報メモリ114)において基準とする位置に仮想ディスプレーを配置する。
図3では、一例として、仮想ディスプレーの表示画面(画素群)の横方向(水平方向)に沿ってY軸が配置され、仮想ディスプレーの表示画面(画素群)の縦方向(紙面に垂直な方向)に沿ってX軸が配置されているものとする。
First, the virtual space setting unit 111 will be described with reference to FIG. 3 (refer to FIG. 1 as appropriate).
The virtual space setting unit 111 arranges the virtual display at a reference position in the virtual space (virtual space information memory 114) based on the input display parameter.
In FIG. 3, as an example, the Y axis is arranged along the horizontal direction (horizontal direction) of the display screen (pixel group) of the virtual display, and the vertical direction (direction perpendicular to the paper surface) of the display screen (pixel group) of the virtual display. ) Along the X axis.

仮想空間設定手段111は、入力されるレンズアレーパラメータに基づいて、仮想空間(仮想空間情報メモリ114)において仮想ディスプレーの表示画面に対して平行に仮想レンズアレーを配置する。ここでは、仮想ディスプレーの中心から仮想レンズアレーの中心へのベクトルをZ軸とする。仮想空間設定手段111は、仮想ディスプレーからZ軸方向に焦点距離fだけ離間した位置に仮想レンズアレーを配置する。なお、図3では、Y軸をZ軸の負の方向にずらして見易くしている。   The virtual space setting unit 111 arranges the virtual lens array in parallel with the display screen of the virtual display in the virtual space (virtual space information memory 114) based on the input lens array parameters. Here, the vector from the center of the virtual display to the center of the virtual lens array is taken as the Z axis. The virtual space setting unit 111 arranges the virtual lens array at a position separated from the virtual display by the focal length f in the Z-axis direction. In FIG. 3, the Y axis is shifted in the negative direction of the Z axis for easy viewing.

仮想空間設定手段111は、入力されるカメラパラメータに基づいて仮想空間(仮想空間情報メモリ114)に仮想カメラ(以下、単にカメラともいう)を配置する。
以下では、一例として、5台のカメラからなる多視点カメラで被写体の多視点映像を撮影したものとして説明する。各カメラが配された位置が視点位置を表している。この場合、多視点映像は、画像(カメラ画像)I0、I1、I2、I3、I4で構成される。
The virtual space setting unit 111 arranges a virtual camera (hereinafter also simply referred to as a camera) in the virtual space (virtual space information memory 114) based on the input camera parameters.
Hereinafter, as an example, it is assumed that a multi-view video of a subject is captured by a multi-view camera including five cameras. The position where each camera is arranged represents the viewpoint position. In this case, the multi-view video is composed of images (camera images) I 0 , I 1 , I 2 , I 3 , and I 4 .

仮想空間設定手段111は、仮想空間(仮想空間情報メモリ114)において仮想ディスプレーの近傍に3次元モデルQを配置する。
ここでは、後記する直線との交点を説明する目的で複雑な形状の3次元モデルを図示した。図3に示す3次元モデルQは、平面視で、仮想ディスプレーから仮想レンズアレーの側(観測者の側)に突出した2つの突出部と、2つの突出部の間で仮想ディスプレーから仮想レンズとは反対側に凹んだ凹部とを有する曲線からなる。なお、図3では、モデルの正面(図3において右側)や側面(図3において上側及び下側)がひと続きの滑らかな曲線で示されているが、場合によっては細かなジグザグを持った波形状のモデルとして求められることがある。
The virtual space setting unit 111 arranges the three-dimensional model Q in the vicinity of the virtual display in the virtual space (virtual space information memory 114).
Here, a three-dimensional model having a complicated shape is illustrated for the purpose of explaining an intersection with a straight line to be described later. The three-dimensional model Q shown in FIG. 3 has two projections that project from the virtual display to the virtual lens array side (observer side) in a plan view, and the virtual display to the virtual lens between the two projections. Consists of a curve with a recess recessed on the opposite side. In FIG. 3, the front (right side in FIG. 3) and side surfaces (upper and lower in FIG. 3) of the model are shown by a series of smooth curves, but in some cases, waves with fine zigzags It may be required as a shape model.

次に、図4を参照(適宜図1参照)して光線追跡手段110の構成の説明を続ける。
光線ベクトル算出手段112は、仮想空間に配置した仮想ディスプレーの画素iから発して仮想レンズアレーのレンズを通過する光線を表す直線Lの方向ベクトルである光線ベクトルgを算出する。なお、iは仮想ディスプレー上で左から何番目で上から何番目の画素であるかを示す2次元座標を特定するための識別子で、0,1,…で表される。算出された光線ベクトルは、画像統合手段120に出力される。
本実施形態では、光線ベクトルgは、仮想ディスプレー上の画素iの位置を終点とするベクトルであって、仮想レンズアレーにおいて当該画素iの最近傍のマイクロレンズmの光学主点pを始点とするベクトルであるものとした。この光線ベクトルgの向きとは反対向きのベクトルを想定すると、そのベクトルの向き(仮想カメラ側に向かう直線Lの向き)は、生成される立体像を観測するときには、当該画素から再生されるインテグラル立体像の光線の向きを表す。
Next, referring to FIG. 4 (refer to FIG. 1 as appropriate), the description of the configuration of the ray tracing means 110 will be continued.
The light ray vector calculating means 112 calculates a light ray vector g which is a direction vector of a straight line L representing a light ray emitted from the pixel i of the virtual display arranged in the virtual space and passing through the lenses of the virtual lens array. Note that i is an identifier for specifying two-dimensional coordinates indicating the number of pixels from the left and the number of pixels from the top on the virtual display, and is represented by 0, 1,. The calculated light vector is output to the image integration unit 120.
In the present embodiment, the ray vector g is a vector whose end point is the position of the pixel i on the virtual display, and starts from the optical principal point p of the microlens m nearest to the pixel i in the virtual lens array. It was assumed to be a vector. Assuming a vector opposite to the direction of the ray vector g, the direction of the vector (the direction of the straight line L toward the virtual camera side) is the integrator reproduced from the pixel when the generated stereoscopic image is observed. Represents the direction of the rays of the 3D image.

位置情報算出手段113は、仮想ディスプレーの画素iを通る直線Lと、仮想空間に配置した3次元モデルQと、の交点のうち、観測者に最も近い位置に対応して決定した交点の座標を求める。図4に示す例では、位置情報算出手段113は、画素iを通る直線Lと3次元モデルQとの交点{S0、S1、S2}のうち、もっともZ値が大きな交点S2の座標を求めて、画像統合手段120に出力する。なお、以下では、特に区別しない場合、単に交点Sと表記する。 The position information calculation means 113 calculates the coordinates of the intersection determined corresponding to the position closest to the observer among the intersections of the straight line L passing through the pixel i of the virtual display and the three-dimensional model Q arranged in the virtual space. Ask. In the example shown in FIG. 4, the position information calculation unit 113, among the intersection points {S 0, S 1, S 2} between the straight line L and the three-dimensional model Q through the pixel i, most Z value is large intersection S 2 The coordinates are obtained and output to the image integration unit 120. In the following description, the intersection S is simply referred to unless otherwise distinguished.

<画像統合手段>
画像統合手段120は、画像生成制御手段130の制御の下、各カメラ画像を用いてその画素値を統合するものである。この画像統合手段120には、カメラ画像及びカメラパラメータが入力される。図1に示すように、画像統合手段120は、カメラベクトル算出手段121と、カメラ選択手段122と、画素値割当手段123と、を備えている。
<Image integration means>
The image integration unit 120 integrates the pixel values using the camera images under the control of the image generation control unit 130. The image integration unit 120 receives a camera image and camera parameters. As shown in FIG. 1, the image integration unit 120 includes a camera vector calculation unit 121, a camera selection unit 122, and a pixel value assignment unit 123.

カメラベクトル算出手段121は、入力されるカメラパラメータに基づいて仮想空間上に配置された複数のカメラによる撮影方向を示すカメラベクトルをそれぞれ算出するものである。算出されたカメラベクトルは、カメラ選択手段122に出力される。
図3及び図4において、カメラベクトルC0は、画像I0を撮影したカメラの撮影方向を示している。同様に、他のカメラベクトルC1、C2、C3、C4は、画像I1、I2、I3、I4をそれぞれ撮影した各カメラの撮影方向を示している。カメラベクトルを特に区別しない場合、Cnと表記する。また、カメラを識別するためにカメラベクトルの符号(Cn)を用いることもある。カメラそのものと容易に区別できる場合にはカメラベクトルCとも表記する。なお、カメラ画像を特に区別しない場合、In又は単にIと表記する。
The camera vector calculation unit 121 calculates camera vectors indicating the shooting directions of a plurality of cameras arranged in the virtual space based on input camera parameters. The calculated camera vector is output to the camera selection unit 122.
3 and 4, the camera vector C 0 indicates the shooting direction of the camera that shot the image I 0 . Similarly, the other camera vectors C 1 , C 2 , C 3 , and C 4 indicate the shooting directions of the cameras that have shot the images I 1 , I 2 , I 3 , and I 4 , respectively. When the camera vector is not particularly distinguished, it is expressed as C n . Also, the camera vector code (C n ) may be used to identify the camera. When it can be easily distinguished from the camera itself, it is also expressed as a camera vector C. Incidentally, unless otherwise specified camera image, denoted as I n or simply I.

カメラ選択手段122には、光線ベクトルg及びカメラベクトルCnが入力される。
カメラ選択手段122は、仮想空間においてカメラベクトルCnと光線ベクトルgとのなす角度が所定値以下であるカメラを選択するものである。すなわち、カメラ選択手段122は、各カメラベクトルCnと光線ベクトルgとの内積をそれぞれ求め、内積が所定の閾値以上となったカメラを選択する。ここで、角度についての所定値や、内積についての閾値は、特に限定されず、要素画像群生成装置100の目的や用途に応じて、カメラ選択手段122で少なくとも1つのカメラを選択できるように、その値を適宜設定することができる。
The camera selection means 122 receives the light vector g and the camera vector C n .
The camera selection unit 122 selects a camera in which an angle formed by the camera vector C n and the light vector g in the virtual space is a predetermined value or less. That is, the camera selection unit 122 calculates the inner product of each camera vector C n and the light vector g, and selects a camera whose inner product is equal to or greater than a predetermined threshold value. Here, the predetermined value for the angle and the threshold value for the inner product are not particularly limited, and the camera selection unit 122 can select at least one camera according to the purpose and application of the element image group generation device 100. The value can be set as appropriate.

図4に示す例では、光線ベクトルgとカメラベクトルC2との内積と、光線ベクトルgとカメラベクトルC3との内積とが所定の閾値以上になったものとしている。この場合、カメラ選択手段122は、画像I2を撮影したカメラと、画像I3を撮影したカメラとを選択する。ここで、カメラを選択するのは、そのカメラ画像を選択するためであり、カメラベクトルの符号(Cn)は、カメラ識別子を兼ねているので、カメラを選択することを、カメラベクトル{C2,C3}を選択する、又は、カメラ画像{I2,I3}を選択するともいう。 In the example shown in FIG. 4, it is assumed that the inner product of the light vector g and the camera vector C 2 and the inner product of the light vector g and the camera vector C 3 are equal to or greater than a predetermined threshold. In this case, the camera selection unit 122 selects the camera that has captured the image I 2 and the camera that has captured the image I 3 . Here, the camera is selected in order to select the camera image, and since the camera vector code (C n ) also serves as the camera identifier, the camera vector {C 2 , C 3 } or a camera image {I 2 , I 3 }.

このカメラ選択手段122は、光線ベクトルgとカメラベクトルCnとに基づいてカメラを選択する。前記したように、生成される立体像を観測する際には、この光線ベクトルgの向きとは反対向きのベクトルの向き(仮想カメラ側に向かう直線Lの向き)は、当該画素から再生されるインテグラル立体像の光線の向きを表す。したがって、カメラ選択手段122によって、光線ベクトルgの向きに近い撮影方向のカメラベクトル(カメラ)を選択してそのカメラ画像Iを採用することで、要素画像群生成装置100は、再生されるインテグラル立体像において3次元モデルQの誤差の影響を最小限にすることができる。 The camera selection means 122 selects a camera on the basis of the light vector g and the camera vector C n. As described above, when the generated stereoscopic image is observed, the direction of the vector opposite to the direction of the ray vector g (the direction of the straight line L toward the virtual camera) is reproduced from the pixel. Represents the direction of rays of the integral 3D image. Therefore, by selecting a camera vector (camera) in the photographing direction close to the direction of the light vector g by the camera selection unit 122 and adopting the camera image I, the element image group generation device 100 can reproduce the integral to be reproduced. It is possible to minimize the influence of the error of the three-dimensional model Q in the stereoscopic image.

画素値割当手段123は、3次元モデルQの交点をカメラ画像Iに投影した投影点Jの画素値又はそれらを合成した画素値を仮想ディスプレーの画素に割り当てるものである。この画素値割当手段123は、投影手段124と、合成手段125と、を備えている。   The pixel value assigning means 123 assigns the pixel value of the projection point J obtained by projecting the intersection of the three-dimensional model Q onto the camera image I or the synthesized pixel value to the pixel of the virtual display. The pixel value assigning unit 123 includes a projecting unit 124 and a synthesizing unit 125.

投影手段124は、カメラ選択手段122で選択されたカメラについて入力されたカメラ画像に対して交点の座標を投影するものである。
投影手段124は、仮想カメラについてカメラパラメータに基づいて予め行ったキャリブレーションによって、仮想空間上のある点の3次元位置に対して、ある撮影方向をもって配置されたある仮想カメラの撮像面上のある一点の位置とが対応付けられるように構成されている。位置の対応付けは、キャリブレーションに基づいて得られるルックアップテーブルや関係式を用いる演算により行われる。よって、投影手段124は、仮想空間上の3次元位置の座標(交点の座標)が入力されると、投影先のカメラ画像の画素の位置を特定することができる。なお、このキャリブレーションには、例えば既知の位置に点群が描画されているパターンを多視点カメラで同時に撮影して取得したカメラパラメータを用いることができる。
The projection unit 124 projects the coordinates of the intersection point on the camera image input for the camera selected by the camera selection unit 122.
The projection unit 124 is provided on an imaging surface of a certain virtual camera arranged with a certain photographing direction with respect to a three-dimensional position of a certain point in the virtual space by calibration performed in advance on the virtual camera based on camera parameters. It is configured to be associated with the position of one point. The position association is performed by a calculation using a lookup table or a relational expression obtained based on calibration. Therefore, when the coordinates of the three-dimensional position in the virtual space (coordinates of the intersection) are input, the projection unit 124 can specify the position of the pixel of the camera image as the projection destination. For this calibration, for example, camera parameters obtained by simultaneously capturing a pattern in which a point cloud is drawn at a known position with a multi-view camera can be used.

合成手段125は、カメラ選択手段122で複数のカメラが選択されたときに、各カメラ画像の投影点の画素値を合成するものである。合成された画素値Vは、画像生成制御手段130に出力される。なお、合成手段125は、カメラ選択手段122で1つのカメラだけが選択された場合、そのカメラ画像の投影点の画素値をそのまま画像生成制御手段130に出力する。   The synthesizing unit 125 synthesizes the pixel values of the projection points of the camera images when a plurality of cameras are selected by the camera selection unit 122. The combined pixel value V is output to the image generation control unit 130. Note that when only one camera is selected by the camera selection unit 122, the synthesis unit 125 outputs the pixel value of the projection point of the camera image to the image generation control unit 130 as it is.

ここで、画素値の合成の具体例について図5(a)を参照(適宜図1及び図4参照)して説明する。例えばカメラ選択手段122において、各カメラベクトルCnと、画素iを通る光線ベクトルgとの内積を求めた結果、閾値以上の内積を持つものとして2つのカメラベクトル{C2,C3}を選択したものとする。この場合、投影手段124は、これらのカメラベクトル{C2,C3}に対応した2つのカメラ画像{I2,I3}に対して、位置情報算出手段113で算出された交点S2の座標をそれぞれ投影する。図5(a)に示す例では、カメラ画像I2における交点S2の投影点をJ2、カメラ画像I3における交点S2の投影点をJ3としている。また、投影点J2の画素値(カラー値)をV2、投影点J3の画素値(カラー値)をV3とする。 Here, a specific example of combining pixel values will be described with reference to FIG. 5A (refer to FIGS. 1 and 4 as appropriate). For example, as a result of obtaining the inner product of each camera vector C n and the light vector g passing through the pixel i in the camera selection means 122, two camera vectors {C 2 , C 3 } are selected as having an inner product equal to or greater than a threshold value. Shall be. In this case, the projection unit 124 calculates the intersection S 2 calculated by the position information calculation unit 113 for the two camera images {I 2 , I 3 } corresponding to these camera vectors {C 2 , C 3 }. Project each coordinate. In the example shown in FIG. 5 (a), J 2 the projection point of intersection S 2 in the camera image I 2, and the projection point of intersection S 2 in the camera image I 3 as the J 3. Further, the pixel value of the projection point J 2 (color value) V 2, the pixel value of the projection point J 3 (color value) and V 3.

この場合、合成手段125は、画素値V2と画素値V3とを合成した結果の画素値Vを画像生成制御手段130に出力する。ここで、複数の画素値(カラー値)の合成は、各カメラベクトル{C2,C3}と光線ベクトルgとのなす角で定義される式によって合成できる。例えば、次の式(1)に示すように、画素値Vは、画素値V2、V3に対して各カメラベクトル{C2,C3}と光線ベクトルgとの内積値を係数とした重み付け加算によって定義してもよい。なお、式(1)においてKは定数である。 In this case, the combining unit 125 outputs the pixel value V as a result of combining the pixel value V 2 and the pixel value V 3 to the image generation control unit 130. Here, a plurality of pixel values (color values) can be combined by an expression defined by an angle formed by each camera vector {C 2 , C 3 } and the light vector g. For example, as shown in the following equation (1), the pixel value V is obtained by using the inner product value of each camera vector {C 2 , C 3 } and the light vector g as a coefficient with respect to the pixel values V 2 and V 3 . It may be defined by weighted addition. In Equation (1), K is a constant.

Figure 2017073710
Figure 2017073710

<画像生成制御手段>
画像生成制御手段130は、仮想ディスプレーの全画素について割り当てられた画素値を集積した要素画像群を生成するものである。
画像生成制御手段130は、例えば前記式(1)、図5(a)及び図5(b)に示すように、画素iを通る光線ベクトルgから割り当てられた画素値Vを取得した場合、要素画像群格納メモリ131上で仮想ディスプレーの画素iに対応したアドレスに画素値Vを格納する。つまり、要素画像群格納メモリ131上の要素画像群Yのための記憶領域において、光線ベクトルgが通るマイクロレンズmに対応した要素画像Gの該当画素iに対応した座標に画素値Vを格納する。すなわちY(i)=Vである。
<Image generation control means>
The image generation control unit 130 generates an element image group in which pixel values assigned to all pixels of the virtual display are integrated.
When the image generation control unit 130 obtains the assigned pixel value V from the light ray vector g passing through the pixel i, for example, as shown in the equation (1), FIG. 5A, and FIG. The pixel value V is stored in the address corresponding to the pixel i of the virtual display on the image group storage memory 131. That is, in the storage area for the element image group Y on the element image group storage memory 131, the pixel value V is stored at the coordinates corresponding to the corresponding pixel i of the element image G corresponding to the microlens m through which the light vector g passes. . That is, Y (i) = V.

図3及び図4に示すように、仮想レンズアレーのマイクロレンズm(以下、単にレンズともいう)は、仮想ディスプレーの6画素×6画素に対応している。よって、この例では、1つのレンズ当たり6×6回の光線追跡に応じて、それぞれ割り当てられた画素値を格納する。
加えて、仮想レンズアレーのレンズの個数が、例えば6×6の正方配列であれば、レンズ毎に行う処理を36回繰り返すことになる。画像生成制御手段130は、以上の一連の画素割当及びメモリ格納処理を、仮想ディスプレーの各画素について行った後、メモリに格納されている最終結果の要素画像群Yを出力する。
これにより、実空間上において、2次元ディスプレー上に、この要素画像群Yを表示し、レンズアレーを構成するレンズ(マイクロレンズ)の焦点距離fだけ離れた位置に、このレンズアレーを設置すると、インテグラル立体像を再生することができる。
As shown in FIGS. 3 and 4, the microlens m (hereinafter also simply referred to as a lens) of the virtual lens array corresponds to 6 pixels × 6 pixels of the virtual display. Therefore, in this example, each assigned pixel value is stored in accordance with 6 × 6 ray tracing per lens.
In addition, if the number of lenses in the virtual lens array is, for example, a 6 × 6 square array, the process performed for each lens is repeated 36 times. The image generation control unit 130 performs the series of pixel allocation and memory storage processes described above for each pixel of the virtual display, and then outputs the final element image group Y stored in the memory.
Accordingly, when this element array Y is displayed on the two-dimensional display in real space, and this lens array is installed at a position separated by the focal length f of the lenses (microlenses) constituting the lens array, An integral stereoscopic image can be reproduced.

[要素画像群生成装置の動作]
次に、要素画像群生成装置100による処理の流れについて図6を参照(適宜図1及び図4参照)して説明する。まず、要素画像群生成装置100において、光線追跡手段110は、仮想ディスプレー、仮想レンズアレー、3次元モデルを仮想空間に配置する(ステップS1)。そして、画像生成制御手段130は、仮想ディスプレー上の画素iにおいてi=0を設定する(ステップS2)。
[Operation of Element Image Group Generation Device]
Next, the flow of processing by the element image group generation device 100 will be described with reference to FIG. 6 (see FIGS. 1 and 4 as appropriate). First, in the element image group generation device 100, the ray tracing unit 110 arranges a virtual display, a virtual lens array, and a three-dimensional model in a virtual space (step S1). Then, the image generation control unit 130 sets i = 0 in the pixel i on the virtual display (step S2).

そして、光線追跡手段110は、仮想レンズアレー中で、画素iに最近傍のレンズ(マイクロレンズm)を探索し(ステップS3)、画素iとマイクロレンズmの光学主点pとを結ぶ直線Lを算出し(ステップS4)、直線Lから光線ベクトルgを算出する(ステップS5)。さらに、光線追跡手段110は、直線Lと3次元モデルとの交点を算出し(ステップS6)、複数の交点のうち最も観測者側の交点Sの位置を抽出する(ステップS7)。   Then, the ray tracing means 110 searches for the lens (microlens m) nearest to the pixel i in the virtual lens array (step S3), and a straight line L connecting the pixel i and the optical principal point p of the microlens m. Is calculated (step S4), and the light vector g is calculated from the straight line L (step S5). Further, the ray tracing means 110 calculates the intersection point between the straight line L and the three-dimensional model (step S6), and extracts the position of the intersection point S closest to the observer among the plurality of intersection points (step S7).

続いて、画像統合手段120は、カメラベクトルCと光線ベクトルgとのなす角度が所定値以下であるカメラをすべて選択する(ステップS8)。すなわち、カメラベクトルCと光線ベクトルgとの内積が閾値以上であるカメラをすべて選択する。そして、画像統合手段120は、選択されたカメラの画像に交点Sをそれぞれ投影し、その画素値をそれぞれ取得する(ステップS9)。次に、画像生成制御手段130は、画素値の合成結果をメモリ内の画素iの位置に格納する(ステップS10)。そして、画像生成制御手段130は、iの現在値に1を加算し(ステップS11)、全ての画素を選択したか否かを判別する(ステップS12)。まだ選択していない画素が残っている場合(ステップS12:No)、要素画像群生成装置100は、ステップS3に戻る。一方、全ての画素を選択した場合(ステップS12:Yes)、画像生成制御手段130は、要素画像群を出力する(ステップS13)。   Subsequently, the image integration unit 120 selects all cameras in which the angle formed by the camera vector C and the light vector g is equal to or smaller than a predetermined value (step S8). That is, all the cameras whose inner product of the camera vector C and the light vector g is greater than or equal to the threshold value are selected. Then, the image integration unit 120 projects the intersection points S on the selected camera image, and acquires the pixel values thereof (step S9). Next, the image generation control unit 130 stores the pixel value synthesis result at the position of the pixel i in the memory (step S10). Then, the image generation control unit 130 adds 1 to the current value of i (step S11), and determines whether all the pixels have been selected (step S12). If pixels that have not yet been selected remain (step S12: No), the element image group generation device 100 returns to step S3. On the other hand, when all the pixels are selected (step S12: Yes), the image generation control unit 130 outputs an element image group (step S13).

第1実施形態によれば、要素画像群生成装置100は、立体像を再生する際のインテグラル立体像の光線の向きに相当する光線ベクトルgの向きに近い撮影方向のカメラベクトルを選択して、そのカメラ画像Iに対して光線ベクトルgと被写体の3次元モデルQとの交点Sを投影するので、3次元モデルの法線に一番近いカメラを選択する手法よりも、再生されるインテグラル立体像において3次元モデルの誤差の影響を低減することができる。   According to the first embodiment, the element image group generation device 100 selects a camera vector in a shooting direction close to the direction of the light vector g corresponding to the direction of the light beam of the integral stereoscopic image when reproducing the stereoscopic image. Since the intersection S between the ray vector g and the three-dimensional model Q of the subject is projected on the camera image I, the reproduced integral is more effective than the method of selecting the camera closest to the normal line of the three-dimensional model. It is possible to reduce the influence of the error of the three-dimensional model in the stereoscopic image.

(第2実施形態)
第1実施形態では図3を参照してモデルの正面や側面がひと続きの滑らかな曲線で示された1つのモデルが求められているものとして説明したが、例えばデプスカメラ(奥行きカメラ)で被写体の距離画像を取得する場合には、一方向からしか被写体を撮影できない。ただし、デプスカメラで様々な方向から被写体を撮影して取得した距離画像を重ね合わせれば、全体としてモデルの正面や側面がひと続きの滑らかな曲線で示された1つの3次元モデルのように扱うことが可能である。
(Second Embodiment)
In the first embodiment, the description has been made with reference to FIG. 3 assuming that one model in which the front and side surfaces of the model are shown by a continuous smooth curve is required. However, for example, a subject can be obtained with a depth camera (depth camera). When acquiring the distance image, the subject can be photographed only from one direction. However, if the distance images obtained by photographing the subject from various directions with the depth camera are superimposed, the entire front and sides of the model are handled as one 3D model indicated by a continuous smooth curve. It is possible.

以下では、デプスカメラの代わりに通常のカラーカメラを用い、多数のカラーカメラから2台のカメラを選択しそのカメラペアでそれぞれ撮影されたカメラ画像間の対応関係を各画素について求め、三角測量の原理を用いて奥行きを推定することで、当該カメラペアのデプスマップが生成されているものとする。   In the following, a normal color camera is used instead of a depth camera, two cameras are selected from a number of color cameras, and the correspondence between the camera images taken by the camera pair is obtained for each pixel. It is assumed that the depth map of the camera pair has been generated by estimating the depth using the principle.

[要素画像群生成装置の構成]
以下では、第1実施形態と同じ構成には同じ符号を付して説明を適宜省略する。
図7に示す要素画像群生成装置100Bは、デプスマップを演算機内の仮想空間上に配置して要素画像群を生成する。本実施形態では、図7に示すように、要素画像群生成装置100Bの処理の際に外部から、カメラ画像、カメラパラメータ、ディスプレーパラメータ、レンズアレーパラメータ及びデプスマップが入力されるものとする。なお、これらの入力データは、処理の前に、要素画像群生成装置100Bの内部のメモリに記憶させておくこととしてもよい。
[Configuration of Element Image Group Generation Device]
Below, the same code | symbol is attached | subjected to the same structure as 1st Embodiment, and description is abbreviate | omitted suitably.
The element image group generation device 100B illustrated in FIG. 7 generates an element image group by arranging a depth map in a virtual space in a computing machine. In the present embodiment, as shown in FIG. 7, it is assumed that a camera image, a camera parameter, a display parameter, a lens array parameter, and a depth map are input from the outside during the processing of the element image group generation device 100B. These input data may be stored in a memory inside the element image group generation device 100B before processing.

デプスマップは、多視点カメラの一部のカメラ(例えば2台のステレオカメラ)から、被写体までの奥行きを推定したものであり、画素ごとの奥行き値が2次元に並んだ距離画像である。側面等を含む3次元モデルを生成するには複数の距離画像を統合する必要があるので、複数のデプスマップを入力することが好ましい。   The depth map is a distance image in which the depth to a subject is estimated from some cameras (for example, two stereo cameras) of a multi-viewpoint camera, and depth values for each pixel are arranged two-dimensionally. Since it is necessary to integrate a plurality of distance images in order to generate a three-dimensional model including a side surface or the like, it is preferable to input a plurality of depth maps.

複数のデプスマップについて、図8を参照(適宜図7参照)して説明する。
デプスマップD0は、カメラC0とカメラC1とを用いて生成され、カメラC0による画像I0の撮影位置からの距離値が並んだ距離画像である。
デプスマップD1は、カメラC1とカメラC0とを用いて生成され、カメラC1による画像I1の撮影位置からの距離値が並んだ距離画像である。
デプスマップD2は、カメラC2とカメラC1とを用いて生成され、カメラC2による画像I2の撮影位置からの距離値が並んだ距離画像である。
デプスマップD3は、カメラC3とカメラC2とを用いて生成され、カメラC3による画像I3の撮影位置からの距離値が並んだ距離画像である。
デプスマップD4は、カメラC4とカメラC3とを用いて生成され、カメラC4による画像I4の撮影位置からの距離値が並んだ距離画像である。
なお、以下では、特に区別しない場合、デプスマップDと表記する。
The plurality of depth maps will be described with reference to FIG. 8 (refer to FIG. 7 as appropriate).
The depth map D 0 is a distance image that is generated using the camera C 0 and the camera C 1 and in which distance values from the shooting position of the image I 0 by the camera C 0 are arranged.
The depth map D 1 is a distance image that is generated using the camera C 1 and the camera C 0 and in which distance values from the shooting position of the image I 1 by the camera C 1 are arranged.
The depth map D 2 is a distance image that is generated using the camera C 2 and the camera C 1 and in which distance values from the shooting position of the image I 2 by the camera C 2 are arranged.
The depth map D 3 is a distance image that is generated by using the camera C 3 and the camera C 2 and in which distance values from the shooting position of the image I 3 by the camera C 3 are arranged.
The depth map D 4 is a distance image that is generated using the camera C 4 and the camera C 3 and in which distance values from the shooting position of the image I 4 by the camera C 4 are arranged.
In the following description, the depth map D is used unless otherwise specified.

要素画像群生成装置100Bは、図7に示すように、主として、光線追跡手段110Bと、画像統合手段120と、画像生成制御手段130と、デプスマップ制御手段140と、を備えている。
光線追跡手段110Bは、光線ベクトル算出手段112で算出した光線ベクトルgをデプスマップ制御手段140に出力し、代わりに、光線ベクトルgに基づいて選択されたデプスマップDを取得し、取得したデプスマップDを仮想空間(仮想空間情報メモリ114)において仮想ディスプレーの近傍に配置する。
As shown in FIG. 7, the element image group generation device 100 </ b> B mainly includes a ray tracing unit 110 </ b> B, an image integration unit 120, an image generation control unit 130, and a depth map control unit 140.
The ray tracing unit 110B outputs the ray vector g calculated by the ray vector calculating unit 112 to the depth map control unit 140, and instead obtains the depth map D selected based on the ray vector g, and obtains the obtained depth map. D is arranged in the vicinity of the virtual display in the virtual space (virtual space information memory 114).

光線追跡手段110Bの位置情報算出手段113は、仮想ディスプレーの画素iを通る直線Lと、仮想空間に配置したデプスマップDと、の交点のうち、観測者に最も近い位置に対応して決定した交点の座標を求める。求められた交点の座標は、画像統合手段120に出力される。図8に示す例では、位置情報算出手段113は、デプスマップ制御手段140からデプスマップD2、D3を取得し、直線LとデプスマップD2との交点S0と、直線LとデプスマップD3との交点S1のうち、もっともZ値が大きな交点S1の座標を求め、その結果を画像統合手段120に出力する。 The position information calculation means 113 of the ray tracing means 110B is determined corresponding to the position closest to the observer among the intersections of the straight line L passing through the pixel i of the virtual display and the depth map D arranged in the virtual space. Find the coordinates of the intersection. The obtained coordinates of the intersection point are output to the image integration unit 120. In the example shown in FIG. 8, the position information calculation unit 113 acquires the depth maps D 2 and D 3 from the depth map control unit 140, and the intersection S 0 between the straight line L and the depth map D 2 , and the straight line L and the depth map. Of the intersection S 1 with D 3 , the coordinates of the intersection S 1 with the largest Z value are obtained, and the result is output to the image integration means 120.

<デプスマップ制御手段>
デプスマップ制御手段140には、カメラパラメータ及びデプスマップが入力される。
デプスマップ制御手段140は、カメラベクトル算出手段141と、デプスマップ選択手段142と、を備えている。
<Depth map control means>
The camera parameter and the depth map are input to the depth map control means 140.
The depth map control unit 140 includes a camera vector calculation unit 141 and a depth map selection unit 142.

カメラベクトル算出手段141は、入力されるカメラパラメータに基づいて仮想空間上に配置された複数のカメラによる撮影方向を示すカメラベクトルをそれぞれ算出するものである。算出されたカメラベクトルC0、C1、C2、C3、C4は、デプスマップ選択手段142に出力される。 The camera vector calculation unit 141 calculates camera vectors indicating the shooting directions of a plurality of cameras arranged in the virtual space based on the input camera parameters. The calculated camera vectors C 0 , C 1 , C 2 , C 3 , C 4 are output to the depth map selection unit 142.

デプスマップ選択手段142には、カメラベクトルC0、C1、C2、C3、C4が入力すると共に、デプスマップD0、D1、D2、D3、D4が入力する。
デプスマップ選択手段142は、光線追跡手段110Bから光線ベクトルgを取得し、この光線ベクトルgとカメラベクトルC0、C1、C2、C3、C4との内積をそれぞれ算出し、内積が予め定められた閾値以上となるカメラベクトルを決定する。ここで、デプスマップD0〜D4は、カメラ画像I0〜I4の撮影位置にそれぞれ対応しているので、カメラベクトルC0〜C4にそれぞれ対応している。つまり、デプスマップ選択手段142で決定されたカメラベクトルは、デプスマップに1対1で対応している。要するに、デプスマップ選択手段142は、光線ベクトルgとカメラベクトルとの内積が予め定められた閾値以上となるようなデプスマップを決定することができる。
図8に示す例では、デプスマップ選択手段142は、光線追跡手段110Bから取得した光線ベクトルgを用いた演算処理の結果、デプスマップD0〜D4の中からデプスマップD2、D3を選択して光線追跡手段110Bに出力する。
The depth map selection means 142 receives camera vectors C 0 , C 1 , C 2 , C 3 , and C 4 and inputs depth maps D 0 , D 1 , D 2 , D 3 , and D 4 .
The depth map selection unit 142 acquires the ray vector g from the ray tracking unit 110B, calculates the inner product of the ray vector g and the camera vectors C 0 , C 1 , C 2 , C 3 , and C 4. A camera vector that is equal to or greater than a predetermined threshold is determined. Here, the depth map D 0 to D 4, since in correspondence with the photographing position of the camera image I 0 ~I 4, respectively correspond to the camera vector C 0 -C 4. That is, the camera vector determined by the depth map selection unit 142 corresponds to the depth map on a one-to-one basis. In short, the depth map selection unit 142 can determine a depth map in which the inner product of the light vector g and the camera vector is equal to or greater than a predetermined threshold.
In the example shown in FIG. 8, the depth map selection unit 142 calculates the depth maps D 2 and D 3 from the depth maps D 0 to D 4 as a result of the arithmetic processing using the ray vector g acquired from the ray tracking unit 110B. Select and output to ray tracing means 110B.

[要素画像群生成装置の動作]
次に、要素画像群生成装置100Bによる処理の流れについて図9を参照(適宜図7及び図8参照)して説明する。
まず、要素画像群生成装置100Bにおいて、光線追跡手段110Bは、仮想ディスプレー、仮想レンズアレー、複数のデプスマップD0〜D4を仮想空間に配置する(ステップS1B)。
次のステップS2〜ステップS5の各処理は、図6のフローチャートと同じなので説明を省略する。
ステップS5に続いて、デプスマップ制御手段140は、算出したカメラベクトルCと、光線追跡手段110から取得した光線ベクトルgと、を用いて、これらのベクトルの内積が閾値以上となるようなデプスマップD(D2,D3)を選択する(ステップS21)。
そして、光線追跡手段110Bの位置情報算出手段113は、直線LとデプスマップD(D2,D3)との交点を算出する(ステップS22)。
以下のステップS7〜ステップS13の各処理は、図6のフローチャートと同じなので説明を省略する。
[Operation of Element Image Group Generation Device]
Next, the flow of processing by the element image group generation device 100B will be described with reference to FIG. 9 (see FIGS. 7 and 8 as appropriate).
First, in the element image group generation device 100B, the ray tracing unit 110B arranges a virtual display, a virtual lens array, and a plurality of depth maps D 0 to D 4 in a virtual space (step S1B).
Since each process of the following step S2-step S5 is the same as the flowchart of FIG. 6, description is abbreviate | omitted.
Subsequent to step S5, the depth map control unit 140 uses the calculated camera vector C and the ray vector g acquired from the ray tracking unit 110, and the depth map in which the inner product of these vectors is equal to or greater than a threshold value. D (D 2 , D 3 ) is selected (step S21).
Then, the position information calculating unit 113 of the ray tracing unit 110B calculates the intersection of the straight line L and the depth map D (D 2 , D 3 ) (step S22).
Since each processing of the following step S7-step S13 is the same as the flowchart of FIG. 6, description is abbreviate | omitted.

第2実施形態によれば、要素画像群生成装置100Bは、立体像を再生する際のインテグラル立体像の光線の向きに相当する光線ベクトルgの向きに近い撮影方向のカメラベクトルを選択して、そのカメラ画像Iに対して光線ベクトルgと被写体のデプスマップDとの交点を投影するので、3次元モデルの法線に一番近いカメラを選択する手法よりも、再生されるインテグラル立体像において3次元モデルの誤差の影響を低減することができる。   According to the second embodiment, the element image group generation device 100B selects a camera vector in the shooting direction close to the direction of the light vector g corresponding to the direction of the light beam of the integral stereoscopic image when reproducing the stereoscopic image. Since the intersection of the light vector g and the depth map D of the subject is projected on the camera image I, the reproduced integral stereoscopic image is more than the method of selecting the camera closest to the normal line of the three-dimensional model. The effect of errors in the three-dimensional model can be reduced.

以上、実施形態に基づいて本発明に係る要素画像群生成装置について説明したが、本発明はこれらに限定されるものではない。以下に変形例を列挙する。
例えば、前記各実施形態では、画像統合手段120のカメラ選択手段122は、カメラベクトルCと光線ベクトルgとのなす角度が所定値以下であるカメラを選択することとしたが、カメラベクトルCと光線ベクトルgとのなす角度を昇順に並びかえたとき、予め定められた順位以上のカメラを選択するようにしてもよい。つまり、各カメラベクトルCnと光線ベクトルgとの内積をそれぞれ求め、内積を降順に並びかえたとき、内積が予め定められた順位以上のカメラを選択してもよい。
The element image group generation device according to the present invention has been described above based on the embodiments, but the present invention is not limited to these. The modifications are listed below.
For example, in each of the above embodiments, the camera selection unit 122 of the image integration unit 120 selects a camera whose angle between the camera vector C and the light vector g is equal to or smaller than a predetermined value. When the angles formed with the vector g are rearranged in ascending order, cameras having a predetermined order or higher may be selected. That is, when the inner product of each camera vector C n and the light vector g is obtained, and the inner products are rearranged in descending order, the cameras having the inner products of a predetermined order or higher may be selected.

第2実施形態では、デプスマップ選択手段142は、光線ベクトルgとカメラベクトルCとの内積が予め定められた閾値以上となるようなデプスマップDを選択し、光線追跡手段110Bは、デプスマップ選択手段142で選択されたデプスマップDを利用して決定した交点の座標を求めるようにしたが、これに限定されるものではない。例えばデプスマップ選択手段142は、各カメラベクトルCnと光線ベクトルgとの内積を降順に並びかえたとき、内積が予め定められた順位以上となるようなデプスマップDを選択し、光線追跡手段110Bは、その選択されたデプスマップDを利用して決定した交点の座標を求めるようにしてもよい。つまり、光線追跡手段110Bは、カメラベクトルCと光線ベクトルgとのなす角度を降順に並びかえたとき予め定められた順位以上のカメラを用いて生成されたデプスマップDを利用して決定した交点の座標を求めるようにしてもよい。 In the second embodiment, the depth map selection unit 142 selects the depth map D such that the inner product of the light vector g and the camera vector C is equal to or greater than a predetermined threshold value, and the light ray tracking unit 110B selects the depth map. Although the coordinates of the intersection determined by using the depth map D selected by the means 142 are obtained, the present invention is not limited to this. For example, the depth map selecting unit 142 selects the depth map D such that when the inner products of the camera vectors C n and the light vector g are rearranged in descending order, the inner product is equal to or higher than a predetermined order, and the ray tracing unit is selected. 110B may obtain the coordinates of the intersection determined using the selected depth map D. That is, the ray tracing unit 110B uses the depth map D generated using the cameras of a predetermined order or higher when the angles formed by the camera vector C and the ray vector g are rearranged in descending order. The coordinates may be obtained.

第2実施形態では、例えばデプスマップDの端部等の誤差が生じやすい箇所に交点が位置している場合、デプスマップ{D2,D3}と直線Lとのそれぞれの交点{S0,S1}のうち、もっともZの値が高いものを単純に選択すると、適切ではないデプスマップを選択する懸念がある。そこで、確からしさが高い適切なデプスマップを選択できるように次のように変形して実施してもよい。 In the second embodiment, for example, when an intersection point is located at a place where an error is likely to occur, such as an end of the depth map D, each intersection point {S 0 , D of the depth map {D 2 , D 3 } and the straight line L If one of S 1 } having the highest Z value is simply selected, there is a concern of selecting an inappropriate depth map. Accordingly, the following modification may be made so that an appropriate depth map with high probability can be selected.

この変形例の場合、光線追跡手段110Bは、デプスマップDと直線Lとの交点のうち観測者に最も近い交点をデプスマップD毎に求め、求めた交点を、選択された複数のカメラ画像Iにそれぞれ投影したときの各投影点での画素値の類似度を交点毎に算出し、算出した類似度が最も高くなる交点を、観測者に最も近い位置に対応した交点として決定する。   In the case of this modification, the ray tracing means 110B obtains, for each depth map D, the intersection closest to the observer among the intersections of the depth map D and the straight line L, and finds the obtained intersections for the selected plurality of camera images I. The similarity of the pixel value at each projection point when projected onto each intersection is calculated for each intersection, and the intersection with the highest calculated similarity is determined as the intersection corresponding to the position closest to the observer.

具体的には、図8に示す例では、光線追跡手段110Bは、デプスマップD2内でもっともZ値が高い交点S0を選択し、デプスマップD3内でもっともZ値が高い交点S1を選択する。画像統合手段120では、交点S0を、選択されたカメラC2の画像I2に投影すると共に、選択されたカメラC3の画像I3にも投影する。画像統合手段120は、各投影点{J2(S0),J3(S0)}の各画素値{I2(J2(S0)),I3(J3(S0))}の類似度を算出する。
同様に、画像統合手段120では、交点S1を、選択されたカメラC2の画像I2に投影すると共に、選択されたカメラC3の画像I3にも投影する。画像統合手段120は、各投影点{J2(S1),J3(S1)}の各画素値{I2(J2(S1)),I3(J3(S1))}の類似度を算出する。
この場合、画像統合手段120から各類似度を取得した光線追跡手段110Bは、交点S1を投影したときの類似度の方が、交点S0を投影したときの類似度よりも高ければ、交点S1を、決定された交点として画像統合手段120に出力する。
ここで、交点S1はデプスマップD3内でもっともZ値が高いものとして選択されていたので、画像統合手段120は、デプスマップD3を生成するときに用いた2つのカメラのうち、撮影位置にあったカメラC3で撮影された画像I3において投影点Jに対応した画素の画素値を抽出して、その抽出値を画素値Vとする。
そして、画像生成制御手段130は、要素画像群Yの該当画素iの座標に画素値Vを入力する。すなわちY(i)=V=I3(J)である。
Specifically, in the example shown in FIG. 8, the ray tracing means 110B selects the intersection S 0 having the highest Z value in the depth map D 2 and the intersection S 1 having the highest Z value in the depth map D 3 . Select. The image integration unit 120 projects the intersection point S 0 onto the image I 2 of the selected camera C 2 and also onto the image I 3 of the selected camera C 3 . The image integration unit 120 uses the pixel values {I 2 (J 2 (S 0 )), I 3 (J 3 (S 0 ))) of the projection points {J 2 (S 0 ), J 3 (S 0 )}. } Is calculated.
Similarly, the image integration unit 120 projects the intersection S 1 onto the image I 2 of the selected camera C 2 and also onto the image I 3 of the selected camera C 3 . The image integration means 120 uses the pixel values {I 2 (J 2 (S 1 )), I 3 (J 3 (S 1 )) of the projection points {J 2 (S 1 ), J 3 (S 1 )}. } Is calculated.
In this case, ray tracing means 110B from the image integration unit 120 obtains the respective similarity, who similarity in projecting the intersection S 1 is, higher than the similarity in projecting the intersection S 0, the intersection S 1 is output to the image integration unit 120 as the determined intersection.
Here, since the intersection point S 1 has been selected as the one having the highest Z value in the depth map D 3 , the image integration unit 120 takes an image of the two cameras used when generating the depth map D 3. The pixel value of the pixel corresponding to the projection point J is extracted from the image I 3 captured by the camera C 3 at the position, and the extracted value is set as the pixel value V.
Then, the image generation control unit 130 inputs the pixel value V to the coordinates of the corresponding pixel i in the element image group Y. That is, Y (i) = V = I 3 (J).

前記各実施形態では、光線追跡手段110,110Bとして、光線を1本ずつ追跡する例について説明したが、光線追跡の手法はこれに限定されるものではなく、例えば下記参考文献3に記載された手法を用いてもよい。
参考文献3:Y. Iwadate and M. Katayama, “Generating integral image from 3D object by using oblique projection,” Proc. of International Display Workshops, 3Dp-1, pp. 269-272, 2011.
In each of the above-described embodiments, the example of tracing light rays one by one as the ray tracing means 110 and 110B has been described. However, the ray tracing method is not limited to this, and is described in, for example, Reference 3 below. A technique may be used.
Reference 3: Y. Iwadate and M. Katayama, “Generating integral image from 3D object by using oblique projection,” Proc. Of International Display Workshops, 3Dp-1, pp. 269-272, 2011.

参考文献3に記載された手法は、演算機の平行投影の処理を用いて、斜投影画像を取得することで、同一方向の光線を同時に取得する。この場合、カメラを光線毎に選択する必要はなく、斜投影画像を取得する際に、1度だけカメラを選択すればよい。つまり、光線追跡手段110,110Bは、仮想空間上で斜投影を行って仮想レンズアレーを構成する各レンズの光学主点を通過する同一方向の光線として光線ベクトルを算出し、画像統合手段120は、斜投影が行われる度にカメラを選択する処理を行う。このようにすることで、処理を高速化し、演算量を減らすことができる。
例えば、仮想レンズアレーのレンズの個数が例えば6×6の正方配列であれば、各要素画像中のある方向の光線を1本ずつ追跡する場合にレンズ個数(36個)の回数だけ繰り返すことが必要な処理を、1回で済ますことができるようになる。より具体的には、ある方向の光線を取得する処理として、例えば図5(b)に示すような1つの要素画像Gの最も左上の画素を取得する処理について説明する。通常ならば、要素画像Gの最も左上の画素を取得する、という処理をすべての要素画像について行う必要がある。しかしながら、斜投影画像を取得する高速化処理ならば、すべての要素画像の左上の画素の画素値を一つの処理で取得することができるようになる。
The method described in Reference 3 uses the parallel projection processing of the computing unit to acquire oblique projection images, thereby simultaneously acquiring rays in the same direction. In this case, it is not necessary to select a camera for each ray, and it is only necessary to select a camera once when acquiring an oblique projection image. That is, the ray tracing means 110 and 110B calculate a ray vector as a ray in the same direction passing through the optical principal point of each lens constituting the virtual lens array by performing oblique projection on the virtual space, and the image integration means 120. Every time oblique projection is performed, a process of selecting a camera is performed. By doing so, it is possible to speed up the processing and reduce the amount of calculation.
For example, if the number of lenses of the virtual lens array is a 6 × 6 square array, for example, when tracing one ray in a certain direction in each element image one by one, the number of lenses (36) is repeated. Necessary processing can be completed once. More specifically, as a process for acquiring a light beam in a certain direction, a process for acquiring the upper left pixel of one element image G as shown in FIG. 5B will be described. Normally, it is necessary to perform the process of acquiring the upper left pixel of the element image G for all element images. However, if the speed-up process for acquiring the oblique projection image, the pixel value of the upper left pixel of all the element images can be acquired by one process.

斜投影画像を取得することで、第2実施形態においては、デプスマップ選択手段142は、光線追跡手段110Bから取得する1つの光線ベクトルgが、仮想レンズアレーの全レンズ分の斜投影の方向を示すことになるので、同様に、斜投影画像取得毎に、デプスマップの選択も1度だけ行えばよく、光線毎に行う必要はない。画像統合手段120Bは、斜投影が行われる度に、そのときに選択されたデプスマップを切り替えて用いればよい。   By acquiring the oblique projection image, in the second embodiment, the depth map selection unit 142 indicates that the one ray vector g acquired from the ray tracking unit 110B indicates the oblique projection direction of all the lenses of the virtual lens array. Similarly, every time an oblique projection image is acquired, the depth map needs to be selected only once, and does not need to be performed for each ray. The image integration unit 120B may switch and use the depth map selected at that time each time oblique projection is performed.

斜投影画像を取得する場合、第1実施形態において、選択された複数のカメラ画像の合成については、選択されたあるカメラ画像を、3次元モデルにマッピングしておき、その斜投影画像を取得する処理を、選択されたカメラ台数分繰り返した後で合成することができる。また、コンピュータグラフィックの関数にはそのような演算も用意されている(たとえば、OpenGLのブレンド機能)。   When acquiring an oblique projection image, in the first embodiment, for combining a plurality of selected camera images, the selected camera image is mapped to a three-dimensional model, and the oblique projection image is acquired. The processing can be combined after the number of selected cameras is repeated. Computer graphics functions also have such operations (for example, the OpenGL blend function).

斜投影画像を取得する場合、第2実施形態における複数デプスマップの上の交点の選択については、奥行き値を投影したZbufferを用いて、各デプスマップ内でもっともZ値が高い交点{S0,S1}をそれぞれ求めることができる。ここで、図8に示した例のように、デプスマップD2内でもっともZ値が高い交点はS0であり、デプスマップD3内でもっともZ値が高い交点はS1である。そして、投影点における画素値の類似度判定による交点Sの選択については、カメラC2の画像I2をデプスマップ{D2,D3}にそれぞれマッピングしておき、カメラC3の画像I3をデプスマップ{D2,D3}にそれぞれマッピングしておき、各デプスマップを斜投影した各画像上で類似の高いデプスマップの投影点の画素値を用いることで実現できる。 When acquiring an oblique projection image, the selection of the intersection point on the plurality of depth maps in the second embodiment is performed by using the Zbuffer in which the depth value is projected, and the intersection point {S 0 , S 1 } can be obtained respectively. Here, as in the example shown in FIG. 8, the intersection having the highest Z value in the depth map D 2 is S 0 , and the intersection having the highest Z value in the depth map D 3 is S 1 . For the selection of the intersection point S based on the similarity determination of the pixel value at the projection point, the image I 2 of the camera C 2 is mapped to the depth map {D 2 , D 3 }, respectively, and the image I 3 of the camera C 3 is mapped. Is mapped to the depth map {D 2 , D 3 }, and the pixel values of the projection points of the similar high depth map are used on the images obtained by obliquely projecting the depth maps.

ここで、各デプスマップを斜投影した各画像上で類似の高いことを示す類似度としては、各カメラベクトルCnと光線ベクトルgとのなす角度が互いに小さいほど、類似が高いことを示すような類似度を定義する。つまり、各画像上でのそれぞれの画素値を比較したとき、その画素値の差が小さいほど、類似が高いことを示すような類似度を定義する。
例えば、画像I2をデプスマップD2にマッピングしたデプスマップを斜投影した画像Hc22と、画像I3をデプスマップD2にマッピングしたデプスマップを斜投影した画像Hc32と、を用意する。そして、対象画素kにおける画像Hc22の画素値と、対象画素kにおける画像Hc32の画素値と、の差を算出することで、類似度R2を求めることができる。
Here, as the similarity indicating that the similarity is high on each image obtained by obliquely projecting each depth map, the smaller the angle between each camera vector C n and the light vector g is, the higher the similarity is. Define similar similarity. That is, when comparing the pixel values on each image, the similarity is defined so as to indicate that the similarity is higher as the difference between the pixel values is smaller.
For example, an image Hc 2 d 2 obtained by obliquely projecting the depth map obtained by mapping the image I 2 on the depth map D 2 , an image Hc 3 d 2 obtained by obliquely projecting the depth map obtained by mapping the image I 3 on the depth map D 2 , Prepare. Then, the similarity R 2 can be obtained by calculating the difference between the pixel value of the image Hc 2 d 2 at the target pixel k and the pixel value of the image Hc 3 d 2 at the target pixel k.

同様に、画像I2をデプスマップD3にマッピングしたデプスマップを斜投影した画像Hc23と、画像I3をデプスマップD3にマッピングしたデプスマップを斜投影した画像Hc33と、を用意する。対象画素kにおける画像Hc23の画素値と、対象画素kにおける画像Hc33の画素値と、の差を算出することで、類似度R3を求めることができる。そして、R2<R3の関係が成り立っていれば、デプスマップD2上の交点S0を、決定された交点として出力すればよい。 Similarly, an image Hc 2 d 3 obtained by obliquely projecting the depth map obtained by mapping the image I 2 onto the depth map D 3 , and an image Hc 3 d 3 obtained by obliquely projecting the depth map obtained by mapping the image I 3 onto the depth map D 3 Prepare. By calculating the difference between the pixel value of the image Hc 2 d 3 at the target pixel k and the pixel value of the image Hc 3 d 3 at the target pixel k, the similarity R 3 can be obtained. If the relationship of R 2 <R 3 is established, the intersection point S 0 on the depth map D 2 may be output as the determined intersection point.

第2実施形態では、デプスマップ制御手段140のカメラベクトル算出手段141を、画像統合手段120のカメラベクトル算出手段121で代用してもよいし、デプスマップ選択手段142を光線追跡手段110Bに組み込んでもよい。
第2実施形態で説明したデプスカメラで様々な方向から被写体を撮影して取得した距離画像を、精密に重ね合わせて図3に示す3次元モデルQを生成することができれば、その後、第1実施形態で説明した手法で要素画像群を生成するようにしてもよい。
In the second embodiment, the camera vector calculation unit 141 of the depth map control unit 140 may be replaced by the camera vector calculation unit 121 of the image integration unit 120, or the depth map selection unit 142 may be incorporated in the ray tracing unit 110B. Good.
If the distance images acquired by photographing the subject from various directions with the depth camera described in the second embodiment can be precisely superimposed to generate the three-dimensional model Q shown in FIG. 3, then the first embodiment is performed. You may make it produce | generate an element image group by the method demonstrated by the form.

前記各実施形態では、要素画像群生成装置100,100Bとして説明したが、各装置の構成の処理を可能にするように、汎用または特殊なコンピュータ言語で記述した要素画像群生成プログラムとみなすことも可能である。   In each of the embodiments, the element image group generation apparatuses 100 and 100B have been described. However, the element image group generation program described in a general-purpose or special computer language may be considered so as to enable processing of the configuration of each apparatus. Is possible.

また、要素画像群生成装置100,100Bは、2次元ディスプレーとレンズアレーとを併せて利用することでインテグラル立体像を提示することができる。さらに、例えばデジタル放送受信機能と2次元ディスプレーとレンズアレーとを備えたデジタル放送受信装置(インテグラル式立体テレビ)として利用することもできる。   The element image group generation devices 100 and 100B can present an integral stereoscopic image by using a two-dimensional display and a lens array together. Furthermore, for example, it can be used as a digital broadcast receiving apparatus (integral type stereoscopic television) having a digital broadcast receiving function, a two-dimensional display, and a lens array.

前記各実施形態では、水平と垂直の両方の視差を再現することができるインテグラル立体像のケースについて述べたが、かまぼこ型の1次元のマイクロレンズを用いて、水平視差のみを再現するレンチキュラー式の立体像についても同様に生成可能である。
また、前記各実施形態で説明した処理を複数のフレームに行うことで、立体像の動画を生成することができる。
In each of the above embodiments, the case of an integral stereoscopic image that can reproduce both horizontal and vertical parallax has been described. However, a lenticular type that reproduces only horizontal parallax using a kamaboko type one-dimensional microlens. The three-dimensional image can be generated in the same manner.
In addition, by performing the processing described in each of the embodiments on a plurality of frames, a stereoscopic image moving image can be generated.

さらに、前記各実施形態の説明では、3次元モデルやデプスマップが、多視点映像から生成されたものとして説明したが、これに限らず、例えばTOF(Time Of Flight)法や構造化照明法(Structured Light)など、多視点映像以外を用いて3次元モデルやデプスマップを取得するようにしても構わない。
例えば3次元モデルやデプスマップをTOF法で取得する場合、被写体をTOFカメラで撮影して被写体までの距離情報を含む距離画像を取得すればよい。
また、例えば3次元モデルやデプスマップを構造化照明法で取得する場合、構造化照明法で用いるカメラで被写体を撮影して被写体の輝度情報を含むモノクローム画像を取得すればよい。なお、要素画像群を生成するために被写体を多視点カメラ(カラーカメラ)で撮影することには変わりはない。そのため、各カラーカメラの近傍に、例えばTOFカメラ等を設置して、被写体のカラー画像と距離画像等とを取得するようにしてもよい。
Furthermore, in the description of each of the above embodiments, the three-dimensional model and the depth map have been described as being generated from a multi-viewpoint video. However, the present invention is not limited to this. For example, the TOF (Time Of Flight) method or the structured illumination method ( A 3D model or a depth map may be acquired using a non-multi-view video such as Structured Light).
For example, when a three-dimensional model or a depth map is acquired by the TOF method, the subject may be captured by a TOF camera and a distance image including distance information to the subject may be acquired.
For example, when a three-dimensional model or a depth map is acquired by the structured illumination method, the subject is captured by a camera used in the structured illumination method, and a monochrome image including luminance information of the subject is acquired. Note that there is no change in photographing a subject with a multi-viewpoint camera (color camera) in order to generate an element image group. Therefore, for example, a TOF camera or the like may be installed in the vicinity of each color camera to acquire a color image of the subject, a distance image, and the like.

100,100B 要素画像群生成装置
110,110B 光線追跡手段
111 仮想空間設定手段
112 光線ベクトル算出手段
113 位置情報算出手段
114 仮想空間情報メモリ
120 画像統合手段
121 カメラベクトル算出手段
122 カメラ選択手段
123 画素値割当手段
124 投影手段
125 合成手段
130 画像生成制御手段
131 要素画像群格納メモリ
140 デプスマップ制御手段
141 カメラベクトル算出手段
142 デプスマップ選択手段
DESCRIPTION OF SYMBOLS 100,100B Element image group production | generation apparatus 110,110B Ray tracking means 111 Virtual space setting means 112 Ray vector calculation means 113 Position information calculation means 114 Virtual space information memory 120 Image integration means 121 Camera vector calculation means 122 Camera selection means 123 Pixel value Assigning means 124 Projecting means 125 Compositing means 130 Image generation control means 131 Element image group storage memory 140 Depth map control means 141 Camera vector calculation means 142 Depth map selection means

Claims (8)

被写体の予め生成された3次元モデルを利用し、前記被写体を多視点カメラで撮影した多視点のカメラ画像から要素画像群を生成する要素画像群生成装置であって、
仮想空間に配置した仮想ディスプレーの画素から発して仮想レンズアレーのレンズを通過する光線を表す直線の方向ベクトルである光線ベクトルを算出すると共に前記直線と前記仮想空間に配置した前記3次元モデルとの交点のうち観測者に最も近い位置に対応して決定した交点の座標を求める光線追跡手段と、
前記被写体の撮影に用いる多視点カメラのカメラパラメータに基づいて前記仮想空間上に配置された複数のカメラによる撮影方向を示すカメラベクトルと前記光線ベクトルとのなす角度が所定値以下であるカメラを選択し、前記選択されたカメラについて入力された前記カメラ画像に対して前記交点の座標を投影し、この投影点の画素値又はそれらを合成した画素値を前記仮想ディスプレーの画素に割り当てる画像統合手段と、
前記仮想ディスプレーの全画素について割り当てられた画素値を集積した要素画像群を生成する画像生成制御手段と、を備える要素画像群生成装置。
An element image group generation apparatus that generates an element image group from a multi-view camera image obtained by photographing a subject with a multi-view camera using a pre-generated three-dimensional model of the subject,
A ray vector which is a direction vector of a straight line representing a light ray emitted from a virtual display pixel arranged in the virtual space and passing through the lenses of the virtual lens array is calculated, and the straight line and the three-dimensional model arranged in the virtual space are calculated. Ray tracing means for obtaining coordinates of the intersection determined corresponding to the position closest to the observer among the intersections;
Based on camera parameters of a multi-viewpoint camera used for photographing the subject, a camera in which an angle formed by a camera vector indicating a photographing direction by a plurality of cameras arranged in the virtual space and the light vector is equal to or smaller than a predetermined value is selected. Image integration means for projecting the coordinates of the intersection point on the camera image input for the selected camera, and assigning a pixel value of the projection point or a pixel value obtained by synthesizing them to the pixel of the virtual display; ,
An element image group generation device, comprising: an image generation control unit that generates an element image group in which pixel values assigned to all pixels of the virtual display are integrated.
被写体の予め生成された複数のデプスマップを利用し、前記被写体を多視点カメラで撮影した多視点のカメラ画像から要素画像群を生成する要素画像群生成装置であって、
仮想空間に配置した仮想ディスプレーの画素から発して仮想レンズアレーのレンズを通過する光線を表す直線の方向ベクトルである光線ベクトルを算出すると共に前記直線と前記仮想空間に配置した前記デプスマップとの交点のうち観測者に最も近い位置に対応して決定した交点の座標を求める光線追跡手段と、
前記被写体の撮影に用いる多視点カメラのカメラパラメータに基づいて前記仮想空間上に配置された複数のカメラによる撮影方向を示すカメラベクトルと前記光線ベクトルとのなす角度が所定値以下であるカメラを選択し、前記選択されたカメラについて入力された前記カメラ画像に対して前記交点の座標を投影し、この投影点の画素値又はそれらを合成した画素値を前記仮想ディスプレーの画素に割り当てる画像統合手段と、
前記仮想ディスプレーの全画素について割り当てられた画素値を集積した要素画像群を生成する画像生成制御手段と、を備える要素画像群生成装置。
An element image group generation device that generates an element image group from a multi-view camera image obtained by photographing a plurality of depth maps of a subject using a multi-view camera using a plurality of depth maps generated in advance.
Computes a ray vector, which is a directional vector of a straight line representing a ray emitted from a pixel of the virtual display arranged in the virtual space and passing through the lenses of the virtual lens array, and intersects the straight line and the depth map arranged in the virtual space Ray tracing means for obtaining the coordinates of the intersection determined corresponding to the position closest to the observer,
Based on camera parameters of a multi-viewpoint camera used for photographing the subject, a camera in which an angle formed by a camera vector indicating a photographing direction by a plurality of cameras arranged in the virtual space and the light vector is equal to or smaller than a predetermined value is selected. Image integration means for projecting the coordinates of the intersection point on the camera image input for the selected camera, and assigning a pixel value of the projection point or a pixel value obtained by synthesizing them to the pixel of the virtual display; ,
An element image group generation device, comprising: an image generation control unit that generates an element image group in which pixel values assigned to all pixels of the virtual display are integrated.
前記画像統合手段は、前記カメラベクトルと前記光線ベクトルとのなす角度を昇順に並びかえたとき、予め定められた順位以上のカメラを選択する、請求項1又は請求項2に記載の要素画像群生成装置。   3. The element image group according to claim 1, wherein the image integration unit selects a camera having a predetermined order or higher when the angles formed by the camera vector and the light vector are rearranged in ascending order. Generator. 前記光線追跡手段は、前記カメラベクトルと前記光線ベクトルとのなす角度を昇順に並びかえたとき、予め定められた順位以上のカメラを用いて生成されたデプスマップを用いて前記決定した交点の座標を求める、請求項2に記載の要素画像群生成装置。   When the ray tracing means rearranges the angle formed by the camera vector and the ray vector in ascending order, the coordinates of the determined intersection point using a depth map generated using a camera of a predetermined order or higher The element image group generation device according to claim 2, wherein: 前記光線追跡手段は、前記デプスマップと前記直線との交点のうち観測者に最も近い交点をデプスマップ毎に求め、求めた交点を前記選択された複数のカメラにそれぞれ投影したときの各投影点での画素値の類似度を前記交点毎に算出し、算出した類似度が最も高くなる交点を、前記観測者に最も近い位置に対応した交点として決定する、請求項2に記載の要素画像群生成装置。   The ray tracing means obtains, for each depth map, an intersection closest to the observer among intersections of the depth map and the straight line, and each projection point when the obtained intersection is projected onto the selected plurality of cameras. 3. The element image group according to claim 2, wherein a similarity of pixel values is calculated for each intersection, and an intersection having the highest similarity is determined as an intersection corresponding to a position closest to the observer. Generator. 前記光線追跡手段は、仮想空間上で斜投影を行って前記仮想レンズアレーを構成する各レンズの光学主点を通過する同一方向の光線として前記光線ベクトルを算出し、
前記画像統合手段は、前記斜投影が行われる度に前記カメラを選択する処理を行う、請求項1から請求項5のいずれか一項に記載の要素画像群生成装置。
The ray tracing means performs oblique projection on a virtual space and calculates the ray vector as a ray in the same direction passing through the optical principal point of each lens constituting the virtual lens array,
The element image group generation device according to claim 1, wherein the image integration unit performs a process of selecting the camera every time the oblique projection is performed.
前記光線追跡手段は、仮想空間上で斜投影を行って前記仮想レンズアレーを構成する各レンズの光学主点を通過する同一方向の光線として前記光線ベクトルを算出し、
前記画像統合手段は、前記斜投影が行われる度に前記デプスマップを切り替えて用いる、請求項2に記載の要素画像群生成装置。
The ray tracing means performs oblique projection on a virtual space and calculates the ray vector as a ray in the same direction passing through the optical principal point of each lens constituting the virtual lens array,
The element image group generation device according to claim 2, wherein the image integration unit switches the depth map each time the oblique projection is performed.
コンピュータを、請求項1から請求項7のいずれか一項に記載の要素画像群生成装置として機能させるための要素画像群生成プログラム。   An element image group generation program for causing a computer to function as the element image group generation device according to any one of claims 1 to 7.
JP2015200560A 2015-10-08 2015-10-08 Element image group generation apparatus and program thereof Active JP6595878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015200560A JP6595878B2 (en) 2015-10-08 2015-10-08 Element image group generation apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015200560A JP6595878B2 (en) 2015-10-08 2015-10-08 Element image group generation apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2017073710A true JP2017073710A (en) 2017-04-13
JP6595878B2 JP6595878B2 (en) 2019-10-23

Family

ID=58537558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015200560A Active JP6595878B2 (en) 2015-10-08 2015-10-08 Element image group generation apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6595878B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116896608A (en) * 2023-09-11 2023-10-17 山东省地震局 Virtual earthquake scene playing system based on mobile equipment propagation
JP7396202B2 (en) 2020-05-28 2023-12-12 富士通株式会社 Generation program, generation method, and information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107463A (en) * 2003-09-26 2005-04-21 Kazuhisa Yanaka Integral photography
JP2009175866A (en) * 2008-01-22 2009-08-06 Nippon Hoso Kyokai <Nhk> Stereoscopic image generation device, its method, and its program
JP2014093779A (en) * 2012-10-31 2014-05-19 Samsung Electronics Co Ltd Image processing method and image processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107463A (en) * 2003-09-26 2005-04-21 Kazuhisa Yanaka Integral photography
JP2009175866A (en) * 2008-01-22 2009-08-06 Nippon Hoso Kyokai <Nhk> Stereoscopic image generation device, its method, and its program
JP2014093779A (en) * 2012-10-31 2014-05-19 Samsung Electronics Co Ltd Image processing method and image processing apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
久富 健介: "多視点映像技術の概要", NHK技研R&D, JPN6019017698, 15 March 2014 (2014-03-15), pages 18 - 25, ISSN: 0004034484 *
久富 健介: "複数距離画像からのインテグラル立体像生成手法", 映像情報メディア学会技術報告, vol. 36, no. 24, JPN6019017700, 13 June 2012 (2012-06-13), pages 7 - 10, ISSN: 0004034485 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7396202B2 (en) 2020-05-28 2023-12-12 富士通株式会社 Generation program, generation method, and information processing device
CN116896608A (en) * 2023-09-11 2023-10-17 山东省地震局 Virtual earthquake scene playing system based on mobile equipment propagation
CN116896608B (en) * 2023-09-11 2023-12-12 山东省地震局 Virtual seismic scene presentation system

Also Published As

Publication number Publication date
JP6595878B2 (en) 2019-10-23

Similar Documents

Publication Publication Date Title
JP6734620B2 (en) Video processing method and video processing apparatus
US20200027263A1 (en) System and method for infinite synthetic image generation from multi-directional structured image array
US20170148186A1 (en) Multi-directional structured image array capture on a 2d graph
CN108513123B (en) Image array generation method for integrated imaging light field display
JP2017532847A (en) 3D recording and playback
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
JP6406853B2 (en) Method and apparatus for generating optical field images
JP5845123B2 (en) Three-dimensional model-integral image conversion apparatus and program thereof
JP2016537901A (en) Light field processing method
Thatte et al. Depth augmented stereo panorama for cinematic virtual reality with head-motion parallax
US20190385323A1 (en) A method for generating layered depth data of a scene
JP7479729B2 (en) Three-dimensional representation method and device
KR20120045269A (en) Method and apparatus for generating hologram based on 3d mesh modeling and evolution
JP6717576B2 (en) Video rendering apparatus and method
CN111064945B (en) Naked eye 3D image acquisition and generation method
JP6595878B2 (en) Element image group generation apparatus and program thereof
JP2001256482A (en) Device and method for generating parallax image
JP4862004B2 (en) Depth data generation apparatus, depth data generation method, and program thereof
KR20120093751A (en) Apparatus and method of eye contact using compositing image of front image view
JP7416573B2 (en) Stereoscopic image generation device and its program
KR101208767B1 (en) Stereoscopic image generation method, device and system using circular projection and recording medium for the same
JP2016114445A (en) Three-dimensional position calculation device, program for the same, and cg composition apparatus
JP5088973B2 (en) Stereo imaging device and imaging method thereof
JP7257272B2 (en) DEPTH MAP GENERATION DEVICE AND PROGRAM THEREOF, AND 3D IMAGE GENERATION DEVICE
CN109379577B (en) Video generation method, device and equipment of virtual viewpoint

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190927

R150 Certificate of patent or registration of utility model

Ref document number: 6595878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250