JP6300346B2 - IP stereoscopic image estimation apparatus and program thereof - Google Patents
IP stereoscopic image estimation apparatus and program thereof Download PDFInfo
- Publication number
- JP6300346B2 JP6300346B2 JP2013245929A JP2013245929A JP6300346B2 JP 6300346 B2 JP6300346 B2 JP 6300346B2 JP 2013245929 A JP2013245929 A JP 2013245929A JP 2013245929 A JP2013245929 A JP 2013245929A JP 6300346 B2 JP6300346 B2 JP 6300346B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- resolution
- viewpoint
- element image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本願発明は、IP立体映像(要素画像群)の解像度を推定するIP立体映像推定装置及びそのプログラムに関する。 The present invention relates to an IP stereoscopic video estimation apparatus and program for estimating the resolution of an IP stereoscopic video (element image group).
従来のインテグラルフォトグラフィ(IP)方式では、1台のカメラで複数の微小レンズが配列されたレンズアレイを通して被写体を撮像する。この時、カメラがレンズアレイの焦平面を撮影するため、レンズアレイを構成する各微小レンズは、微小なカメラと同じ働きをする。その結果、レンズアレイ越しに被写体を撮影した画像は、微小レンズの位置に応じた微小画像(要素画像)が並んだ要素画像群となる。この要素画像群は、被写体からの光線情報を記録した画像であり、記録できる光線数がカメラの解像度に依存する。このため、IP方式での撮影には、高解像度のカメラが必要である。 In the conventional integral photography (IP) system, a subject is imaged through a lens array in which a plurality of microlenses are arranged with one camera. At this time, since the camera takes an image of the focal plane of the lens array, each micro lens constituting the lens array has the same function as the micro camera. As a result, an image obtained by photographing the subject through the lens array becomes an element image group in which minute images (element images) corresponding to the positions of the minute lenses are arranged. This elemental image group is an image in which light information from a subject is recorded, and the number of light rays that can be recorded depends on the resolution of the camera. For this reason, a high-resolution camera is required for shooting using the IP method.
また、従来から、コンピュータグラフィックス(CG)を用いて、IP方式の要素画像群を生成する技術が研究されている。この従来技術では、計算機内で仮想3次元空間を生成し、3次元の被写体及び背景(セット)を実世界と同様に再現し、その仮想3次元空間において被写体からの光線を追跡することで、要素画像群を生成する。CGによる要素画像を生成する手法として、下記の特許文献1,2及び非特許文献1,2に記載の手法が知られている。これらの要素画像生成手法は、被写体からの光線を制御する奥行き制御レンズを通して、被写体からの光線を追跡するものである。 Conventionally, a technique for generating an IP element image group using computer graphics (CG) has been studied. In this conventional technology, a virtual three-dimensional space is generated in a computer, a three-dimensional subject and a background (set) are reproduced in the same manner as in the real world, and light rays from the subject are tracked in the virtual three-dimensional space. Generate element images. As methods for generating element images by CG, methods described in Patent Documents 1 and 2 and Non-Patent Documents 1 and 2 below are known. In these element image generation methods, light rays from a subject are traced through a depth control lens that controls light rays from the subject.
前記した要素画像生成手法では、要素画像群の画素数の回数だけ観視者側からカメラで撮影する必要がある。すなわち、非特許文献1の要素画像生成手法は、1画素毎に光線追跡法を用いるので、1画素毎に撮影を行うカメラと同等であり、撮影回数が要素画像群の画素数と同じになる。 In the element image generation method described above, it is necessary to photograph with the camera from the viewer side as many times as the number of pixels of the element image group. That is, since the element image generation method of Non-Patent Document 1 uses a ray tracing method for each pixel, it is equivalent to a camera that performs imaging for each pixel, and the number of imaging is the same as the number of pixels in the element image group. .
そこで、さらなる高速化のため、従来技術として、CGオブジェクトを正射影によるカメラで撮影し、この画像を要素画像群に変換する手法も知られている(特許文献3、非特許文献3)。従来の要素画像変換手法では、カメラで撮影する回数が要素画像を形成する画素数で済む。 In order to further increase the speed, as a conventional technique, there is also known a technique in which a CG object is photographed by a camera by orthographic projection and this image is converted into an element image group (Patent Document 3 and Non-Patent Document 3). In the conventional element image conversion method, the number of times of photographing with the camera is the number of pixels forming the element image.
IP方式では、表示画面から離れる程に解像度が低下するので、表示画面の手前又は奥に位置する立体像がぼけることになる。このとき、立体像のぼけ具合は、実際に撮影を行わないとわからない。しかし、IP方式では、レンズアレイや奥行制御レンズを適切な位置に配置しなければ、撮影を行うことができない。その結果、IP方式では、立体像で所望のぼけ具合を得るため、撮影を繰り返し行うことになり、非常に手間がかかってしまう。 In the IP system, the resolution decreases as the distance from the display screen increases, and a stereoscopic image located in front of or behind the display screen is blurred. At this time, the degree of blur of the three-dimensional image is not known unless shooting is actually performed. However, in the IP system, photographing cannot be performed unless the lens array and the depth control lens are arranged at appropriate positions. As a result, in the IP method, in order to obtain a desired degree of blur in a three-dimensional image, photographing is repeatedly performed, which is very troublesome.
ここで、2眼立体方式は、一般的なIP方式のみならず、従来の要素画像変換手法と比較しても、立体画像を短い時間で生成できる。従って、IP方式での撮影時間を短縮するために、2眼立体方式の利用を検討する。 Here, the binocular stereoscopic method can generate a stereoscopic image in a short time as compared to the conventional IP image method as well as the conventional element image conversion method. Therefore, in order to shorten the photographing time in the IP method, the use of the binocular stereoscopic method is examined.
そもそも、IP方式は、2眼立体方式と比べて、運動視差の再現、及び、立体映像の解像度特性に大きな違いがある。観視者が特定の位置で動かずに観視するという条件あれば、運動視差の影響がなくなる。つまり、前記した条件の元であれば、IP方式は、2眼立体方式と比べて、立体映像の解像度特性のみに大きな違いが残る。このことから、2眼立体方式の画像の解像度を変換すればIP立体映像の解像度を推定可能とし、映像制作者は、IP方式で実際に撮影を行う前に立体像のぼけ具合を確認することができる。 In the first place, the IP method has a great difference in the reproduction of motion parallax and the resolution characteristics of a stereoscopic image, compared with the binocular stereoscopic method. If the viewer is viewing without moving at a specific position, the influence of motion parallax is eliminated. That is, under the above-described conditions, the IP method has a large difference only in the resolution characteristics of the stereoscopic video as compared with the binocular stereoscopic method. From this, it is possible to estimate the resolution of the IP stereoscopic video by converting the resolution of the binocular stereoscopic system image, and the video producer should check the degree of blur of the stereoscopic image before actually shooting with the IP system. Can do.
そこで、本願発明は、IP方式で撮影を行わずにIP立体映像の解像度を推定できるIP立体映像推定装置及びそのプログラムを提供することを課題とする。 Therefore, an object of the present invention is to provide an IP stereoscopic video estimation apparatus and a program thereof that can estimate the resolution of an IP stereoscopic video without taking an image using the IP method.
前記した課題に鑑みて、本願発明に係るIP立体映像推定装置は、表示素子及びレンズアレイを備えるIP立体映像表示装置で表示される要素画像群の解像度に合わせて、2眼立体撮影装置で撮影されたステレオ画像の解像度を変換し、解像度が変換されたステレオ画像を、観視者の右目及び左目を表す視点毎に要素画像群の解像度を推定した視点要素画像群として出力するIP立体映像推定装置であって、解像度特性決定手段と、奥行値算出手段と、第1画素位置算出手段と、対応画素解像度決定手段と、画素取得領域算出手段と、画素値割当手段と、を備えることを特徴とする。 In view of the above-described problems, an IP stereoscopic video estimation device according to the present invention is photographed with a binocular stereoscopic imaging device in accordance with the resolution of an element image group displayed on an IP stereoscopic video display device including a display element and a lens array. IP stereo image estimation that converts the resolution of the stereo image and outputs the stereo image with the converted resolution as a viewpoint element image group in which the resolution of the element image group is estimated for each viewpoint representing the right eye and the left eye of the viewer An apparatus comprising: a resolution characteristic determining unit; a depth value calculating unit; a first pixel position calculating unit; a corresponding pixel resolution determining unit; a pixel acquisition region calculating unit; and a pixel value assigning unit. And
かかる構成によれば、IP立体映像推定装置は、解像度特性決定手段によって、予め設定された奥行範囲において、前記要素画像群の最大解像度又は観視解像度の小さな方を解像度特性として決定する。また、IP立体映像推定装置は、奥行値算出手段によって、ステレオ画像が入力され、入力されたステレオ画像の画素毎に奥行値を算出する。 According to such a configuration, the IP stereoscopic video estimation apparatus determines, as the resolution characteristic, the smaller one of the maximum resolution or viewing resolution of the element image group within the preset depth range by the resolution characteristic determination unit. In the IP stereoscopic video estimation apparatus, a stereo value is input by the depth value calculation means, and the depth value is calculated for each pixel of the input stereo image.
また、IP立体映像推定装置は、第1画素位置算出手段によって、視点毎に、光線追跡法によって、視点から要素レンズの中心を通過して表示素子に到達する仮想線上に位置する視点要素画像群の第1基準画素を算出する。そして、IP立体映像推定装置は、対応画素解像度決定手段によって、第1基準画素に対応した位置にあるステレオ画像の対応画素を求め、解像度特性から、対応画素の奥行値に応じた解像度を決定する。 In addition, the IP stereoscopic video estimation apparatus uses a first pixel position calculation unit to generate a viewpoint element image group positioned on a virtual line that passes through the center of the element lens from the viewpoint and reaches the display element by the ray tracing method for each viewpoint. The first reference pixel is calculated. Then, the IP stereoscopic video estimation apparatus obtains the corresponding pixel of the stereo image at the position corresponding to the first reference pixel by the corresponding pixel resolution determining unit, and determines the resolution according to the depth value of the corresponding pixel from the resolution characteristics. .
また、IP立体映像推定装置は、画素取得領域算出手段によって、対応画素を中心として、最大解像度と対応画素の解像度との比で要素レンズの直径を拡大した画素取得領域を算出する。そして、IP立体映像推定装置は、画素値割当手段によって、視点毎に、ステレオ画像から画素取得領域に含まれる画素を取得し、取得した画素の画素値に基づいて、視点要素画像群のうち、第1基準画素が属する視点要素画像の各画素の画素値を割り当てる。
このようにして、IP立体映像推定装置は、ステレオ画像から、IP立体映像と等価な視点要素画像群を生成することができる。
In the IP stereoscopic image estimation device, the pixel acquisition region calculation unit calculates a pixel acquisition region in which the diameter of the element lens is enlarged with the ratio of the maximum resolution and the resolution of the corresponding pixel around the corresponding pixel. Then, the IP stereoscopic video estimation device acquires the pixels included in the pixel acquisition region from the stereo image for each viewpoint by the pixel value assigning unit, and based on the acquired pixel values of the pixels, A pixel value of each pixel of the viewpoint element image to which the first reference pixel belongs is assigned.
In this way, the IP stereoscopic video estimation device can generate a viewpoint element image group equivalent to the IP stereoscopic video from the stereo image.
視点要素画像群とは、観視者の視点(両目)に対応した、IP立体映像表示装置で表示される要素画像群と同一構造を有する画像のことである。つまり、視点要素画像群は、IP方式の要素画像群と同一形状及び同一配列であって、観視者の左右の目に対応した右視点要素画像群及び左視点要素画像群で構成される。 The viewpoint element image group is an image having the same structure as the element image group displayed on the IP stereoscopic video display device corresponding to the viewpoint (both eyes) of the viewer. That is, the viewpoint element image group has the same shape and the same arrangement as the IP system element image group, and includes a right viewpoint element image group and a left viewpoint element image group corresponding to the left and right eyes of the viewer.
本願発明に係るIP立体映像推定装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるIP立体映像推定プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 The IP stereoscopic video estimation apparatus according to the present invention can also be realized by an IP stereoscopic video estimation program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate cooperatively as the above-described means. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.
本願発明によれば、ステレオ画像からIP立体映像と等価な視点要素画像群を短時間で生成できるので、この視点要素画像群を表示すれば、観視者がIP立体映像の解像度を確認することができる。これによって、本願発明によれば、IP方式で撮影を行わずにIP立体映像の解像度を推定可能とし、IP立体映像の制作を容易、かつ、その制作時間を短縮することができる。 According to the present invention, since a viewpoint element image group equivalent to an IP stereoscopic video can be generated from a stereo image in a short time, if this viewpoint element image group is displayed, the viewer can confirm the resolution of the IP stereoscopic video. Can do. As a result, according to the present invention, it is possible to estimate the resolution of the IP stereoscopic video without taking an image by the IP method, and it is easy to produce the IP stereoscopic video and shorten the production time.
以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.
(第1実施形態)
[IP立体映像推定システムの概略]
図1を参照し、本願発明の第1実施形態に係るIP立体映像推定システム1の概略について、説明する。
IP立体映像推定システム1は、2眼立体カメラ20で撮影したステレオ画像からIP立体映像の解像度を推定するものであり、IP立体映像推定装置2と、2眼立体カメラ(2眼立体撮影装置)20と、収録再生装置30と、2眼立体テレビ50とを備える。
(First embodiment)
[Outline of IP stereoscopic video estimation system]
With reference to FIG. 1, an outline of the IP stereoscopic video estimation system 1 according to the first embodiment of the present invention will be described.
The IP stereoscopic video estimation system 1 estimates the resolution of an IP stereoscopic video from a stereo image captured by a binocular
IP立体映像推定装置2は、2眼立体カメラ20で撮影されたステレオ画像の解像度を変換し、IP立体映像の解像度を推定するものである。第1実施形態では、IP立体映像推定装置2は、解像度変換装置40で構成されることとする。
The IP stereoscopic video estimation device 2 converts the resolution of a stereo image captured by the binocular
2眼立体カメラ20は、被写体10を2眼立体方式で撮影するステレオカメラである。例えば、2眼立体カメラ20として、同一の撮影カメラ21R,21Lを2台、所定のベースラインで左右に配置したものがあげられる。そして、2眼立体カメラ20は、撮影したステレオ画像を収録再生装置30に出力する。
The binocular
なお、右側の撮影カメラ21Rで撮影されたステレオ画像を右撮影画像と呼び、左側の撮影カメラ21Lで撮影されたステレオ画像を左撮影画像と呼ぶ。また、右側の撮影カメラ21Rを観視者の右目に対応させ、左側の撮影カメラ21Lを観視者の左目に対応させている。
また、観視者とは、IP立体映像推定装置で生成した画像を用いて、IP立体映像の解像度を確認する者(例えば、映像制作者)である。
A stereo image taken by the
The viewer is a person (for example, a video producer) who confirms the resolution of the IP stereoscopic video using the image generated by the IP stereoscopic video estimation device.
収録再生装置30は、2眼立体カメラ20から入力されたステレオ画像を収録すると共に、収録したステレオ画像を解像度変換装置40に出力するものである。例えば、収録再生装置30としては、一般的な録画装置があげられる。
The recording / reproducing
解像度変換装置40は、収録再生装置30から入力されたステレオ画像の解像度を、IP立体映像の解像度に合わせて変換するものである。そして、解像度変換装置40は、解像度が変換されたステレオ画像(視点要素画像群)を2眼立体テレビ50に出力する。
この解像度変換装置40は、詳細を後記する。
The
Details of the
視点要素画像群とは、観視者の視点に対応した、IP立体映像表示装置で表示される要素画像群と同一構造の右視点要素画像群及び左視点要素画像群で構成される。本実施形態では、視点要素画像群に含まれる各視点要素画像は、その各画素が同一の画素値を有している。
なお、視点とは、観視者の右目及び左目に対応した位置を表している。
The viewpoint element image group includes a right viewpoint element image group and a left viewpoint element image group having the same structure as the element image group displayed on the IP stereoscopic video display device corresponding to the viewpoint of the viewer. In the present embodiment, each viewpoint element image included in the viewpoint element image group has each pixel having the same pixel value.
The viewpoint represents a position corresponding to the right eye and left eye of the viewer.
2眼立体テレビ50は、解像度変換装置40から入力された視点要素画像群を表示する立体表示装置である。例えば、2眼立体テレビ50としては、レンチキュラ方式の立体テレビがあげられる。また、2眼立体テレビ50は、右視点要素画像群及び左視点要素画像群を時分割で交互に表示する立体テレビでもよい。
The binocular
IP立体映像推定システム1の利用方法について、簡単に説明する。
前記したように、IP方式では、立体像のぼけ具合が、実際に撮影を行わないとわからない。従って、IP方式では、観視者にとって適切な立体像のぼけ具合を得るため、繰り返し撮影を行うことが多くなる。その一方、IP方式では、レンズアレイや奥行制御レンズを適切な位置に配置してから撮影を行うため、撮影の手間が非常にかかる。
A method of using the IP stereoscopic video estimation system 1 will be briefly described.
As described above, in the IP system, the degree of blur of a stereoscopic image is not known unless actual shooting is performed. Therefore, in the IP system, in order to obtain an appropriate degree of stereoscopic image blur for the viewer, photographing is often repeated. On the other hand, in the IP method, since the photographing is performed after the lens array and the depth control lens are arranged at appropriate positions, it takes much time for photographing.
そこで、IP立体映像推定システム1は、IP方式に比べて撮影の手間が少ない2眼立体方式の撮影手法を用いて、IP立体映像表示装置100(図4)で表示されたIP立体映像の解像度を推定する。具体的には、IP立体映像推定システム1は、被写体10を2眼立体カメラ20で撮影し、撮影したステレオ画像の解像度を、IP立体映像の解像度に合わせて変換する。いわば、IP立体映像推定システム1は、IP方式での立体像のぼけ具合を推定するシミュレータと言える。
Therefore, the IP stereoscopic video estimation system 1 uses the binocular stereoscopic imaging method, which requires less labor than the IP method, to resolve the resolution of the IP stereoscopic video displayed on the IP stereoscopic video display device 100 (FIG. 4). Is estimated. Specifically, the IP stereoscopic video estimation system 1 captures the subject 10 with the binocular
なお、IP立体映像表示装置100は、IP立体映像の表示を想定した立体映像表示装置のことである。このIP立体映像表示装置100は、レンズアレイ110及び表示素子200を備える。
The IP stereoscopic
[解像度変換装置の構成]
図2を参照し、解像度変換装置40の構成について、説明する。
図2のように、解像度変換装置40は、解像度特性決定手段41と、奥行値算出手段42と、画素位置算出手段(第1画素位置算出手段)43と、視点要素画像群生成手段44とを備える。
[Configuration of resolution converter]
The configuration of the
As shown in FIG. 2, the
解像度特性決定手段41は、IP立体映像表示装置100で表示される要素画像群の解像度特性を決定するものであり、最大解像度算出手段41aと、観視解像度算出手段41bと、解像度特性算出手段41cとを備える。
ここで、解像度特性決定手段41は、要素画像群の解像度特性の決定に必要なパラメータ(例えば、要素レンズの間隔、視距離、表示素子とレンズアレイとの距離、及び、要素画像群の画素間隔)が入力される。
The resolution characteristic determining
Here, the resolution
<解像度特性の決定>
図3〜図5を参照し、解像度特性の決定について、詳細に説明する(適宜図2参照)。
図3では、横軸Zがレンズアレイ110を基準とした奥行値を表し、‘0’がレンズアレイ110の位置となる。
<Determination of resolution characteristics>
The determination of resolution characteristics will be described in detail with reference to FIGS. 3 to 5 (see FIG. 2 as appropriate).
In FIG. 3, the horizontal axis Z represents the depth value with reference to the
最大解像度算出手段41aは、レンズアレイ110を構成する要素レンズ120の間隔P、及び、レンズアレイ110と視点300との視距離Lに基づいて、要素画像群の最大解像度(最大空間周波数)を算出するものである。
The maximum
最大解像度とは、要素レンズ120の間隔Pに依存して決まる解像度であり、レンズアレイ110の位置(奥行値z)における解像度である。
The maximum resolution is a resolution determined depending on the interval P between the
図3のように、角度φは、下記の式(1)のように、要素レンズ120の間隔Pに対する角度を表す。言い換えるなら、角度φは、要素レンズ120の端と、視点300とを結んだ線のなす角の近似値である。
As shown in FIG. 3, the angle φ represents an angle with respect to the interval P between the
従って、最大解像度βnは、下記の式(2)で示すことができる。すなわち、最大解像度算出手段41aは、視距離Lを、要素レンズ120の間隔Pを2倍にした値で除算して、最大解像度βnを算出する。そして、最大解像度算出手段41aは、算出した最大解像度βnを解像度特性算出手段41cに出力する。
Therefore, the maximum resolution β n can be expressed by the following equation (2). In other words, the maximum
図4のように、観視解像度算出手段41bは、表示素子200とレンズアレイ110との距離g、及び、要素画像420の画素間隔pに基づいて、要素画像群410の観視解像度(観視空間周波数)を算出するものである。
なお、図4では、レンズアレイ110の奥側にあるため、距離gがマイナスになっている。
As shown in FIG. 4, the viewing
In FIG. 4, the distance g is negative because it is on the far side of the
観視解像度とは、投影された立体像400を、視点300から観視したときの解像度のことである。
図4では、図面を見易くするため、立体像400における画素、及び、要素画像420の画素を交互に白黒で図示した。
The viewing resolution is the resolution when the projected
In FIG. 4, the pixels in the
画素間隔tは、下記の式(3)のように、立体像400における画素の間隔を表す。ここで、立体像400は、奥行値zが示す位置に形成されることとする。
The pixel interval t represents the pixel interval in the
角度θは、下記の式(4)のように画素間隔tに対する角度を表す。言い換えるなら、角度θは、画素間隔tを、視距離Lから奥行値zを引いた値で除算した近似値である。 The angle θ represents an angle with respect to the pixel interval t as in the following formula (4). In other words, the angle θ is an approximate value obtained by dividing the pixel interval t by the value obtained by subtracting the depth value z from the viewing distance L.
従って、観視解像度βは、下記の式(5)で示すことができる。すなわち、観視解像度算出手段41bは、距離gを画素間隔pの2倍で除算した値と、視距離Lから奥行値zを引いて奥行値zの絶対値で除算した値との積で、観視解像度βを算出する。そして、観視解像度算出手段41bは、算出した観視解像度βを解像度特性算出手段41cに出力する。
なお、観視解像度算出手段41bは、奥行範囲内で立体像400の奥行値zを変化させながら、観視解像度βを算出する。奥行範囲とは、立体像400の奥行値zが取り得る範囲を予め設定したものである。
Accordingly, the viewing resolution β can be expressed by the following equation (5). That is, the viewing resolution calculation means 41b is a product of a value obtained by dividing the distance g by twice the pixel interval p and a value obtained by subtracting the depth value z from the viewing distance L and dividing by the absolute value of the depth value z. The viewing resolution β is calculated. Then, the viewing
The viewing
図5のように、解像度特性算出手段41cは、奥行範囲において、最大解像度算出手段41aから入力された最大解像度βn、又は、観視解像度算出手段41bから入力された観視解像度βの小さな方を表す解像度特性γを算出するものである。そして、解像度特性算出手段41cは、算出した解像度特性γを視点要素画像群生成手段44に出力する。
As shown in FIG. 5, in the depth range, the resolution
ここで、解像度特性γは、下記の式(6)のように、最大解像度算出手段41aが算出した最大解像度βn、又は、観視解像度算出手段41bが算出した観視解像度βの小さな方となる。式(6)において、‘min’は、複数の引数のうち、最小の引数を選択する関数である。
Here, the resolution characteristic γ is the smaller of the maximum resolution β n calculated by the maximum
図5の例では、解像度特性γは、レンズアレイ110の付近で最大解像度βnを表し、レンズアレイ110からある程度離れると観視解像度βを表す。そして、解像度特性γは、レンズアレイ110から離れる程、解像度が低下することを表す。
In the example of FIG. 5, the resolution characteristic γ represents the maximum resolution β n in the vicinity of the
なお、解像度特性の決定手法は、下記の参考文献1,2に記載されているため、これ以上の説明を省略する。
参考文献1:H.Hoshino et al.,“Analysis of Resolution Limitation of Integral Photography”,J.Opt.Soc.Am.A,Vol.15,No.8,pp.2059-2065, 1998
参考文献2:岩舘祐一、“NHKにおける多視点立体映像の研究”、http://www.3dc.gr.jp/jp/act_rep/121211/NHK_20121211.pdf
In addition, since the determination method of the resolution characteristic is described in the following references 1 and 2, further explanation is omitted.
Reference 1: H. Hoshino et al., “Analysis of Resolution Limitation of Integral Photography”, J. Opt. Soc. Am. A, Vol. 15, No. 8, pp. 2059-2065, 1998
Reference 2: Yuichi Iwabuchi, “Studies on multi-view stereoscopic images in NHK”, http://www.3dc.gr.jp/jp/act_rep/121211/NHK_20121211.pdf
図2に戻り、解像度変換装置40の構成について、説明を続ける。
奥行値算出手段42は、2眼立体カメラ20からステレオ画像(右撮影画像及び左撮影画像)が入力され、入力されたステレオ画像の画素毎に奥行値を算出するものである。そして、奥行値算出手段42は、画素毎に奥行値が対応付けられた右撮影画像及び左撮影画像を、視点要素画像群生成手段44に出力する。
Returning to FIG. 2, the description of the configuration of the
The depth value calculating means 42 receives a stereo image (right captured image and left captured image) from the binocular
例えば、奥行値算出手段42は、右撮影画像及び左撮影画像の間で対応点を探索し、探索した対応点の距離(視差)を奥行値として算出する。
また、奥行値算出手段42は、2眼立体カメラ20と同じ位置に配置された奥行カメラ(不図示)から、画素毎に奥行値を示す奥行画像が入力されてもよい。この場合、奥行値算出手段42は、奥行画像が示す奥行値を右撮影画像及び左撮影画像の各画素に対応付ける。
For example, the depth
The depth value calculation means 42 may receive a depth image indicating a depth value for each pixel from a depth camera (not shown) arranged at the same position as the binocular
画素位置算出手段43は、視点毎に、光線追跡法によって、基準画素の位置を算出するものである。
基準画素とは、図6において、視点301から要素レンズ120の中心を通過して表示素子200に到達する仮想線上に位置する右視点要素画像群及び左視点要素画像群の画素のことである(図6の符号312)。
The pixel position calculation means 43 calculates the position of the reference pixel by the ray tracing method for each viewpoint.
In FIG. 6, the reference pixels are pixels of the right viewpoint element image group and the left viewpoint element image group that are located on a virtual line that passes from the
<基準画素の位置算出>
図6を参照し、基準画素の位置算出について、詳細に説明する(適宜図2参照)。
図6では、符号310は、レンズアレイ110で中心の要素レンズ120Cの主点位置を表す。
また、符号311は、レンズアレイ110で一番上の要素レンズ120Uの主点位置を表す。
また、符号312は、要素レンズ120Uに対応する要素画像420の基準画素の画素位置を表す。
また、符号313は、要素レンズ120Uの主点位置311と同じ位置にある要素画像420の中心画素の画素位置を表す。図6では、符号312,313は、同一の要素画像420の中での画素位置を表している。
<Calculation of reference pixel position>
The reference pixel position calculation will be described in detail with reference to FIG. 6 (see FIG. 2 as appropriate).
In FIG. 6,
図6では、距離yは、主点位置310から主点位置311までの距離を表す。また、距離dは、中心画素の画素位置313から基準画素の画素位置312までの距離を表す。
また、図6では、観視者の右目(算出原点301)は、レンズアレイ110の中心位置の法線上に位置する。また、要素レンズ120及び要素画像420は、1:1で対応することとする。
In FIG. 6, the distance y represents the distance from the
In FIG. 6, the viewer's right eye (calculated origin 301) is located on the normal line of the center position of the
直角三角形tr1は、主点位置311と、基準画素の画素位置312と、中心画素の画素位置313とを頂点とする三角形である。
直角三角形tr2は、算出原点301と、主点位置310と、主点位置311とを頂点とする三角形である。
The right triangle tr1 is a triangle having the
The right triangle tr2 is a triangle having the
図6のように、直角三角形tr1,tr2が相似の関係になるため、L:y=g:dとなり、Ld=ygが成立する。また、距離g,yは、IP立体映像表示装置100から決まる定数となる。従って、距離dは、視距離Lが分かれば、下記の式(7)を用いて算出できる。
As shown in FIG. 6, since the right triangles tr1 and tr2 have a similar relationship, L: y = g: d and Ld = yg is established. The distances g and y are constants determined by the IP stereoscopic
前記したように、視点要素画像は、一般的なIP立体映像(要素画像群410)と同一構造を有する。従って、画素位置算出手段43は、算出原点301を観視者の右目(視点)として、前記した手法を用いて、観視者の右目に対応した右視点要素画像群で基準画素の画素位置を算出できる。そして、画素位置算出手段43は、中心画素の画素位置313に距離dを加えて、基準画素の画素位置312を求める。
As described above, the viewpoint element image has the same structure as a general IP stereoscopic video (element image group 410). Accordingly, the pixel
その後、画素位置算出手段43は、算出した基準画素の位置を視点要素画像群生成手段44に出力する。
なお、画素位置算出手段43は、一番上の要素レンズ120U以外の要素レンズ120からも、基準画素の位置を算出する。また、画素位置算出手段43は、右視点要素画像群と同様、左視点要素画像群の基準画素も算出する。
Thereafter, the pixel
The pixel
図2に戻り、解像度変換装置40の構成について、説明を続ける。
視点要素画像群生成手段44は、解像度特性決定手段41から入力された解像度特性に合わせて、奥行値算出手段42から入力されたステレオ画像の解像度を変換することで、視点要素画像群を生成するものである。このため、視点要素画像群生成手段44は、対応画素解像度決定手段44aと、画素取得領域算出手段44bと、画素値割当手段44cとを備える。
Returning to FIG. 2, the description of the configuration of the
The viewpoint element image
対応画素解像度決定手段44aは、画素位置算出手段43から入力された基準画素に対応した位置にあるステレオ画像の対応画素を求め、解像度特性から、対応画素の奥行値に応じた解像度を決定するものである。
Corresponding pixel
具体的には、対応画素解像度決定手段44aは、右視点要素画像群及び右撮影画像の画素が1対1で対応するので、右視点要素画像群の基準画素に対応する右撮影画像の画素を対応画素として求める。そして、対応画素解像度決定手段44aは、右撮影画像の対応画素には奥行値が付加されているので、この奥行値を取得する。さらに、対応画素解像度決定手段44aは、各奥行値の解像度を示した解像度特性を参照し、取得した奥行値に対応する解像度を対応画素毎に決定する。その後、対応画素解像度決定手段44aは、決定した対応画素毎の解像度を画素取得領域算出手段44bに出力する。
なお、対応画素解像度決定手段44aは、右撮影画像と同様、左撮影画像の対応画素毎に解像度を決定する。
Specifically, the corresponding pixel
Note that the corresponding pixel
画素取得領域算出手段44bは、ステレオ画像の対応画素を中心として、対応画素解像度決定手段44aから入力された対応画素の解像度と最大解像度との比で要素レンズの直径を拡大した画素取得領域を算出するものである。そして、画素取得領域算出手段44bは、算出した画素取得領域を画素値割当手段44cに出力する。
The pixel acquisition
画素値割当手段44cは、視点毎に、画素取得領域算出手段44bから入力された画素取得領域に含まれる画素をステレオ画像から取得し、取得した画素の画素値に基づいて、視点要素画像群のうち、基準画素が属する視点要素画像の各画素の画素値を割り当てるものである。
The pixel
<画素取得領域の算出及び画素値の割当:第1例>
図7,図8を参照し、画素取得領域の算出及び画素値の割当について、2つの具体例を説明する(適宜図2参照)。
図7では、対応画素の奥行値が示す位置を矢印で図示し、画素取得領域の算出に無関係な構成を破線で図示した(図8も同様)。
<Calculation of Pixel Acquisition Area and Assignment of Pixel Value: First Example>
Two specific examples of the calculation of the pixel acquisition region and the assignment of the pixel value will be described with reference to FIGS. 7 and 8 (see FIG. 2 as appropriate).
In FIG. 7, the position indicated by the depth value of the corresponding pixel is indicated by an arrow, and the configuration irrelevant to the calculation of the pixel acquisition region is indicated by a broken line (the same applies to FIG. 8).
図7のように、この第1例では、対応画素の奥行値がレンズアレイ110の位置を示していることとする。この場合、IP立体映像の解像度は、レンズアレイ110の密度と同じなので、最大解像度となる。
As shown in FIG. 7, in this first example, the depth value of the corresponding pixel indicates the position of the
そこで、画素取得領域算出手段44bは、最大解像度と対応画素の解像度との比‘1’を求める。従って、画素取得領域算出手段44bは、右撮影画像510の対応画素520(図7に黒塗で図示)を中心として、要素レンズ120と同一形状で同一直径(要素レンズ120の間隔P)に含まれる範囲を、画素取得領域として算出する。ここで、要素レンズ120が右撮影画像510の5画素分の大きさであるから、画素取得領域は、5画素分の大きさとなる。
Therefore, the pixel acquisition
次に、画素値割当手段44cは、算出した画素取得領域に含まれる右撮影画像510の画素520を全て取得し、取得した画素520の画素値に基づいて、右視点要素画像620の画素630に割り当てる画素値を算出する。
Next, the pixel
ここで、画素値割当手段44cは、取得した画素520の画素値の中央値(メディアン値)を算出してもよい。中央値を用いた場合、取得した画素520の画素値をヒストグラム化するため、正確な画素値を取得したことにはならない。従って、右視点要素画像620は、隣接する右視点要素画像620との間で画素値の連続性が低下し、折り返し(モアレ)画像になる可能性がある。
そこで、画素値割当手段44cは、取得した画素520の画素値の平均値を求めると、より正確な画素値を取得できるので好ましい。
Here, the pixel
Therefore, it is preferable that the pixel
次に、画素値割当手段44cは、算出した画素値を、右視点要素画像群610のうち、基準画素が属する右視点要素画像620の全ての画素630に割り当てる。図7の例では、右視点要素画像620は、5つの画素630の画素値が同一になる。このようにして、画素値割当手段44cは、レンズアレイ110の位置において、画素値が割り当てられた右視点要素画像620を生成することができる。
Next, the pixel
<画素取得領域の算出及び画素値の割当:第2例>
図8のように、この第2例では、対応画素の奥行値がレンズアレイ110の手前側を表しており、この奥行位置でIP立体映像の解像度が最大解像度の1/2になることとする。
<Calculation of Pixel Acquisition Area and Assignment of Pixel Value: Second Example>
As shown in FIG. 8, in this second example, the depth value of the corresponding pixel represents the front side of the
この場合、画素取得領域算出手段44bは、最大解像度と対応画素の解像度との比‘2’を求める。従って、画素取得領域算出手段44bは、右撮影画像510の対応画素520(図8に黒塗で図示)を中心として、要素レンズ120と同一形状で直径の2倍に含まれる範囲を、画素取得領域として算出する。ここで、要素レンズ120が右撮影画像510の5画素分の大きさであるから、画素取得領域は、5画素を2倍した10画素分の大きさとなる。
In this case, the pixel acquisition
次に、画素値割当手段44cは、算出した画素取得領域に含まれる右撮影画像510の画素520を全て取得し、取得した画素520の画素値に基づいて、右視点要素画像620の画素630に割り当てる画素値を算出する。ここで、画素値割当手段44cは、第1例と同様、画素取得領域に含まれる画素520の画素値の平均値又は中央値を算出する。
Next, the pixel
そして、画素値割当手段44cは、算出した画素値を、右視点要素画像群610のうち、基準画素が属する右視点要素画像620の全ての画素630に割り当てる。つまり、画素値割当手段44cは、レンズアレイ110の位置における最大解像度を基準として、対象画素の奥行位置で解像度がどの程度低下しているか算出することで、ぼけ具合を反映した右視点要素画像群610を生成する。
Then, the pixel
なお、対応画素の奥行位置がレンズアレイ110の奥側であっても、第2例と同様の手順となる。また、右視点要素画像群610と同様、左視点要素画像群611(図9)も生成する。
Even when the depth position of the corresponding pixel is the back side of the
その後、画素値割当手段44cは、第1例又は第2例の手法で生成した右視点要素画像群610及び左視点要素画像群611を2眼立体テレビ50に出力する。この右視点要素画像群610及び左視点要素画像群611は、2眼立体テレビ50で立体表示される。
Thereafter, the pixel
<視点要素画像群の表示>
図9,図10を参照し、視点要素画像群の表示について、説明する。
図9(a)に左視点要素画像群611を図示し、図9(b)に右視点要素画像群610を図示した。この図9では、左視点要素画像群611及び右視点要素画像群610は、三角形状の被写体10が撮影されている。
なお、図9では、黒塗りした要素画像群620,621が被写体10を表している。
<Display of viewpoint element image group>
The display of the viewpoint element image group will be described with reference to FIGS.
FIG. 9A illustrates the left viewpoint
In FIG. 9, black-painted
一般的なIP立体映像(要素画像群)は、要素画像が複数の画素で構成され、被写体10の小さな画像を表している。そして、要素画像は、運動視差を再現するために、要素画像を構成する画素の画素値が異なっている。 In general IP stereoscopic video (element image group), an element image is composed of a plurality of pixels and represents a small image of the subject 10. The element image is different in pixel values of pixels constituting the element image in order to reproduce motion parallax.
図9のように、左視点要素画像群611及び右視点要素画像群610は、一般的なIP立体映像と同一構造(同一形状・同一配列)である。また、左視点要素画像群611及び右視点要素画像群610は、異なる視点で同一の被写体10が撮影されているため、被写体10の位置がずれている。つまり、図9(a)の位置αにある左視点要素画像は、図9(b)のように、同一位置αにある右視点要素画像と比較して、別の画素値を有することになる。
As shown in FIG. 9, the left viewpoint
図10のように、2眼立体テレビ50は、1つのレンチキュラレンズ53に対し、左視点に対応した表示素子51Lと、右視点に対応した表示素子51Rとの組を備える。そして、2眼立体テレビ50は、左視点要素画像群611を表示素子51Lで表示し、右視点要素画像群610を表示素子51Rで表示する。すると、観視者は、その両目で異なる像を観視することになり、立体視を得ることができる。
なお、左視点要素画像群611及び右視点要素画像群610は、一般的なIP立体映像と異なり、視点要素画像を構成する画素の画素値が同一のため、運動視差による画像の切り替わりがなくなる。
As shown in FIG. 10, the twin-lens
Note that the left viewpoint
[解像度変換装置の動作]
図11を参照し、解像度変換装置40の動作について、説明する(適宜図2参照)。
解像度変換装置40は、IP立体映像表示装置100の解像度特性の決定に必要なパラメータが入力される(ステップS1)。
[Operation of resolution converter]
The operation of the
The
解像度変換装置40は、解像度特性決定手段41によって、解像度特性を決定する。具体的には、解像度特性決定手段41は、最大解像度算出手段41aによって、最大解像度を算出し、観視解像度算出手段41bによって、観視解像度を算出する。また、解像度特性決定手段41は、解像度特性算出手段41cによって、最大解像度又は観視解像度の小さな方を解像度特性として算出する(ステップS2)。
The
解像度変換装置40は、奥行値算出手段42によって、2眼立体カメラ20で撮影されたステレオ画像の画素毎に奥行値を算出する(ステップS3)。
解像度変換装置40は、画素位置算出手段43によって、光線追跡法を用いて、基準画素の画素位置を算出する(ステップS4)。
The
In the
解像度変換装置40は、視点要素画像群生成手段44によって、視点要素画像群を生成する。具体的には、視点要素画像群生成手段44は、対応画素解像度決定手段44aによって、対応画素の奥行値に応じた解像度を決定する。また、視点要素画像群生成手段44は、画素取得領域算出手段44bによって、画素取得領域を算出する。さらに、視点要素画像群生成手段44は、画素値割当手段44cによって、ステレオ画像から画素取得領域に含まれる画素を取得し、取得した画素の画素値に基づいて、視点要素画像の各画素の画素値を割り当てる(ステップS5)。
The
本願発明の第1実施形態に係るIP立体映像推定システム1は、ステレオ画像からIP立体映像と等価な視点要素画像群を短時間で生成し、この視点要素画像群を2眼立体テレビ50で表示するので、観視者がIP立体映像の解像度を確認することができる。このように、IP立体映像推定システム1は、IP方式で撮影を行わずにIP立体映像の解像度を推定可能とし、IP立体映像の制作を容易、かつ、その制作時間を短縮することができる。
The IP stereoscopic video estimation system 1 according to the first embodiment of the present invention generates a viewpoint element image group equivalent to an IP stereoscopic video from a stereo image in a short time, and displays this viewpoint element image group on the binocular
さらに、IP立体映像推定システム1は、撮像側と表示側の性能を分離して、IP立体映像の解像度を推定することもできる。例えば、IP立体映像推定システム1は、適切なパラメータを設定することで、2眼立体カメラ20よりも解像度が低いIP立体カメラ(不図示)で撮影を行った場合について、IP立体映像の解像度をシミュレートすることができる。また、IP立体映像推定システム1は、撮像側にIP立体カメラを使用し、表示側に2眼立体テレビ50を使用した場合についても、IP立体映像の解像度をシミュレートすることもできる。
Furthermore, the IP stereoscopic video estimation system 1 can also estimate the resolution of the IP stereoscopic video by separating the performance on the imaging side and the display side. For example, the IP stereoscopic video estimation system 1 sets the appropriate parameters and sets the resolution of the IP stereoscopic video when shooting with an IP stereoscopic camera (not shown) having a resolution lower than that of the binocular
(第2実施形態)
[IP立体映像推定システムの概略]
図12を参照し、本願発明の第2実施形態に係るIP立体映像推定システム1Aについて、第1実施形態と異なる点を説明する。
(Second Embodiment)
[Outline of IP stereoscopic video estimation system]
With reference to FIG. 12, the IP stereoscopic video estimation system 1A according to the second embodiment of the present invention will be described while referring to differences from the first embodiment.
IP立体映像推定システム1Aは、視点要素画像群をIP立体映像(要素画像群)に変換してIP立体テレビ70で表示するため、IP立体映像推定装置2Aと、IP立体テレビ70とを備える点が、第1実施形態と異なる。
第2実施形態では、IP立体映像推定装置2Aは、解像度変換装置40と、画像変換装置60とで構成されることとする。
The IP stereoscopic video estimation system 1A includes an IP stereoscopic video estimation device 2A and an IP
In the second embodiment, the IP stereoscopic video estimation device 2A is configured by a
[画像変換装置の構成]
図13を参照し、画像変換装置60の構成について、説明する(適宜図12参照)。
画像変換装置60は、解像度変換装置40から入力された視点要素画像群(右視点要素画像群及び左視点要素画像群)を、一般的なIP立体映像(要素画像群)に変換するものである。このため、画像変換装置60は、図13のように、画素位置算出手段(第2画素位置算出手段)61と、画像合成手段62とを備える。
[Configuration of image converter]
The configuration of the
The
画素位置算出手段61は、光線追跡法によって、第2基準画素の位置を算出するものである。
第2基準画素とは、視点中間位置から要素レンズ120の中心を通過して表示素子200に到達する仮想線上に位置する要素画像群の画素のことである(図6)。この視点中間位置は、観視者の右目及び左目の中間位置を表す。
The pixel position calculation means 61 calculates the position of the second reference pixel by the ray tracing method.
The second reference pixel is a pixel of an element image group located on an imaginary line passing through the center of the
第1実施形態では、観視者の左右の目に対応した2つの視点要素画像群610,611を生成するため、視点毎に基準画素の画素位置を算出した。一方、第2実施形態では、要素画像群410が1つのため、観視者の両目の中間位置で、第2基準画素の画素位置を算出すればよい。このように、画素位置算出手段61は、図6の算出原点301を視点中間位置として、第2基準画素の画素位置を算出することができる。
In the first embodiment, in order to generate two viewpoint
画像合成手段62は、第2基準画素が属する要素画像を視点境界線で分割した分割領域を設定し、視点毎に、視点要素画像群から分割領域に対応する画像領域を抽出し、異なる視点で抽出した画像領域の合成により要素画像を生成するものである。 The image compositing means 62 sets a divided area obtained by dividing the element image to which the second reference pixel belongs by the viewpoint boundary line, extracts an image area corresponding to the divided area from the viewpoint element image group for each viewpoint, and uses different viewpoints. Element images are generated by combining the extracted image regions.
<要素画像の生成>
図14を参照し、要素画像の生成について、説明する(適宜図13参照)。
IP立体テレビ70を正面で観視する場合、観視者が立体視を得られる範囲は、水平方向に観視者の両目の距離の半分となる。従って、画像合成手段62は、観視者の両目の中心位置から見て要素レンズ120の後方にある要素画像420を、左右半分に分けるように視点境界線430を設定する。さらに、画像合成手段62は、要素画像420を視点境界線430で分割した分割領域440R,440Lを設定する。
<Generation of element images>
The generation of element images will be described with reference to FIG. 14 (see FIG. 13 as appropriate).
When viewing the IP
次に、画像合成手段62は、左側の分割領域440Rに、右視点要素画像620(図9)で対応する画像領域を割り当てる。また、画像合成手段62は、右側の分割領域440Lに、左視点要素画像621で対応する画像領域を割り当てる。このようにして、画像合成手段62は、右視点要素画像620及び左視点要素画像621から、1つの要素画像420を合成する。そして、画像合成手段62は、合成した要素画像420で構成される要素画像群410を、IP立体テレビ70に出力する。
Next, the image composition means 62 assigns an image region corresponding to the right viewpoint element image 620 (FIG. 9) to the left divided
[画像変換装置の動作]
図15を参照し、画像変換装置60の動作について、説明する(適宜図13参照)。
画像変換装置60は、解像度変換装置40から視点要素画像群が入力される(ステップS11)。
[Operation of image converter]
The operation of the
The
画像変換装置60は、画素位置算出手段61によって、光線追跡法によって、第2基準画素の画素位置を算出する(ステップS12)。
画像変換装置60は、画像合成手段62によって、要素画像群を生成する(ステップS13)。
The
The
本願発明の第2実施形態に係るIP立体映像推定システム1Aは、第1実施形態と同様、IP方式で撮影を行わずにIP立体映像の解像度を推定可能とし、IP立体映像の制作を容易、かつ、その制作時間を短縮することができる。
さらに、IP立体映像推定システム1Aは、IP立体映像の解像度に加え、IP立体テレビ70が備えるレンズアレイ71による外光の反射の影響もシミュレートできるので、IP立体映像をより容易に制作することができる。
As in the first embodiment, the IP stereoscopic video estimation system 1A according to the second embodiment of the present invention makes it possible to estimate the resolution of an IP stereoscopic video without taking an image using the IP method, and easily produce an IP stereoscopic video. And the production time can be shortened.
Furthermore, since the IP stereoscopic video estimation system 1A can simulate the influence of reflection of external light by the
(第3実施形態)
[IP立体映像推定システムの概略]
図16を参照し、本願発明の第3実施形態に係るIP立体映像推定システム1Bについて、第2実施形態と異なる点を説明する。
(Third embodiment)
[Outline of IP stereoscopic video estimation system]
With reference to FIG. 16, an IP stereoscopic image estimation system 1B according to the third embodiment of the present invention will be described while referring to differences from the second embodiment.
IP立体映像推定システム1Bは、観視者の観視位置に追従するため、IP立体映像推定装置2Bと、2眼立体カメラ20Bと、観視位置検出カメラ80とをさらに備える点が、第2実施形態と異なる。
第3実施形態では、IP立体映像推定装置2Bは、解像度変換装置40と、画像変換装置60Bと、観視位置追従装置90とで構成されることとする。
The IP stereoscopic image estimation system 1B is further provided with an IP stereoscopic image estimation device 2B, a binocular
In the third embodiment, it is assumed that the IP stereoscopic video estimation device 2B includes a
2眼立体カメラ20Bは、図13の2眼立体カメラ20と同様の機能に加え、後記する観視位置追従装置90からの指令に従って、観視者の観視位置に追従した撮影が可能なロボットカメラである。例えば、2眼立体カメラ20Bは、撮影フロアを前後左右に移動するための駆動機構と、撮影カメラ21R,21Lを搭載してパン・チルト可能な雲台とを備えたロボットカメラである。
In addition to the same functions as the binocular
画像変換装置60Bは、図13の画像変換装置60と同様の処理に加え、観視位置追従装置90からの指令に従って、視点境界線の位置と、要素画像の表示位置とを変更するものである。
In addition to the same processing as the
観視位置検出カメラ80は、観視者を撮影する一般的な撮影カメラである。この観視位置検出カメラ80は、観視者を撮影した観視者画像を、観視位置追従装置90に出力する。図16のように、観視位置検出カメラ80は、IP立体テレビ70の上端部中心に設置されている。なお、観視位置検出カメラ80の設置位置は、特に制限されないが、既知である。
The viewing position detection camera 80 is a general photographing camera that photographs a viewer. The viewing position detection camera 80 outputs a viewer image obtained by capturing the viewer to the viewing
観視位置追従装置90は、観視位置検出カメラ80から入力された観視者画像を用いて、観視者の観視位置を検出し、検出した観視位置に追従するように、IP立体テレビ70で表示されるIP立体映像の視域を制御するものである。具体的には、観視位置追従装置90は、検出した観視位置に追従するように、視点境界線の位置と、要素画像の表示位置との変更を画像変換装置60Bに指令する。さらに、観視位置追従装置90は、検出した観視位置に追従するように、撮影位置の移動と、撮影姿勢の変更とを2眼立体カメラ20Bに指令する。
The viewing
[画像変換装置の構成]
図17を参照し、画像変換装置60Bの構成について、説明する。
図17のように、画像変換装置60Bは、画素位置算出手段61と、画像合成手段62Bとを備える。
[Configuration of Image Conversion Device]
The configuration of the
As shown in FIG. 17, the
画像合成手段62Bは、図13の画像合成手段62と同様の処理に加え、後記する観視位置追従制御手段92からの指令に従って、視点境界線の位置と、要素画像の表示位置とを変更するものである。
視点境界線の位置と要素画像の表示位置との変更については、詳細を後記する。
In addition to the same processing as the
Details of the change between the position of the viewpoint boundary line and the display position of the element image will be described later.
[観視位置追従装置の構成]
観視位置追従装置90の構成について、説明する。
図17のように、観視位置追従装置90は、観視位置検出手段91と、観視位置追従制御手段92と、ロボットカメラ制御手段93とを備える。
[Configuration of viewing position tracking device]
The configuration of the viewing
As shown in FIG. 17, the viewing
観視位置検出手段91は、観視者画像から、レンズアレイ110の中心位置に対する観視者の観視位置を検出するものである。
具体的には、観視位置検出手段91は、観視者画像に対して、顔領域検出処理(参考文献3)、及び、両目位置検出処理(参考文献4)を施して、観視者画像に含まれる両目の位置を検出する。
参考文献3:PAUL VIOLA,MICHAEL J.JONES:“Robust Real-Time Face Detection",International Journal of Computer Vision, Vol.57, No.2, pp.137-154(2004)
参考文献4:特開2013−105384号公報
The viewing
Specifically, the viewing
Reference 3: PAUL VIOLA, MICHAEL J. JONES: “Robust Real-Time Face Detection”, International Journal of Computer Vision, Vol.57, No.2, pp.137-154 (2004)
Reference 4: JP 2013-105384 A
次に、観視位置検出手段91は、レンズアレイ110の中心位置を表すように予め設定した検出基準位置に対し、検出した両目の中間位置のズレ量及びズレ方向を求める。例えば、レンズアレイ110の中心位置に対し、観視者の頭部が右側に動いた場合、ズレ方向は左側となる。当然、ズレ量に比例して、観視者の移動量が大きくなる。このようにして、観視位置検出手段91は、算出したズレ量及びズレ方向から観視位置を求め、求めた観視位置を観視位置追従制御手段92及びロボットカメラ制御手段93に出力する。
Next, the viewing
観視位置追従制御手段92は、画像合成手段62Bに対し、観視位置検出手段91から入力された観視位置に追従して、視点境界線の変更と、要素画像の表示位置の変更とを指令するものである。 The viewing position follow-up control means 92 follows the viewing position input from the viewing position detection means 91 to the image composition means 62B, and changes the viewpoint boundary line and the element image display position. It is a command.
<視点境界線の変更>
図18を参照し、視点境界線の変更について、説明する(適宜図6,図17参照)。
図18では、観視位置(観視者の両目の中間位置)が、レンズアレイ110の中心に位置する要素レンズ120Cから、左側に距離xだけ動いたこととする。
<Change of viewpoint boundary>
The change of the viewpoint boundary line will be described with reference to FIG. 18 (see FIGS. 6 and 17 as appropriate).
In FIG. 18, it is assumed that the viewing position (the middle position between the eyes of the viewer) has moved to the left by the distance x from the
図18のように、観視位置が左側に動いたことで、観視者の右目で要素画像420の大部分を観視し、観視者の左目で要素画像420の残りを観視することになる。従って、観視位置追従制御手段92は、視点境界線430を観視位置の移動方向の逆(右側)に移動させて、分割領域440Rを広く、分割領域440Lを狭くするように、視点境界線430を移動させる。
As shown in FIG. 18, when the viewing position moves to the left side, the viewer's right eye views most of the
ここで、視点境界線430の移動量の算出方法を説明する。前記したように、図6の直角三角形tr1,tr2が相似の関係になる。従って、観視者が距離xだけ動いた場合、視点境界線430の移動量は、直角三角形tr1,tr2の大きさの比を距離xに乗算した値となる。つまり、観視位置追従制御手段92は、算出原点301を観視者の両目の中間位置として、画素位置算出手段61と同様に式(7)を用いて、視点境界線430の移動量を求める。この場合、式(7)の距離dが視点境界線430の移動量を表す。そして、観視位置追従制御手段92は、要素画像420の中心から距離dだけ移動した位置を、視点境界線430の位置として求める。
Here, a method of calculating the movement amount of the
以下、別の手法についても説明する。観視位置追従制御手段92は、右目及び左目に光を入射させる要素画像の画素位置をそれぞれ算出し、右目と左目との画素位置を結ぶ直線を垂直に2等分する線を、視点境界線430の位置として求める。ここで、観視位置追従制御手段92は、視点境界線430の位置がより正確になるため、この別の手法を用いることが好ましい。
Hereinafter, another method will be described. The viewing position tracking
その後、観視位置追従制御手段92は、求めた位置への視点境界線430の変更を、画像合成手段62Bに指令する。すると、画像合成手段62Bは、この指令に従って、視点境界線430を変更し、要素画像群を生成する。
Thereafter, the viewing position tracking
なお、観視位置追従制御手段92は、観視者の顔の傾きに合わせて、視点境界線430を傾斜させることを画像合成手段62Bに指令してもよい。例えば、観視位置追従制御手段92は、観視者の両目を結ぶ線分の中間点に垂線を引き、この垂線に合わせるように視点境界線430の傾斜角度を求める。
Note that the viewing position tracking
<要素画像の表示位置の変更>
図19を参照し、要素画像の表示位置の変更について、説明する(適宜図6,図17参照)。
<Change of element image display position>
With reference to FIG. 19, the change in the display position of the element image will be described (see FIGS. 6 and 17 as appropriate).
図19のように、観視位置追従制御手段92は、要素レンズ120Cに対し観視位置が左側に動いたので、要素画像420の表示位置を観視位置の移動方向の逆(右側)に移動させる。ここで、観視位置追従制御手段92は、前記した視点境界線の変更と同様、要素画像420の表示位置を求めることができる。つまり、観視位置追従制御手段92は、式(7)の距離dだけ、要素画像420の表示位置を移動させる。
As shown in FIG. 19, the viewing position follow-up
なお、観視位置追従制御手段92は、視点境界線430の変更、又は、要素画像420の表示位置の変更の何れを指令するか、予め設定してもよい。
また、観視位置追従制御手段92は、視点境界線430の移動量が要素画像420の半径未満の場合に視点境界線430の変更を指令し、視点境界線430の移動量が要素画像420の半径以上の場合、要素画像420の表示位置の変更を指令してもよい。
Note that the viewing position follow-up
Further, the viewing position tracking
図17に戻り、観視位置追従装置90の構成について、説明を続ける。
ロボットカメラ制御手段93は、2眼立体カメラ20Bに対し、観視位置検出手段91から入力された観視位置に追従したステレオ画像の撮影を指令するものである。例えば、ロボットカメラ制御手段93は、観視位置に基づいて、観視者の移動距離及びIP立体映像の観視角度を算出し、2眼立体カメラ20Bの撮影位置及び撮影姿勢の変更を指令する。
Returning to FIG. 17, the description of the configuration of the viewing
The robot camera control means 93 instructs the binocular
[観視位置追従装置の動作]
図20を参照し、観視位置追従装置90の動作について、説明する(適宜図17参照)。
観視位置追従装置90は、観視位置検出カメラ80から、観視者画像が入力される(ステップS21)。
[Operation of viewing position tracking device]
The operation of the viewing
The viewing
観視位置追従装置90は、観視位置検出手段91によって、観視者画像から、観視者の観視位置を検出する(ステップS22)。
観視位置追従装置90は、観視位置追従制御手段92によって、観視位置に追従して、視点境界線と、要素画像の表示位置との変更を指令する(ステップS23)。
観視位置追従装置90は、ロボットカメラ制御手段93によって、観視位置に追従したステレオ画像の撮影を2眼立体カメラ20Bに指令する(ステップS24)。
The viewing
The viewing
The viewing
本願発明の第3実施形態に係るIP立体映像推定システム1Bは、第2実施形態と同様の効果に加え、観視者の観視位置に追従できるので、観視者が見易いIP立体映像を表示することができる。 The IP stereoscopic video estimation system 1B according to the third embodiment of the present invention displays the IP stereoscopic video that is easy for the viewer to view because it can follow the viewing position of the viewer in addition to the same effects as the second embodiment. can do.
(変形例1)
本願発明に係るIP立体映像推定システムは、前記した各実施形態に限定されず、その趣旨を逸脱しない範囲で変形を加えることができる。
(Modification 1)
The IP stereoscopic video estimation system according to the present invention is not limited to the above-described embodiments, and modifications can be made without departing from the spirit of the system.
前記した第2実施形態では、図14のように、要素画像420に分割領域440L,440Rを設定し、分割領域440L,440Rそれぞれの画素が同一の画素値を有することとした。ここで、例えば、観視者が左側に1mm動いた場合、要素画像において、この1mmと、直角三角形tr1,tr2の大きさの比とを乗算した位置にある画素が観視される(図6)。このため、観視者が移動する前後で異なる画素を観視するにも関わらず、異なる画素の画素値が同一のため、観視者が観視する立体像も同一であった。
In the second embodiment described above, as shown in FIG. 14, the divided
IP方式では、被写体10の光学像を再現する。すなわち、IP方式では、被写体10からの反射光をIP立体撮影装置で撮影し、IP立体テレビ70で表示することで、立体視を実現する。ここで、IP立体撮影装置は、観視者がある程度移動しても立体視を実現するために、一定範囲内の光を撮影する。そして、IP立体テレビ70では、IP立体撮影装置に応じた範囲で、被写体10の光学像を再現する。
In the IP method, an optical image of the subject 10 is reproduced. In other words, in the IP system, the stereoscopic light is realized by photographing the reflected light from the subject 10 with the IP stereoscopic photographing device and displaying it on the IP
観視者が移動しない場合、IP立体撮影装置及びIP立体テレビ70は、被写体10からの光を撮影及び再現する範囲が、観視者の位置に限定されるため、広範囲の光を撮影及び再現する必要がなくなる。このことから、2眼立体カメラ20は、観視者の瞳孔径の範囲内に入射する光を撮影すればよいと考えられる。
When the viewer does not move, the IP stereoscopic imaging device and the IP
そこで、ロボットカメラ制御手段93は、2眼立体カメラ20Bに対し、予め設定された距離毎にステレオ画像を撮影するように指令する。
例えば、ロボットカメラ制御手段93は、観視者の瞳孔径のサイズ(例えば、6mm)の範囲内で、予め設定された距離(例えば、1mm)毎にステレオ画像を撮影する指令を2眼立体カメラ20Bに出力する。
Therefore, the robot camera control means 93 instructs the binocular
For example, the robot camera control means 93 gives a command to shoot a stereo image at a preset distance (for example, 1 mm) within the range of the pupil diameter (for example, 6 mm) of the viewer. Output to 20B.
すると、2眼立体カメラ20Bは、異なる視点で撮影された複数のステレオ画像を、解像度変換装置40に出力する。そして、解像度変換装置40は、各ステレオ画像から1組の視点要素画像群を生成し、画像変換装置60Bに出力する。
Then, the binocular
以下、複数のステレオ画像を1組の視点要素画像群に変換する手法を説明する。ここで、2眼立体カメラ20Bが移動する前の右撮影画像を基準右撮影画像と呼び、2眼立体カメラ20Bが右に1mm移動した後の右撮影画像を1mm右撮影画像と呼ぶ。
Hereinafter, a method for converting a plurality of stereo images into a set of viewpoint element image groups will be described. Here, the right captured image before the binocular
画素値割当手段44cは、移動する前の観視者の右目に光を出射する位置にある右視点要素画像の画素に、基準右撮影画像の対応画素の画素値(中心画素値)を割り当てる。また、画素値割当手段44cは、1mm移動した後の観視者の右目に光を出射する位置の視点要素画像の画素に、基準右撮影画像の対応画素と同一位置にある1mm右撮影画像の画素の画素値(1mm右移動画素値)を割り当てる。
The pixel
また、画素値割当手段44cは、中心画素値と1mm右移動画素値とを割り当てた画素位置を結ぶ直線を垂直2等分する線で、右視点要素画像を分割する。そして、画像合成手段62Bは、分割した領域に、中心画素値又は1mm移動画素値が割り当てられた画素が含まれている場合、その領域の各画素に中心画素値又は1mm移動画素値を割り当てる。
このように、本願発明の変形例1に係るIP立体映像推定システム1Bは、観視者の観視位置において、被写体10の光学像を再現することができる。
Further, the pixel
Thus, the IP stereoscopic video estimation system 1B according to the first modification of the present invention can reproduce the optical image of the subject 10 at the viewing position of the viewer.
(その他変形例)
前記した第2,第3実施形態では、IP立体映像推定装置2A,2Bが複数の装置で構成されることとしたが、これら装置を一体化してもよい。
(Other variations)
In the second and third embodiments described above, the IP stereoscopic image estimation devices 2A and 2B are configured by a plurality of devices, but these devices may be integrated.
前記した各実施形態では、IP立体映像推定装置2,2A,2Bを構成する各装置を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、各装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるプログラムで実現することもできる。 In each of the above-described embodiments, the devices constituting the IP stereoscopic video estimation devices 2, 2A, 2B have been described as independent hardware, but the present invention is not limited to this. For example, each device can be realized by a program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate in cooperation with each other as described above.
1,1A,1B IP立体映像推定システム
2,2A,2B IP立体映像推定装置
20 2眼立体カメラ(2眼立体撮影装置)
30 収録再生装置
40 解像度変換装置
41 解像度特性決定手段
41a 最大解像度算出手段
41b 観視解像度算出手段
41c 解像度特性算出手段
42 奥行値算出手段
43 画素位置算出手段(第1画素位置算出手段)
44 視点要素画像群生成手段
44a 対応画素解像度決定手段
44b 画素取得領域算出手段
44c 画素値割当手段
50 2眼立体テレビ
60,60B 画像変換装置
61,61B 画素位置算出手段(第2画素位置算出手段)
62 画像合成手段
70 IP立体テレビ
80 観視位置検出カメラ
90 観視位置追従装置
91 観視位置検出手段
92 観視位置追従制御手段
93 ロボットカメラ制御手段
1, 1A, 1B IP stereoscopic video estimation system 2, 2A, 2B IP stereoscopic
30 Recording /
44 Viewpoint element image group generation means 44a Corresponding pixel resolution determination means 44b Pixel acquisition area calculation means 44c Pixel value allocation means 50 Binocular
62 Image composition means 70 IP stereoscopic television 80 Viewing
Claims (7)
予め設定された奥行範囲において、前記要素画像群の最大解像度又は観視解像度の小さな方を解像度特性として決定する解像度特性決定手段と、
前記ステレオ画像が入力され、入力された前記ステレオ画像の画素毎に奥行値を算出する奥行値算出手段と、
前記視点毎に、光線追跡法によって、前記視点から要素レンズの中心を通過して前記表示素子に到達する仮想線上に位置する視点要素画像群の第1基準画素を算出する第1画素位置算出手段と、
前記第1基準画素に対応した位置にある前記ステレオ画像の対応画素を求め、前記解像度特性から、前記対応画素の奥行値に応じた解像度を決定する対応画素解像度決定手段と、
前記対応画素を中心として、前記最大解像度と前記対応画素の解像度との比で前記要素レンズの直径を拡大した画素取得領域を算出する画素取得領域算出手段と、
前記視点毎に、前記ステレオ画像から前記画素取得領域に含まれる画素を取得し、取得した前記画素の画素値に基づいて、前記視点要素画像群のうち、前記第1基準画素が属する視点要素画像の各画素の画素値を割り当てる画素値割当手段と、
を備えることを特徴とするIP立体映像推定装置。 The stereo image obtained by converting the resolution of the stereo image captured by the binocular stereoscopic imaging device in accordance with the resolution of the elemental image group displayed on the IP stereoscopic video display device including the display element and the lens array, and converting the resolution. Is output as a viewpoint element image group in which the resolution of the element image group is estimated for each viewpoint representing the right eye and the left eye of the viewer,
Resolution characteristic determining means for determining a smaller one of the maximum resolution or viewing resolution of the element image group as a resolution characteristic in a preset depth range;
A depth value calculating means for inputting the stereo image and calculating a depth value for each pixel of the input stereo image;
For each of the viewpoints, by ray tracing, a first pixel position for calculating a first reference pixel of the viewpoint element image unit located virtual line reaches the display device passes through the center of the perspectives RaKaname element lens A calculation means;
A corresponding pixel resolution determining unit for determining a corresponding pixel of the stereo image at a position corresponding to the first reference pixel, and determining a resolution according to a depth value of the corresponding pixel from the resolution characteristic;
A pixel acquisition area calculation means for calculating a pixel acquisition area obtained by enlarging the diameter of the element lens at a ratio between the maximum resolution and the resolution of the corresponding pixel around the corresponding pixel;
For each viewpoint, a pixel included in the pixel acquisition region is acquired from the stereo image, and a viewpoint element image to which the first reference pixel belongs in the viewpoint element image group based on the acquired pixel value of the pixel Pixel value assigning means for assigning a pixel value of each of the pixels;
An IP stereoscopic video estimation apparatus comprising:
前記第2基準画素が属する要素画像を視点境界線で分割した分割領域を設定し、前記視点毎に、前記視点要素画像群から前記分割領域に対応する画像領域を抽出し、異なる視点で抽出した前記画像領域の合成により前記要素画像を生成する画像合成手段と、
をさらに備えることを特徴とする請求項1に記載のIP立体映像推定装置。 The second reference pixel of the element image group located on the virtual line passing through the center of the element lens and reaching the display element from the viewpoint intermediate position representing the intermediate position of the right eye and the left eye of the viewer by the ray tracing method Second pixel position calculating means for calculating
A divided region obtained by dividing the element image to which the second reference pixel belongs is divided by a viewpoint boundary line, an image region corresponding to the divided region is extracted from the viewpoint element image group for each viewpoint, and extracted from different viewpoints. Image synthesizing means for generating the element image by synthesizing the image area;
The IP stereoscopic video estimation apparatus according to claim 1, further comprising:
前記画像合成手段に対し、前記観視位置に合わせて前記視点境界線の変更を指令する観視位置追従制御手段と、
をさらに備えることを特徴とする請求項2に記載のIP立体映像推定装置。 A viewer image obtained by photographing the viewer, and viewing position detection means for detecting a viewing position of the viewer with respect to a center position of the lens array from the input viewer image;
Viewing position tracking control means for instructing the image composition means to change the viewpoint boundary line according to the viewing position;
The IP stereoscopic video estimation apparatus according to claim 2, further comprising:
をさらに備えることを特徴とする請求項3又は請求項4に記載のIP立体映像推定装置。 Robot camera control means for instructing a stereoscopic imaging apparatus that is a movable robot camera to capture the stereo image following the viewing position;
The IP stereoscopic video estimation apparatus according to claim 3 or 4, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013245929A JP6300346B2 (en) | 2013-11-28 | 2013-11-28 | IP stereoscopic image estimation apparatus and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013245929A JP6300346B2 (en) | 2013-11-28 | 2013-11-28 | IP stereoscopic image estimation apparatus and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015104107A JP2015104107A (en) | 2015-06-04 |
JP6300346B2 true JP6300346B2 (en) | 2018-03-28 |
Family
ID=53379446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013245929A Active JP6300346B2 (en) | 2013-11-28 | 2013-11-28 | IP stereoscopic image estimation apparatus and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6300346B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6684118B2 (en) * | 2016-03-16 | 2020-04-22 | 日本放送協会 | Binocular stereoscopic image generation device and its program |
KR20170115803A (en) * | 2016-04-08 | 2017-10-18 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Multi aperture camera for improving depth accuracy with low compexity and opertation method thereof |
KR101818854B1 (en) * | 2016-05-12 | 2018-01-15 | 광운대학교 산학협력단 | View range enlarging method at table top 3D display system by user tracking base |
JP6846165B2 (en) * | 2016-11-01 | 2021-03-24 | 日本放送協会 | Image generator, image display system and program |
JP7300294B2 (en) * | 2019-03-27 | 2023-06-29 | 日本放送協会 | 3D image transmission system, 3D image transmission device and 3D image display device |
WO2020194699A1 (en) * | 2019-03-28 | 2020-10-01 | 三菱電機株式会社 | Aerial video display device |
JP7324605B2 (en) * | 2019-04-05 | 2023-08-10 | 日本放送協会 | 3D image generation device and its program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100730406B1 (en) * | 2005-11-16 | 2007-06-19 | 광운대학교 산학협력단 | Three-dimensional display apparatus using intermediate elemental images |
JP2008058584A (en) * | 2006-08-31 | 2008-03-13 | Matsushita Electric Ind Co Ltd | Three-dimensional image display method and three-dimensional image display device |
JP4875680B2 (en) * | 2008-09-10 | 2012-02-15 | 日本放送協会 | 3D information integration apparatus and 3D information integration program |
JP2010078883A (en) * | 2008-09-25 | 2010-04-08 | Toshiba Corp | Stereoscopic image display device and stereoscopic image display method |
-
2013
- 2013-11-28 JP JP2013245929A patent/JP6300346B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015104107A (en) | 2015-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6300346B2 (en) | IP stereoscopic image estimation apparatus and program thereof | |
US20180192033A1 (en) | Multi-view scene flow stitching | |
US9185388B2 (en) | Methods, systems, and computer program products for creating three-dimensional video sequences | |
KR101518531B1 (en) | System and method for measuring potential eyestrain of stereoscopic motion pictures | |
JP6734620B2 (en) | Video processing method and video processing apparatus | |
JP4065488B2 (en) | 3D image generation apparatus, 3D image generation method, and storage medium | |
CN108141578B (en) | Presentation camera | |
JP6406853B2 (en) | Method and apparatus for generating optical field images | |
JP4928476B2 (en) | Stereoscopic image generating apparatus, method thereof and program thereof | |
JPWO2012056686A1 (en) | 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method | |
JP6585938B2 (en) | Stereoscopic image depth conversion apparatus and program thereof | |
JP2018040789A (en) | Image distance calculation device, image distance calculation method, and program for image distance calculation | |
JP2013025649A (en) | Image processing device, image processing method, and program | |
JP4729011B2 (en) | Element image group conversion device, stereoscopic image display device, and element image group conversion program | |
KR101289283B1 (en) | A holographic display method using a hybrid image acquisition system | |
JP2020028114A (en) | Stereoscopic image generation device and program thereof | |
WO2018043437A1 (en) | Image distance calculation device, and computer-readable non-transitory recording medium with an image distance calculation program recorded thereon | |
CN104463958A (en) | Three-dimensional super-resolution method based on disparity map fusing | |
JP7257272B2 (en) | DEPTH MAP GENERATION DEVICE AND PROGRAM THEREOF, AND 3D IMAGE GENERATION DEVICE | |
JP2017073710A (en) | Element image group generation device and program therefor | |
JP6685241B2 (en) | Stereoscopic video generation | |
WO2012014695A1 (en) | Three-dimensional imaging device and imaging method for same | |
JP6223226B2 (en) | Camera parameter calculation apparatus and program thereof | |
JP2009186369A (en) | Depth information acquisition method, depth information acquiring device, program, and recording medium | |
KR101569787B1 (en) | 3-Dimensional Video Information Obtaining Method Using Multi Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6300346 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |