JP5993261B2 - Depth range calculation device and program thereof - Google Patents

Depth range calculation device and program thereof Download PDF

Info

Publication number
JP5993261B2
JP5993261B2 JP2012205497A JP2012205497A JP5993261B2 JP 5993261 B2 JP5993261 B2 JP 5993261B2 JP 2012205497 A JP2012205497 A JP 2012205497A JP 2012205497 A JP2012205497 A JP 2012205497A JP 5993261 B2 JP5993261 B2 JP 5993261B2
Authority
JP
Japan
Prior art keywords
depth
light intensity
intensity distribution
parallax
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012205497A
Other languages
Japanese (ja)
Other versions
JP2014060649A (en
Inventor
洗井 淳
淳 洗井
人誌 日浦
人誌 日浦
久幸 佐々木
久幸 佐々木
三浦 雅人
雅人 三浦
澄男 矢野
澄男 矢野
裕一 岩舘
裕一 岩舘
奥井 誠人
誠人 奥井
三科 智之
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012205497A priority Critical patent/JP5993261B2/en
Publication of JP2014060649A publication Critical patent/JP2014060649A/en
Application granted granted Critical
Publication of JP5993261B2 publication Critical patent/JP5993261B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本願発明は、インテグラルフォトグラフィ方式を用いた立体画像撮影装置が被写体を撮影した要素画像群から、被写体の立体像の視差範囲及び奥行き範囲を算出する奥行き範囲算出装置及びそのプログラムに関する。   The present invention relates to a depth range calculation apparatus that calculates a parallax range and a depth range of a stereoscopic image of a subject from a group of element images obtained by photographing the subject with a stereoscopic image capturing device using an integral photography system, and a program thereof.

従来から、任意の視点から自由に立体映像を視聴することが可能な立体画像表示方式の一つとして、平面状に配列された凸レンズ群あるいはピンホール群を利用したインテグラルフォトグラフィ(Integral Photography:以下IP)方式が知られている。   Conventionally, as one of the stereoscopic image display methods capable of freely viewing stereoscopic images from an arbitrary viewpoint, integral photography (Integral Photography) using a group of convex lenses or pinholes arranged in a planar shape is possible. Hereinafter, the IP) method is known.

以下、図11,図12を参照して、IP方式に基づく通常の立体画像撮影及び立体画像表示について説明する。図11に示すように、立体画像撮影装置910は、同一平面上に凸レンズを配列したレンズ群912と、撮像板913とを備える。また、図11には、被写体911と、立体画像撮影装置910の撮影方向914と、レンズ群912によって結像される被写体911の要素画像915とを図示した。この被写体911は、撮影方向914から見た場合、円柱が角柱に対して手前になる。   Hereinafter, normal stereoscopic image capturing and stereoscopic image display based on the IP method will be described with reference to FIGS. 11 and 12. As shown in FIG. 11, the stereoscopic image capturing apparatus 910 includes a lens group 912 in which convex lenses are arranged on the same plane, and an imaging plate 913. FIG. 11 illustrates a subject 911, a photographing direction 914 of the stereoscopic image photographing device 910, and an element image 915 of the subject 911 formed by the lens group 912. When the subject 911 is viewed from the shooting direction 914, the cylinder is in front of the prism.

この立体画像撮影装置910は、レンズ群912を通して被写体911を撮影する。すると、撮像板913には、レンズ群912を構成する凸レンズと同じ数だけ被写体911の要素画像915が撮影される。   The stereoscopic image photographing device 910 photographs a subject 911 through a lens group 912. Then, the same number of element images 915 of the subject 911 as the convex lenses constituting the lens group 912 are photographed on the imaging plate 913.

図12に示すように、立体画像表示装置920は、同一平面上に凸レンズを配列したレンズ群922と、表示素子923とを備える。また、図12には、立体像921と、観察者926の観察方向924と、要素画像925と、観察者926とを図示した。この表示素子923は、立体画像撮影装置910の撮像板913により撮影された要素画像915に対応する要素画像925を表示する。   As shown in FIG. 12, the stereoscopic image display device 920 includes a lens group 922 in which convex lenses are arranged on the same plane, and a display element 923. FIG. 12 illustrates a stereoscopic image 921, an observation direction 924 of the observer 926, an element image 925, and an observer 926. The display element 923 displays an element image 925 corresponding to the element image 915 photographed by the imaging plate 913 of the stereoscopic image photographing device 910.

この結果、図12に示すように、立体像921は、表示素子923からの距離が、図11の被写体911と撮像板913との距離に等しくなるように生成される。このとき、被写体911に対応する立体像921は、観察方向924から見た場合、角柱が円柱の手前になる。つまり、IP方式に基づく通常の立体画像撮影では、図11の被写体911と比較して、奥行きが反転した逆視像(立体像921)が生成される。   As a result, as shown in FIG. 12, the stereoscopic image 921 is generated such that the distance from the display element 923 is equal to the distance between the subject 911 and the imaging plate 913 in FIG. At this time, in the stereoscopic image 921 corresponding to the subject 911, when viewed from the observation direction 924, the prism is in front of the cylinder. That is, in normal stereoscopic image shooting based on the IP method, a reverse-view image (stereoscopic image 921) with a depth inverted as compared to the subject 911 in FIG. 11 is generated.

なお、図11,図12では、光学素子アレイは、微小な凸レンズが配列されたレンズ群912であることとして説明したが、微小なピンホールが配列された開口アレイ(空間フィルタ)であってもよい。
また、表示素子923は、撮影板113により撮影された要素画像925を表示することとして説明したが、計算機(不図示)で生成された像を表示してもよい。
11 and 12, it has been described that the optical element array is the lens group 912 in which minute convex lenses are arranged. However, the optical element array may be an aperture array (spatial filter) in which minute pinholes are arranged. Good.
Further, although the display element 923 has been described as displaying the element image 925 photographed by the photographing plate 113, an image generated by a computer (not shown) may be displayed.

そこで、前記した逆視像の間題を解決するための発明が提案されている(例えば、特許文献1)。この特許文献1に記載の発明は、図11の立体画像撮影装置910で取得した情報に対して演算処理を行い、演算処理後の情報を図12の立体画像表示装置920に入力し、最終的に正しい奥行きの立体像921を生成するものである。   In view of this, an invention for solving the problem of the reverse viewing image has been proposed (for example, Patent Document 1). The invention described in Patent Document 1 performs arithmetic processing on the information acquired by the stereoscopic image capturing device 910 in FIG. 11 and inputs the information after the arithmetic processing to the stereoscopic image display device 920 in FIG. A stereoscopic image 921 having a correct depth is generated.

以下、図13,図14を参照して、特許文献1に記載の画像奥行き変換装置930について説明する。図13に示すように、画像奥行き変換装置930は、図11の立体画像撮影装置910で撮影した要素画像931を入力し、この要素画像931が第1の仮想レンズアレイ932を通じて仮想的に形成された立体像933を、演算処理により求める。そして、画像奥行き変換装置930は、この立体像933が第2の仮想レンズアレイ934を通じて仮想的に形成された要素画像935を、演算処理により求める。   Hereinafter, with reference to FIGS. 13 and 14, an image depth conversion device 930 described in Patent Document 1 will be described. As shown in FIG. 13, the image depth conversion device 930 receives the element image 931 captured by the stereoscopic image capturing device 910 of FIG. 11, and this element image 931 is virtually formed through the first virtual lens array 932. The obtained stereoscopic image 933 is obtained by arithmetic processing. Then, the image depth conversion device 930 obtains an element image 935 in which the stereoscopic image 933 is virtually formed through the second virtual lens array 934 by arithmetic processing.

図14に示すように、立体画像表示装置940は、図12の立体画像表示装置920と同一構成であり、表示素子945を介して、図13の画像奥行き変換装置930が生成した要素画像941(つまり、図13の要素画像935)を表示する。この結果、要素画像941に対応する立体像943は、観察方向944から見た場合、円柱が角柱に対して手前になり、図11の被写体911と対比して、奥行きが等価になる。   As shown in FIG. 14, the stereoscopic image display device 940 has the same configuration as that of the stereoscopic image display device 920 in FIG. 12, and an element image 941 generated by the image depth conversion device 930 in FIG. That is, the element image 935) of FIG. 13 is displayed. As a result, when the stereoscopic image 943 corresponding to the element image 941 is viewed from the observation direction 944, the cylinder is in front of the prism, and the depth is equivalent to the subject 911 in FIG.

特開2007−114483号公報JP 2007-114483 A

しかし、従来技術では、立体表示装置で実際に立体像を表示する前に、その立体像がどの範囲まで視差及び奥行きを有するか把握できないという問題がある。つまり、観察者が立体像を見たときの奥行き範囲及び視差範囲は、その立体像を実際に表示するまで把握できない。この奥行き範囲及び視差範囲を事前に把握できれば、立体映像の効果的な演出や編集が可能になるため、その実現が強く要望されている。   However, in the related art, there is a problem that it is impossible to grasp to what extent the stereoscopic image has parallax and depth before the stereoscopic image is actually displayed on the stereoscopic display device. That is, the depth range and the parallax range when the observer views the stereoscopic image cannot be grasped until the stereoscopic image is actually displayed. If the depth range and the parallax range can be grasped in advance, it is possible to effectively produce and edit stereoscopic images.

そこで、本願発明は、前記した問題を解決し、IP方式による被写体の立体像の奥行き範囲及び視差範囲を算出できる奥行き範囲算出装置及びそのプログラムを提供することを課題とする。   Accordingly, an object of the present invention is to solve the above-described problems and to provide a depth range calculation device and a program thereof that can calculate a depth range and a parallax range of a stereoscopic image of a subject by the IP method.

前記した課題に鑑みて、本願第1発明に係る奥行き範囲算出装置は、インテグラルフォトグラフィ方式を用いた立体画像撮影装置が被写体を撮影した要素画像群から、被写体の立体像の視差範囲及び奥行き範囲を算出する奥行き範囲算出装置であって、平面光強度分布算出手段と、体積光強度分布記憶手段と、視差範囲算出手段と、奥行き範囲算出手段と、を備えることを特徴とする。   In view of the above-described problems, the depth range calculation device according to the first invention of the present application is based on a parallax range and depth of a stereoscopic image of a subject from an elemental image group in which the stereoscopic imaging device using the integral photography method captures the subject. A depth range calculating apparatus for calculating a range, comprising: a planar light intensity distribution calculating means; a volume light intensity distribution storing means; a parallax range calculating means; and a depth range calculating means.

かかる構成によれば、奥行き範囲算出装置は、平面光強度分布算出手段によって、立体画像撮影装置が撮影した要素画像群を入力し、要素画像群に対して、要素画像群を表示する立体画像表示装置の要素光学系のピッチおよび焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介した波動光学演算を行うことで、仮想要素光学系群からの距離が異なる予め設定された距離平面ごとの光強度分布である平面光強度分布を算出する。   According to such a configuration, the depth range calculation device receives the elemental image group captured by the stereoscopic image capturing device by the planar light intensity distribution calculating unit, and displays the elemental image group for the elemental image group. By performing wave optical computation via a virtual element optical system group in which virtual element optical systems having the same pitch and focal length of the element optical system of the apparatus are arranged two-dimensionally, the distance from the virtual element optical system group differs in advance. A plane light intensity distribution that is a light intensity distribution for each set distance plane is calculated.

また、奥行き範囲算出装置は、体積光強度分布記憶手段によって、この平面光強度分布算出手段で算出された距離平面ごとの平面光強度分布を奥行き方向で積層するように、立体空間上の体積光強度分布として記憶する。ここで、体積光強度分布は、仮想要素光学系群から任意の距離にある複数の距離平面で構成された立体空間(三次元空間)において、被写体の立体像の三次元形状モデルに対応する。   In addition, the depth range calculation device uses the volume light intensity distribution storage means to stack the volume light in the three-dimensional space so that the plane light intensity distribution for each distance plane calculated by the plane light intensity distribution calculation means is stacked in the depth direction. Store as intensity distribution. Here, the volume light intensity distribution corresponds to a three-dimensional shape model of a three-dimensional image of a subject in a three-dimensional space (three-dimensional space) composed of a plurality of distance planes at an arbitrary distance from the virtual element optical system group.

また、奥行き範囲算出装置は、視差範囲算出手段によって、仮想要素光学系群を基準に予め設定された観察者位置において、奥行き方向で体積光強度分布がゼロとなる位置を被写体の立体像の近点及び遠点としてそれぞれ算出し、近点と遠点との角度視差量の差分を視差範囲として算出する。ここで、予め設定した奥行き方向の範囲の中で、体積光強度分布がゼロとなる位置が複数存在した場合、その中で最も遠い位置を遠点とし、最も近い位置を近点とする。   In addition, the depth range calculation device uses a parallax range calculation unit to set a position at which the volume light intensity distribution is zero in the depth direction at a viewer position preset with reference to the virtual element optical system group in the vicinity of the stereoscopic image of the subject. It calculates as a point and a far point, respectively, and calculates the difference in the amount of angular parallax between the near point and the far point as a parallax range. Here, when there are a plurality of positions where the volumetric light intensity distribution is zero in a preset range in the depth direction, the farthest position is taken as the far point, and the nearest position is taken as the near point.

このように、体積光強度分布及び観察者位置の両方が仮想要素光学系群を基準とするから、被写体の立体像の位置と観察者位置とは、同一座標系で記述できる。このため、視差範囲算出手段は、観察者と、被写体の立体像との位置関係を同一座標系で記述して、視差範囲を算出できる。   Thus, since both the volume light intensity distribution and the observer position are based on the virtual element optical system group, the position of the stereoscopic image of the subject and the observer position can be described in the same coordinate system. For this reason, the parallax range calculation means can calculate the parallax range by describing the positional relationship between the observer and the stereoscopic image of the subject in the same coordinate system.

また、奥行き範囲算出装置は、奥行き範囲算出手段によって、観察者位置と近点との距離、及び、観察者位置と遠点との距離をそれぞれ算出し、2つの距離の差分を奥行き範囲として算出する。つまり、奥行き範囲算出手段は、視差範囲算出手段と同様、観察者と、被写体の立体像との位置関係を同一座標系で記述して、奥行き範囲を算出できる。   In addition, the depth range calculation device calculates the distance between the observer position and the near point and the distance between the observer position and the far point by the depth range calculation unit, and calculates the difference between the two distances as the depth range. To do. That is, the depth range calculation unit can calculate the depth range by describing the positional relationship between the observer and the stereoscopic image of the subject in the same coordinate system, as in the parallax range calculation unit.

また、本願第2発明に係る奥行き範囲算出装置は、平面光強度分布算出手段が、仮想要素光学系のピッチに基づいて、立体画像撮影装置が撮影した要素画像群を、要素画像ごとに分配する分配手段と、この分配手段で分配された要素画像ごとに、要素画像の光波を、仮想要素光学系の焦点距離だけ伝搬させることで、仮想要素光学系に入射する光波を算出する第1光波算出手段と、この第1光波算出手段で算出された仮想要素光学系に入射した要素画像ごとの光波を、仮想要素光学系の位相分だけシフトさせる位相シフト手段と、この位相シフト手段で位相シフトされた光波を、それぞれの距離平面まで伝搬させることで、距離平面ごとの要素画像の光波を算出する第2光波算出手段と、距離平面ごとに、第2光波算出手段で算出された要素画像の光波を、要素画像群分だけ結合して平面光強度分布とする結合手段と、を備えることを特徴とする。   In the depth range calculation apparatus according to the second invention of the present application, the plane light intensity distribution calculation means distributes the element image group captured by the stereoscopic image capturing apparatus for each element image based on the pitch of the virtual element optical system. First light wave calculation for calculating the light wave incident on the virtual element optical system by propagating the light wave of the element image by the focal length of the virtual element optical system for each element image distributed by the distribution means and the distribution means A phase shift means for shifting the light wave for each element image incident on the virtual element optical system calculated by the first light wave calculation means by the phase of the virtual element optical system, and the phase shift means shifts the phase. The second light wave calculating means for calculating the light wave of the element image for each distance plane by propagating the obtained light wave to each distance plane, and the element calculated by the second light wave calculating means for each distance plane. The light waves of the image, characterized in that it comprises a coupling means for a plane light intensity distribution bound only element image group content, the.

かかる構成によれば、奥行き範囲算出装置は、要素画像の光波を、仮想要素光学系を介して、立体画像表示装置に備えられた表示素子を仮想した仮想表示素子から各距離平面まで伝搬させ、平面光強度分布を正確に求めることができる。   According to such a configuration, the depth range calculation apparatus propagates the light wave of the element image from the virtual display element, which is a virtual display element included in the stereoscopic image display apparatus, to each distance plane via the virtual element optical system, The plane light intensity distribution can be accurately obtained.

また、本願第3発明に係る奥行き範囲算出装置は、立体画像撮影装置が撮影した要素画像群を予め設定された遅延時間だけ遅延させて、遅延要素画像群を出力する遅延手段をさらに備え、平面光強度分布算出手段が、要素画像群及び遅延手段が遅延させた遅延要素画像群から、平面光強度分布を算出し、体積光強度分布記憶手段が、要素画像群及び遅延要素画像群から算出された平面光強度分布を、体積光強度分布としてそれぞれ記憶し、視差範囲算出手段が、要素画像群及び遅延要素画像群の体積光強度分布から、視差範囲をそれぞれ算出し、奥行き範囲算出手段が、要素画像群及び遅延要素画像群の体積光強度分布から、奥行き範囲をそれぞれ算出し、視差範囲算出手段が算出した要素画像群と遅延要素画像群との視差範囲の変化量を視差変化量として算出する視差変化量算出手段と、奥行き範囲算出手段が算出した要素画像群と遅延要素画像群との奥行き範囲の変化量を奥行き変化量として算出する奥行き変化量算出手段と、を備えることを特徴とする。   The depth range calculation apparatus according to the third aspect of the present invention further includes delay means for delaying the element image group captured by the stereoscopic image capturing apparatus by a preset delay time and outputting the delay element image group, The light intensity distribution calculating means calculates the planar light intensity distribution from the element image group and the delayed element image group delayed by the delay means, and the volume light intensity distribution storage means is calculated from the element image group and the delayed element image group. The plane light intensity distribution is stored as a volume light intensity distribution, and the parallax range calculation means calculates the parallax range from the volume light intensity distributions of the element image group and the delay element image group, and the depth range calculation means Depth ranges are calculated from the volumetric light intensity distributions of the element image group and the delay element image group, respectively, and the amount of change in the parallax range between the element image group and the delay element image group calculated by the parallax range calculation unit is viewed. A parallax change amount calculating unit that calculates the amount of change, and a depth change amount calculating unit that calculates the amount of change in the depth range between the element image group and the delay element image group calculated by the depth range calculating unit as the depth change amount. It is characterized by that.

かかる構成によれば、奥行き範囲算出装置は、遅延時間内での視差範囲の変化量を示す視差変化量と、遅延時間内での奥行き範囲の変化量を示す奥行き変化量とを求めることができる。   According to such a configuration, the depth range calculation apparatus can obtain a parallax change amount that indicates the change amount of the parallax range within the delay time and a depth change amount that indicates the change amount of the depth range within the delay time. .

また、本願第4発明に係る奥行き範囲算出装置は、視差範囲算出手段で算出された視差範囲が予め設定された視差範囲閾値を超えるか否かを判定し、視差範囲が視差範囲閾値を超えるときに警告する視差範囲警告手段と、奥行き範囲算出手段で算出された奥行き範囲が予め設定された奥行き範囲閾値を超えるか否かを判定し、奥行き範囲が奥行き範囲閾値を超えるときに警告する奥行き範囲警告手段と、をさらに備えることを特徴とする。
かかる構成によれば、奥行き範囲算出装置は、視差範囲や奥行き範囲が観察者の許容限度を超えるような場合に警告できる。
Further, the depth range calculation apparatus according to the fourth invention of the present application determines whether or not the parallax range calculated by the parallax range calculation means exceeds a preset parallax range threshold, and when the parallax range exceeds the parallax range threshold A parallax range warning unit that warns the depth range, and a depth range that determines whether the depth range calculated by the depth range calculation unit exceeds a preset depth range threshold and warns when the depth range exceeds the depth range threshold And a warning means.
According to such a configuration, the depth range calculation apparatus can warn when the parallax range or the depth range exceeds the allowable limit of the observer.

また、本願第5発明に係る奥行き範囲算出装置は、視差変化量算出手段で算出された視差変化量が予め設定された視差変化量閾値を超えるか否かを判定し、視差変化量が視差変化量閾値を超えるときに警告する視差変化量警告手段と、奥行き変化量算出手段で算出された奥行き変化量が予め設定された奥行き変化量閾値を超えるか否かを判定し、奥行き変化量が奥行き変化量閾値を超えるときに警告する奥行き変化量警告手段と、をさらに備えることを特徴とする。
かかる構成によれば、奥行き範囲算出装置は、視差範囲や奥行き範囲が観察者の許容限度を超えて変化するような場合に警告できる。
Further, the depth range calculation apparatus according to the fifth invention of the present application determines whether or not the parallax change amount calculated by the parallax change amount calculating means exceeds a preset parallax change amount threshold, and the parallax change amount is the parallax change amount. A parallax change amount warning unit that warns when the amount threshold value is exceeded, and whether or not the depth change amount calculated by the depth change amount calculation unit exceeds a preset depth change amount threshold value. It further comprises depth change amount warning means for warning when the change amount threshold is exceeded.
According to such a configuration, the depth range calculation device can warn when the parallax range or the depth range changes beyond the allowable limit of the observer.

なお、本願第1発明に係る奥行き範囲算出装置は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、平面光強度分布算出手段、視差範囲算出手段、奥行き範囲算出手段、として機能させるための奥行き範囲算出プログラムによって実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   The depth range calculation apparatus according to the first aspect of the present invention causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to function as a planar light intensity distribution calculation unit, a parallax range calculation unit, and a depth range calculation unit. It can also be realized by a depth range calculation program. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

本願発明によれば、以下のような優れた効果を奏する。
本願第1発明によれば、体積光強度分布の範囲が被写体の立体像の三次元形状モデルを表すと共に、体積光強度分布及び観察者位置の両方が仮想要素光学系群を基準とする。これによって、本願第1発明によれば、観察者と被写体の立体像との位置関係を同一座標系で記述できるので、体積光強度分布記憶手段に記憶された体積光強度分布から、IP方式による被写体の立体像の奥行き範囲及び視差範囲を算出することができる。
According to the present invention, the following excellent effects can be obtained.
According to the first invention of the present application, the range of the volume light intensity distribution represents a three-dimensional shape model of the stereoscopic image of the subject, and both the volume light intensity distribution and the observer position are based on the virtual element optical system group. Thus, according to the first invention of the present application, since the positional relationship between the observer and the stereoscopic image of the subject can be described in the same coordinate system, the volume light intensity distribution stored in the volume light intensity distribution storage means can be used according to the IP method. The depth range and the parallax range of the stereoscopic image of the subject can be calculated.

本願第2発明によれば、各距離平面における平面光強度分布を正確に求められるので、視差範囲及び奥行き範囲の精度を向上させることができる。
本願第3発明によれば、遅延時間内での視差変化量及び奥行き変化量を求められるので、立体映像の演出や編集をより効果的に行うことができる。
According to the second invention of the present application, since the planar light intensity distribution in each distance plane can be accurately obtained, the accuracy of the parallax range and the depth range can be improved.
According to the third aspect of the present invention, since the parallax change amount and the depth change amount within the delay time can be obtained, it is possible to more effectively produce and edit a stereoscopic video.

本願第4発明によれば、視差範囲や奥行き範囲が観察者の許容限度を超えるような場合に警告できるので、観察者にとって見づらい立体映像が表示される事態を低減させて、立体映像の品質を向上させることができる。
本願第5発明によれば、視差範囲や奥行き範囲が観察者の許容限度を超えて変化するような場合に警告できるので、観察者にとって見づらい立体映像が表示される事態を低減させて、立体映像の品質を向上させることができる。
According to the fourth invention of the present application, since a warning can be given when the parallax range or depth range exceeds the allowable limit of the observer, the situation in which a stereoscopic video that is difficult for the observer to display is reduced, and the quality of the stereoscopic video is improved. Can be improved.
According to the fifth invention of the present application, since a warning can be given when the parallax range or the depth range changes beyond the allowable limit of the observer, the situation in which a stereoscopic image that is difficult to be viewed by the observer is reduced can be reduced. Can improve the quality.

本願発明の第1実施形態に係る奥行き情報生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the depth information generation apparatus which concerns on 1st Embodiment of this invention. 図1の平面光強度分布算出手段の構成を示すブロック図である。It is a block diagram which shows the structure of the planar light intensity distribution calculation means of FIG. 図2の平面光強度分布算出手段において、要素画像の光の伝搬及び要素画像の拡がる範囲を説明する図である。FIG. 3 is a diagram illustrating light propagation of an element image and a range in which the element image expands in the planar light intensity distribution calculating unit of FIG. 図2の平面光強度分布算出手段が算出した平面光強度分布を説明する図である。It is a figure explaining the planar light intensity distribution which the planar light intensity distribution calculation means of FIG. 2 computed. 図1の体積光強度分布記憶手段が記憶する体積光強度分布を説明する図である。It is a figure explaining the volume light intensity distribution which the volume light intensity distribution memory | storage means of FIG. 1 memorize | stores. 図1の奥行き情報生成装置における視差範囲及び奥行き範囲の算出を説明する図である。It is a figure explaining calculation of the parallax range and depth range in the depth information generation apparatus of FIG. 図1の奥行き情報生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the depth information generation apparatus of FIG. 本願発明の第2実施形態に係る奥行き情報生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the depth information generation apparatus which concerns on 2nd Embodiment of this invention. 本願発明の第3実施形態に係る奥行き情報生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the depth information generation apparatus which concerns on 3rd Embodiment of this invention. 本願発明の第4実施形態に係る奥行き情報生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the depth information generation apparatus which concerns on 4th Embodiment of this invention. 従来のIP方式において、被写体の撮影を説明する図である。It is a figure explaining imaging | photography of a to-be-photographed object in the conventional IP system. 従来のIP方式において、立体像の表示を説明する図である。It is a figure explaining the display of a three-dimensional image in the conventional IP system. 従来のIP方式において、奥行き反転の解消を説明する図である。It is a figure explaining cancellation of depth inversion in the conventional IP system. 従来のIP方式において、奥行き反転が解消した要素画像群の表示を説明する図である。It is a figure explaining the display of the element image group which the depth inversion canceled in the conventional IP system.

以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(第1実施形態)
[奥行き情報生成装置の構成]
図1を参照して、本願発明の第1実施形態に係る奥行き情報生成装置(奥行き範囲算出装置)1の構成について説明する。
奥行き情報生成装置1は、インテグラルフォトグラフィ方式を用いた立体画像撮影装置910が被写体を撮影した要素画像群から、被写体の立体像の視差範囲及び奥行き範囲を算出し、これら視差範囲及び奥行き範囲を奥行き情報として出力するものである。このため、奥行き情報生成装置1は、図1に示すように、平面光強度分布算出手段10と、体積光強度分布記憶手段20と、視差範囲算出手段30と、奥行き範囲算出手段40とを備える。
(First embodiment)
[Configuration of depth information generation apparatus]
With reference to FIG. 1, the structure of the depth information generation apparatus (depth range calculation apparatus) 1 which concerns on 1st Embodiment of this invention is demonstrated.
The depth information generation device 1 calculates a parallax range and a depth range of a stereoscopic image of a subject from a group of element images obtained by photographing a subject with the stereoscopic image photographing device 910 using the integral photography method, and the parallax range and the depth range. Is output as depth information. For this reason, as shown in FIG. 1, the depth information generation apparatus 1 includes a planar light intensity distribution calculation unit 10, a volume light intensity distribution storage unit 20, a parallax range calculation unit 30, and a depth range calculation unit 40. .

また、奥行き情報生成装置1は、光学素子情報と、立体画像撮影装置910が撮影した要素画像群とが入力される。このとき、奥行き情報生成装置1は、立体画像撮影装置910が実際に撮影した要素画像群の代わりに、この要素画像群と等価な映像信号が計算機(不図示)で生成され、この映像信号が入力されてもよい。
この要素画像群は、立体画像表示装置(不図示)で表示した場合、奥行きが正しい立体像が生成されるものである。
Further, the depth information generation apparatus 1 receives optical element information and an element image group captured by the stereoscopic image capturing apparatus 910. At this time, the depth information generating apparatus 1 generates a video signal equivalent to the element image group by a computer (not shown) instead of the element image group actually captured by the stereoscopic image capturing apparatus 910, and the image signal is It may be entered.
When this element image group is displayed on a stereoscopic image display device (not shown), a stereoscopic image having a correct depth is generated.

前記した立体画像表示装置は、立体映像を表示するものであり、要素光学系が2次元平面上に配列された要素光学系群を備える。
要素光学系は、例えば、凸レンズ等の要素レンズからなる要素光学素子、又は、微小開口からなる要素ピンホール(空間フィルタ)である。この場合、要素光学系群は、要素光学素子が2次元平面上に配列された要素光学素子群、又は、要素ピンホールが2次元平面上に配列された要素ピンホール群となる。そして、要素光学系群は、要素画像群から、その焦点距離だけ離された位置に配置される。
The above-described stereoscopic image display device displays a stereoscopic image, and includes an element optical system group in which element optical systems are arranged on a two-dimensional plane.
The element optical system is, for example, an element optical element made of an element lens such as a convex lens, or an element pinhole (spatial filter) made of a minute aperture. In this case, the element optical system group is an element optical element group in which element optical elements are arranged on a two-dimensional plane, or an element pinhole group in which element pinholes are arranged on a two-dimensional plane. The element optical system group is arranged at a position separated from the element image group by the focal length.

前記した光学素子情報は、立体画像表示装置が備える要素光学系(要素レンズ又は要素ピンホール)の特性および配置を示す情報である。
例えば、仮想要素光学系として要素レンズを仮想した場合、光学素子情報は、その要素レンズのピッチ(図3の符号p)と、焦点距離と、開口幅とが予め設定されている。
また、例えば、仮想要素光学系として要素ピンホールを仮想した場合、光学素子情報は、その要素ピンホールのピッチと、開口幅とが予め設定されている。
The optical element information described above is information indicating the characteristics and arrangement of the element optical system (element lens or element pinhole) included in the stereoscopic image display device.
For example, when an element lens is assumed as the virtual element optical system, the optical element information is preset with the pitch of the element lens (reference numeral p 1 in FIG. 3), the focal length, and the aperture width.
For example, when an element pinhole is assumed as a virtual element optical system, the pitch of the element pinhole and the opening width are preset in the optical element information.

なお、奥行き情報生成装置1が実際に要素光学系を備える訳でなく、この立体画像表示装置に備えられた要素光学系(要素レンズ又は要素ピンホール)や要素光学系群(要素レンズ群又は要素ピンホール群)を仮想して演算する。このため、仮想要素光学系(仮想要素レンズ又は仮想要素ピンホール)、及び、仮想要素光学系群(仮想要素レンズ群又は仮想要素ピンホール群)と呼ばれる。   Note that the depth information generation apparatus 1 does not actually include an element optical system, but an element optical system (element lens or element pinhole) or element optical system group (element lens group or element) included in the stereoscopic image display apparatus. Virtually calculate the pinhole group). For this reason, they are called a virtual element optical system (virtual element lens or virtual element pinhole) and a virtual element optical system group (virtual element lens group or virtual element pinhole group).

平面光強度分布算出手段10は、入力された要素画像群に対して、仮想要素光学系群を介した波動光学演算を行うことで、仮想要素光学系群からの距離が異なる予め設定された距離平面ごとの光強度分布である平面光強度分布を算出するものである。このため、平面光強度分布算出手段10は、図2に示すように、分配手段11と、要素画像分の要素画像変換手段13と、結合手段15とを備える。
以下の説明では、要素画像群が−M番目からM番目までの要素画像で構成され、この要素画像と対応するように、要素画像変換手段13(13−M,・・・,13,・・・13)が備えられることとする。
The planar light intensity distribution calculating means 10 performs a wave optical calculation via the virtual element optical system group on the input element image group, so that the distance from the virtual element optical system group is set in advance. A plane light intensity distribution, which is a light intensity distribution for each plane, is calculated. Therefore, the planar light intensity distribution calculating means 10 includes a distributing means 11, an element image converting means 13 for element images, and a combining means 15 as shown in FIG.
In the following description, the element image group is composed of element images from −Mth to Mth, and the element image conversion means 13 (13 −M ,..., 13 0 ,. .. 13 M ) is provided.

分配手段11は、入力された光学素子情報に基づいて、立体画像撮影装置910から入力された要素画像群を、要素画像ごとに分配するものである。ここで、分配手段11は、入力された要素画像群を、入力された光学素子情報に設定された位置情報(仮想要素光学系のピッチ)で分配(分割)する。そして、分配手段11は、分配された要素画像群のm番目の要素画像の光波(gs,m(xs,m,ys,m))を、m番目の要素画像に予め対応付けられている要素画像変換手段13に出力する(但し、−M≦m≦M)。
なお、ここで、光波とは、要素画像群の光を波動として扱った場合の振幅と位相とを複素数で表わしたものである。
The distribution unit 11 distributes the element image group input from the stereoscopic image capturing device 910 for each element image based on the input optical element information. Here, the distribution unit 11 distributes (divides) the input element image group with the position information (pitch of the virtual element optical system) set in the input optical element information. The distribution unit 11 associates the light wave (gs , m ( xs, m , ys , m )) of the mth element image of the distributed element image group with the mth element image in advance. Is output to the element image conversion means 13 (-M ≦ m ≦ M).
Here, the light wave is a complex number representing the amplitude and phase when the light of the element image group is treated as a wave.

要素画像変換手段13は、分配手段11から入力された要素画像の光波を、入力された光学素子情報に設定された仮想要素光学系を通した際の光波に変換し、仮想要素光学系の画角に対応する光波を加算するものである。このため、要素画像変換手段13は、光波算出手段(第1光波算出手段)13aと、位相シフト手段13bと、光波算出手段(第2光波算出手段)13cとを備える。   The element image conversion means 13 converts the light wave of the element image input from the distribution means 11 into a light wave when passing through the virtual element optical system set in the input optical element information, and displays the image of the virtual element optical system. The light wave corresponding to the corner is added. Therefore, the element image conversion means 13 includes a light wave calculation means (first light wave calculation means) 13a, a phase shift means 13b, and a light wave calculation means (second light wave calculation means) 13c.

光波算出手段13aは、分配手段11で分配された要素画像ごとに、要素画像の光波を、仮想要素光学系の焦点距離だけ伝搬させることで、仮想要素光学系に入射する光波を算出するものである。つまり、光波算出手段13aは、要素画像の光波をフレネル近似することで、仮想要素光学系に入射する光波を算出する。より具体的には、光波算出手段13aは、仮想要素光学系群のm番目の仮想要素光学系(開口部)に到達する光波に相当する信号として、一般的なフレネル近似を用いて、以下の式(1)により要素画像ごとの光波(Ri,m(xo,m,yo,m))を算出する。その後、光波算出手段13aは、この要素画像ごとの光波(Ri,m(xo,m,yo,m))を、位相シフト手段13bに出力する。 The light wave calculation means 13a calculates the light wave incident on the virtual element optical system by propagating the light wave of the element image for the element image distributed by the distribution means 11 by the focal length of the virtual element optical system. is there. That is, the light wave calculation means 13a calculates the light wave incident on the virtual element optical system by approximating the light wave of the element image with Fresnel approximation. More specifically, the light wave calculation means 13a uses a general Fresnel approximation as a signal corresponding to a light wave reaching the m-th virtual element optical system (aperture) of the virtual element optical system group, and The light wave (R i, m (x o, m , y o, m )) for each element image is calculated according to equation (1). Thereafter, the light wave calculating means 13a outputs the light wave (R i, m (x o, m , yo, m )) for each element image to the phase shift means 13b.

Figure 0005993261
Figure 0005993261

ここで、xs,m,xo,mは、それぞれ入力画像全体(要素画像群)におけるm番目の要素画像の中心を原点とした場合のx座標、仮想要素光学系群のm番目の仮想要素光学系の光軸中心を原点とした場合のx座標である。また、ys,m,yo,mは、それぞれ入力画像全体(要素画像群)におけるm番目の要素画像の中心を原点とした場合のy座標、仮想要素光学系群のm番目の仮想要素光学系の光軸中心を原点とした場合のy座標である。また、f1は仮想要素光学系(要素レンズ)の焦点距離、kは波数2π/λである。また、λは、波長であり、パラメータとして予め設定されている。また、式(1)の積分範囲となる要素画像(m)は、m番目の要素画像の領域であり、仮想要素光学系のピッチで表される。 Here, x s, m , x o, m are the x coordinate when the center of the m-th element image in the entire input image (element image group) is the origin, and the m-th virtual of the virtual element optical system group. This is the x coordinate when the optical axis center of the element optical system is the origin. Y s, m , yo, m are the y coordinate when the center of the m-th element image in the entire input image (element image group) is the origin, and the m-th virtual element of the virtual element optical system group. This is the y coordinate when the optical axis center of the optical system is the origin. F 1 is the focal length of the virtual element optical system (element lens), and k is the wave number 2π / λ. Also, λ is a wavelength and is set in advance as a parameter. The element image (m) that is the integration range of the expression (1) is an area of the mth element image, and is represented by the pitch of the virtual element optical system.

位相シフト手段13bは、光波算出手段13aから入力された要素画像ごとの光波を、仮想要素光学系の位相分だけシフトさせるものである。つまり、位相シフト手段13bは、仮想要素光学系に入射した要素画像ごとの光波を、以下の式(2)に示すように、この仮想要素光学系に相当する位相分だけ光波(Ri,m(xo,m,yo,m))をシフトさせることで、仮想要素光学系から出射する光波に相当する信号(Ro,m(xo,m,yo,m))を算出する。その後、位相シフト手段13bは、この光波(Ro,m(xo,m,yo,m))を、光波算出手段13cに出力する。 The phase shift means 13b shifts the light wave for each element image input from the light wave calculation means 13a by the phase of the virtual element optical system. In other words, the phase shift means 13b converts the light wave (R i, m ) for each element image incident on the virtual element optical system by a phase corresponding to the virtual element optical system as shown in the following equation (2). By shifting (x o, m , y o, m )), a signal (R o, m (x o, m , y o, m )) corresponding to the light wave emitted from the virtual element optical system is calculated. . Thereafter, the phase shift means 13b outputs this light wave (R o, m (x o, m , y o, m )) to the light wave calculation means 13c.

Figure 0005993261
Figure 0005993261

光波算出手段13cは、位相シフト手段13bから入力された光波を、それぞれの距離平面まで伝搬させることで、距離平面ごとの要素画像の光波を算出するものである。ここで、光波算出手段13cは、仮想要素光学系からの距離が異なるように任意の距離で複数の距離平面が予め設定される。そして、光波算出手段13cは、仮想要素光学系から出射する光波(Ro,m(xo,m,yo,m))をフレネル近似することで、仮想要素光学系から任意の距離に設定した距離平面における光強度分布を算出する。より具体的には、光波算出手段13cは、各距離平面上に到達する光波に相当する信号として、一般的なフレネル近似を用いて、以下の式(3)により要素画像ごとの光波(Rd,m(xd,m,yd,m))を算出する。その後、光波算出手段13cは、この光波(Rd,m(xd,m,yd,m))を、結合手段15に出力する。 The light wave calculating unit 13c calculates the light wave of the element image for each distance plane by propagating the light wave input from the phase shift unit 13b to each distance plane. Here, the light wave calculation means 13c is preset with a plurality of distance planes at arbitrary distances so that the distance from the virtual element optical system is different. The light wave calculating means 13c sets the light wave (R o, m (x o, m , y o, m )) emitted from the virtual element optical system to an arbitrary distance from the virtual element optical system by approximating it with Fresnel. The light intensity distribution in the obtained distance plane is calculated. More specifically, the light wave calculation unit 13c uses a general Fresnel approximation as a signal corresponding to the light wave that reaches each distance plane, and uses the following equation (3) to calculate the light wave (R d ) for each element image. , M (x d, m , y d, m )). Thereafter, the light wave calculation means 13 c outputs this light wave (R d, m (x d, m , y d, m )) to the coupling means 15.

Figure 0005993261
Figure 0005993261

ここで、xd,mは、仮想要素光学系群のm番目の仮想要素光学系(開口部)の光軸中心を原点とした場合の距離平面上におけるx座標である。また、yd,mは、仮想要素光学系群のm番目の仮想要素光学系の光軸中心を原点とした場合の距離平面上におけるy座標である。また、Lは、仮想要素光学系群から距離平面までの距離である。また、式(3)の積分範囲は、要素画像の拡がる範囲wと等価である。 Here, xd, m is an x coordinate on the distance plane when the optical axis center of the m-th virtual element optical system (aperture) of the virtual element optical system group is the origin. Y d, m is the y coordinate on the distance plane when the optical axis center of the m-th virtual element optical system of the virtual element optical system group is the origin. L is the distance from the virtual element optical system group to the distance plane. Further, the integration range of Expression (3) is equivalent to the range w in which the element image expands.

図3を参照して、要素画像の光波の伝搬及び要素画像の拡がる範囲について説明する(適宜図2参照)。
まず、光波算出手段13aは、要素画像m(立体画像表示装置の仮想的な表示素子220)から仮想要素光学系210の入射面までの光波を算出する。次に、位相シフト手段13bは、仮想要素光学系210の入射面から出射面までの光波、つまり、仮想要素光学系210の内部を伝搬する光波を算出する。そして、光波算出手段13cは、仮想要素光学系210の出射面から距離平面tまでの光波を算出する。
With reference to FIG. 3, the propagation of the light wave of the element image and the range in which the element image expands will be described (see FIG. 2 as appropriate).
First, the light wave calculation unit 13 a calculates a light wave from the element image m (virtual display element 220 of the stereoscopic image display device) to the incident surface of the virtual element optical system 210. Next, the phase shift unit 13 b calculates a light wave from the incident surface to the exit surface of the virtual element optical system 210, that is, a light wave propagating through the virtual element optical system 210. Then, the light wave calculation unit 13 c calculates a light wave from the emission surface of the virtual element optical system 210 to the distance plane t.

この場合、要素画像群におけるm番目の要素画像の領域の幅(つまり、仮想要素光学系210のピッチp)をkとし、要素画像群から仮想要素光学系群200までの距離(つまり、仮想要素光学系210の焦点距離)をd1とすると、要素画像群におけるm番目の要素画像の拡がる範囲wは、以下の式(4)で表わされる。 In this case, the width of the area of the m-th element image in the element image group (that is, the pitch p 1 of the virtual element optical system 210) is k 1, and the distance from the element image group to the virtual element optical system group 200 (that is, Assuming that the focal length of the virtual element optical system 210 is d 1 , the range w in which the m-th element image expands in the element image group is expressed by the following equation (4).

Figure 0005993261
Figure 0005993261

なお、図3では、説明を簡易にするために距離平面tを1枚のみ図示したが、実際には、異なる距離Lで複数の距離平面tが設定される。このとき、距離平面tは、その枚数が多く、互いの間隔が短くなるほど、各距離平面tに入射する要素画像の光波が正確に算出されるため、好ましい。   In FIG. 3, only one distance plane t is shown for simplicity of explanation, but actually, a plurality of distance planes t are set at different distances L. At this time, the number of distance planes t is larger, and the shorter the distance between them, the more preferable the light wave of the element image incident on each distance plane t is calculated more accurately.

図2に戻り、平面光強度分布算出手段10の構成について説明を続ける。
結合手段15は、距離平面ごとに、光波算出手段13cから入力された要素画像の光波(Rd,m(xd,m,yd,m))を、要素画像群分だけ結合して平面光強度分布とするものである。つまり、結合手段15は、仮想要素光学系から任意の距離に設定した距離平面に到達する、仮想要素光学系から出射された光波(Rd,m(xd,m,yd,m))を、この距離平面の領域内で加算する。より具体的には、結合手段15は、各距離平面に到達する光波に相当する信号として、以下の式(5)により、各距離平面での光波(R(x,y))を算出する.
Returning to FIG. 2, the description of the configuration of the planar light intensity distribution calculating means 10 will be continued.
The combining unit 15 combines the light wave (R d, m (x d, m , y d, m )) of the element image input from the light wave calculating unit 13c for each distance plane by the amount corresponding to the element image group. The light intensity distribution is used. In other words, the coupling means 15 reaches the distance plane set at an arbitrary distance from the virtual element optical system and is emitted from the virtual element optical system (R d, m (x d, m , y d, m )). Are added within the area of this distance plane. More specifically, the coupling means 15 uses the following equation (5) as a signal corresponding to the light wave that reaches each distance plane, and the light wave (R p (x p , y p )) at each distance plane. calculate.

Figure 0005993261
Figure 0005993261

ここで、xp,mは、仮想要素光学系群から任意の距離に設定した距離平面の中心を原点とした場合のx座標である。また、yp,mは、仮想要素光学系群から任意の距離に設定した距離平面の中心を原点とした場合のy座標である。 Here, x p, m is the x coordinate when the origin is the center of the distance plane set at an arbitrary distance from the virtual element optical system group. Moreover, yp , m is the y coordinate when the origin is the center of the distance plane set at an arbitrary distance from the virtual element optical system group.

そして、結合手段15は、以下の式(6)により、仮想要素光学系群から任意の距離に設定した距離平面に到達する光波の2乗を計算することで、各距離平面での光強度分布(平面光強度分布)を得る。   And the coupling means 15 calculates the light intensity distribution in each distance plane by calculating the square of the light wave reaching the distance plane set at an arbitrary distance from the virtual element optical system group by the following equation (6). (Planar light intensity distribution) is obtained.

Figure 0005993261
Figure 0005993261

以上のように、平面光強度分布算出手段10は、仮想要素光学系群から任意の距離に設定した距離平面ごとの平面光強度分布を算出し、距離平面ごとの平面光強度分布を体積光強度分布記憶手段20に書き込む。そして、平面光強度分布算出手段10は、全ての距離平面について平面光強度分布の書き込みが終了した後、奥行き情報生成命令(不図示)を視差範囲算出手段30及び奥行き範囲算出手段40に出力する。   As described above, the planar light intensity distribution calculating unit 10 calculates the planar light intensity distribution for each distance plane set at an arbitrary distance from the virtual element optical system group, and the planar light intensity distribution for each distance plane is calculated as the volume light intensity. Write to the distribution storage means 20. Then, the planar light intensity distribution calculating unit 10 outputs a depth information generation command (not shown) to the parallax range calculating unit 30 and the depth range calculating unit 40 after the writing of the planar light intensity distribution is completed for all the distance planes. .

図4を参照して、平面光強度分布tについて説明する。
図4では、x軸を水平方向とし、y軸を垂直方向とし、z軸を奥行き方向とする。そして、円筒体及び三角錐体の2物体を被写体とし、これら円筒体及び三角錐体の底面をz軸に向けて撮影した場合を考える。この場合、平面光強度分布tにおいて、光強度がゼロを超える光強度分布範囲は、z軸から見た円筒体の立体像α及び三角錐体の立体像βを表すことになる。
なお、図4では、平面光強度分布tにおいて、光強度がゼロを超える光強度分布範囲をドットで図示し、立体像αを細かいドットで図示し、立体像βを粗いドットで図示した。
Referring to FIG. 4, will be described plane light intensity distribution t 2.
In FIG. 4, the x-axis is the horizontal direction, the y-axis is the vertical direction, and the z-axis is the depth direction. Consider a case where two objects, a cylindrical body and a triangular pyramid, are taken as subjects, and the bottom surfaces of these cylindrical bodies and the triangular pyramid are photographed toward the z axis. In this case, the plane light intensity distribution t 2, the light intensity distribution range in which the light intensity is greater than zero would represent a three-dimensional image β stereoscopic image α and triangular pyramid of the cylindrical body as viewed from the z-axis.
In FIG. 4, in the planar light intensity distribution t 2 , the light intensity distribution range in which the light intensity exceeds zero is illustrated by dots, the stereoscopic image α is illustrated by fine dots, and the stereoscopic image β is illustrated by coarse dots.

図1に戻り、奥行き情報生成装置1の構成について説明を続ける。
体積光強度分布記憶手段20は、平面光強度分布算出手段10によって書き込まれた距離平面ごとの平面光強度分布を、立体空間上の体積光強度分布として記憶するメモリ、ハードディスク等の記憶装置である。
Returning to FIG. 1, the description of the configuration of the depth information generation device 1 will be continued.
The volume light intensity distribution storage unit 20 is a storage device such as a memory or a hard disk that stores the plane light intensity distribution for each distance plane written by the plane light intensity distribution calculation unit 10 as a volume light intensity distribution in a three-dimensional space. .

図5を参照して、体積光強度分布Vについて説明する。
この体積光強度分布Vは、図5に示すように、平面光強度分布t21,t22,・・・,t2nを奥行き方向(z軸)に積層したものである(但し、nは距離平面の数)。従って、体積光強度分布Vは、仮想要素光学系群から任意の距離にある複数の距離平面で構成された立体空間において、立体像α、βの三次元形状モデルに対応する。
Referring to FIG. 5, a description will be given volume light intensity distribution V 2.
This volume light intensity distribution V 2 is obtained by stacking planar light intensity distributions t 21 , t 22 ,..., T 2n in the depth direction (z axis) as shown in FIG. Number of distance planes). Therefore, the volume light intensity distribution V 2, in the three-dimensional space composed of a plurality of distances plane at an arbitrary distance from the virtual element optical group, stereoscopic images alpha, corresponding to the three-dimensional shape model of the beta.

図1に戻り、奥行き情報生成装置1の構成について説明を続ける。
視差範囲算出手段30は、仮想要素光学系群を基準に予め設定された観察者位置において、奥行き方向で体積光強度分布がゼロとなる位置を被写体の立体像の近点及び遠点としてそれぞれ算出し、近点と遠点との角度視差量の差分を視差範囲として算出するものである。
奥行き範囲算出手段40は、観察者位置と近点との距離、及び、観察者位置と遠点との距離をそれぞれ算出し、これら距離の差分を奥行き範囲として算出するものである。
なお、視差範囲算出手段30及び奥行き範囲算出手段40は、予め設定した奥行き方向の範囲の中で、体積光強度分布がゼロとなる位置が複数存在した場合、その中で最も遠い位置を遠点とし、最も近い位置を近点として算出する。
Returning to FIG. 1, the description of the configuration of the depth information generation device 1 will be continued.
The parallax range calculation means 30 calculates the position where the volume light intensity distribution becomes zero in the depth direction as the near point and the far point of the stereoscopic image of the subject at the observer position set in advance with reference to the virtual element optical system group. The difference in the amount of angular parallax between the near point and the far point is calculated as the parallax range.
The depth range calculation means 40 calculates the distance between the observer position and the near point, and the distance between the observer position and the far point, and calculates the difference between these distances as the depth range.
The parallax range calculation unit 30 and the depth range calculation unit 40, when there are a plurality of positions where the volume light intensity distribution is zero in a preset range in the depth direction, the farthest position among them is the far point. And the nearest position is calculated as a near point.

<視差範囲及び奥行き範囲の算出>
図6を参照して、視差範囲算出手段30による視差範囲と、奥行き範囲算出手段40による奥行き範囲の算出とを説明する。
図6では、観察者位置aは、仮想要素光学系群に対する観察者の右目、左目の位置に予め設定されたこととする。
また、被写体の立体像と立体空間との境界、つまり、z軸方向で体積光強度がゼロとなる境界位置がそれぞれ、立体像の近点n及び立体像の遠点fとなる。具体的には、立体像の近点nは、体積光強度がゼロとなる境界位置のうち、手前側(観察者位置aに近い側)の境界位置である。一方、立体像の遠点fは、体積光強度がゼロとなる境界位置のうち、奥側(観察者位置aから遠い側)の境界位置である。なお、予め設定した奥行き方向の範囲の中で、体積光強度分布がゼロとなる位置が複数存在した場合、その中で最も奥側を遠点とし、最も手前側を近点とする。
<Calculation of parallax range and depth range>
The parallax range by the parallax range calculation unit 30 and the calculation of the depth range by the depth range calculation unit 40 will be described with reference to FIG.
In FIG. 6, it is assumed that the observer position a is set in advance to the positions of the right eye and left eye of the observer with respect to the virtual element optical system group.
Further, the boundary between the stereoscopic image of the subject and the stereoscopic space, that is, the boundary position where the volumetric light intensity becomes zero in the z-axis direction is the near point n of the stereoscopic image and the far point f of the stereoscopic image, respectively. Specifically, the near point n of the stereoscopic image is a boundary position on the near side (side closer to the observer position a) among the boundary positions where the volume light intensity becomes zero. On the other hand, the far point f of the stereoscopic image is a boundary position on the back side (the side far from the observer position a) among the boundary positions where the volume light intensity becomes zero. When there are a plurality of positions where the volumetric light intensity distribution is zero in a preset range in the depth direction, the farthest side is the far point and the foremost side is the near point.

ここで、体積光強度分布V及び観察者位置aの両方が仮想要素光学系群を基準とするから、立体像α、βの位置と観察者位置aとは、同一座標系で記述できる。このため、例えば、立体像βの像点dと観察者位置aとの距離Dが求められる。この距離Dは、像点dの奥行きである。そして、像点dの視差は、距離Dと、予め設定された左右両目の間隔とから、三角測量の原理により求めることができる。従って、像点dと同様、立体像の近点n,遠点fの距離D,距離Dを求めれば、立体像の近点n,遠点fにおける視差範囲及び奥行き範囲を算出することができる。 Here, since both the volume light intensity distribution V 2 and the observer position a to the reference virtual element optical group, stereoscopic images alpha, the position and the observer position a beta, it can be described in the same coordinate system. For this reason, for example, a distance D d between the image point d of the stereoscopic image β and the observer position a is obtained. This distance Dd is the depth of the image point d. The parallax image point d is a distance D d, and a preset distance between the left and right eyes can be determined by the principle of triangulation. Accordingly, as with the image point d, the parallax range and the depth range at the near point n and the far point f of the stereoscopic image can be calculated by obtaining the distance D n and the distance D f between the near point n and the far point f of the stereoscopic image. Can do.

まず、視差範囲算出手段30は、被写体の立体像と立体空間との境界により、立体像の近点nと、立体像の遠点fとを算出する。また、視差範囲算出手段30は、平面光強度分布算出手段10から奥行き情報生成命令が入力されると、体積光強度分布記憶手段20に記憶された体積光強度分布Vを読み出す。また、視差範囲算出手段30は、観察者位置aと立体像の近点nとの距離Dを算出し、観察者位置aと立体像の遠点fとの距離Dを算出する。そして、視差範囲算出手段30は、立体像の近点nでの角度視差量θと、立体像の遠点fでの角度視差量θとを算出する。さらに、視差範囲算出手段30は、これら角度視差量θ,θの差分(θ−θ)を視差範囲として算出し、奥行き範囲算出手段40に出力する。 First, the parallax range calculation unit 30 calculates the near point n of the stereoscopic image and the far point f of the stereoscopic image based on the boundary between the stereoscopic image of the subject and the stereoscopic space. In addition, when the depth information generation command is input from the planar light intensity distribution calculating unit 10, the parallax range calculating unit 30 reads the volume light intensity distribution V 2 stored in the volume light intensity distribution storage unit 20. Also, the parallax range calculation unit 30 calculates the distance D n between the near point n of the observer position a and the stereoscopic image, and calculates the distance D f between the far point f of the observer position a and stereoscopic image. Then, the parallax range calculation unit 30 calculates the angular parallax amount θ n at the near point n of the stereoscopic image and the angular parallax amount θ f at the far point f of the stereoscopic image. Further, the parallax range calculation unit 30 calculates a difference (θ n −θ f ) between these angular parallax amounts θ n and θ f as a parallax range, and outputs the parallax range to the depth range calculation unit 40.

次に、奥行き範囲算出手段40は、被写体の立体像と立体空間との境界により、立体像の近点nと、立体像の遠点fとを算出する。また、奥行き範囲算出手段40は、平面光強度分布算出手段10から奥行き情報生成命令が入力されると、体積光強度分布記憶手段20に記憶された体積光強度分布Vを読み出す。また、奥行き範囲算出手段40は、観察者位置aと立体像の近点nとの距離Dを算出し、観察者位置aと立体像の遠点fとの距離Dを算出する。そして、奥行き範囲算出手段40は、距離D,Dの差分(D−D)を奥行き範囲として算出する。その後、奥行き範囲算出手段40は、算出した奥行き範囲と、視差範囲算出手段30から入力された視差範囲とを、奥行き情報として出力する。
なお、観察者位置は、体積光強度分布(立体空間)の内外に関わらず、任意の位置に設定できる。
Next, the depth range calculation means 40 calculates the near point n of the stereoscopic image and the far point f of the stereoscopic image based on the boundary between the stereoscopic image of the subject and the stereoscopic space. Further, when a depth information generation command is input from the planar light intensity distribution calculating unit 10, the depth range calculating unit 40 reads the volume light intensity distribution V 2 stored in the volume light intensity distribution storage unit 20. Further, the depth range calculation unit 40 calculates the distance D n between the near point n of the observer position a and the stereoscopic image, and calculates the distance D f between the far point f of the observer position a and stereoscopic image. Then, the depth range calculation means 40 calculates a difference (D f −D n ) between the distances D f and D n as a depth range. Thereafter, the depth range calculation unit 40 outputs the calculated depth range and the parallax range input from the parallax range calculation unit 30 as depth information.
The observer position can be set at an arbitrary position regardless of the inside or outside of the volume light intensity distribution (three-dimensional space).

[奥行き情報生成装置の動作]
図7を参照して、図1の奥行き情報生成装置1の動作について説明する(適宜図1参照)。
奥行き情報生成装置1は、平面光強度分布算出手段10によって、入力された要素画像群に対して、仮想要素光学系群を介した波動光学演算を行うことで、距離平面ごとの光強度分布である平面光強度分布を算出する(ステップS1)。
[Operation of depth information generator]
With reference to FIG. 7, the operation of the depth information generating apparatus 1 in FIG. 1 will be described (see FIG. 1 as appropriate).
The depth information generation device 1 performs a wave optical calculation via the virtual element optical system group on the input element image group by the plane light intensity distribution calculation unit 10, thereby obtaining a light intensity distribution for each distance plane. A certain planar light intensity distribution is calculated (step S1).

奥行き情報生成装置1は、平面光強度分布算出手段10によって、距離平面ごとの平面光強度分布を、立体空間上の体積光強度分布として、体積光強度分布記憶手段20に書き込む(ステップS2)。
奥行き情報生成装置1は、視差範囲算出手段30によって、観察者位置において、被写体の立体像の近点と遠点との角度視差量の差分を視差範囲として算出する(ステップS3)。
奥行き情報生成装置1は、奥行き範囲算出手段40によって、観察者位置と被写体の立体像の近点との距離、及び、観察者位置と被写体の立体像の遠点との距離をそれぞれ算出し、これら距離の差分を奥行き範囲として算出する(ステップS4)。
The depth information generation apparatus 1 writes the planar light intensity distribution for each distance plane in the volume light intensity distribution storage unit 20 as the volume light intensity distribution in the three-dimensional space by the plane light intensity distribution calculation unit 10 (step S2).
The depth information generating device 1 calculates the difference in the amount of angular parallax between the near point and the far point of the stereoscopic image of the subject as the parallax range at the observer position by the parallax range calculating unit 30 (step S3).
The depth information generation device 1 calculates the distance between the observer position and the near point of the stereoscopic image of the subject and the distance between the observer position and the far point of the stereoscopic image of the subject by the depth range calculation unit 40, respectively. The difference between these distances is calculated as a depth range (step S4).

以上のように、本願発明の第1実施形態に係る奥行き情報生成装置1は、波動光学演算により、各距離平面における平面光強度分布を正確に求め、この平面光強度分布を奥行き方向に積層した体積光強度分布を記憶する。そして、奥行き情報生成装置1は、記憶された体積光強度分布から、観察者が被写体の立体像を見た場合の視差範囲及び奥行き範囲を、実際に立体表示装置で立体像を表示する前に、高い精度で算出することができる。   As described above, the depth information generation device 1 according to the first embodiment of the present invention accurately obtains the planar light intensity distribution in each distance plane by wave optical calculation, and stacks the planar light intensity distribution in the depth direction. The volume light intensity distribution is stored. Then, the depth information generation device 1 shows the parallax range and the depth range when the observer views the stereoscopic image of the subject from the stored volumetric light intensity distribution before actually displaying the stereoscopic image on the stereoscopic display device. Can be calculated with high accuracy.

なお、第1実施形態では、式(1)及び式(3)のようにフレネル近似を用いる例を説明したが、本願発明は、これに限定されない。例えば、奥行き情報生成装置1は、ホイヘンス・フレネル原理による積分又はフランフォーファ近似による積分を用いて、光波を算出してもよい。   In addition, although 1st Embodiment demonstrated the example using Fresnel approximation like Formula (1) and Formula (3), this invention is not limited to this. For example, the depth information generation apparatus 1 may calculate the light wave using integration based on the Huygens-Fresnel principle or integration based on the Francofa approximation.

(第2実施形態)
図8を参照して、本願発明の第2実施形態に係る奥行き情報生成装置1Bの構成について、第1実施形態と異なる点を説明する。
この奥行き情報生成装置1Bは、算出した視差範囲及び奥行き範囲が所定の閾値を超えた場合に警告する点が、第1実施形態と異なる。
(Second Embodiment)
With reference to FIG. 8, a difference from the first embodiment will be described regarding the configuration of the depth information generating apparatus 1B according to the second embodiment of the present invention.
This depth information generation device 1B is different from the first embodiment in that a warning is issued when the calculated parallax range and depth range exceed predetermined thresholds.

このため、図8に示すように、奥行き情報生成装置1Bは、平面光強度分布算出手段10と、体積光強度分布記憶手段20と、視差範囲算出手段30と、奥行き範囲算出手段40と、視差範囲警告手段50と、奥行き範囲警告手段60とを備える。   For this reason, as shown in FIG. 8, the depth information generating apparatus 1B includes a planar light intensity distribution calculating unit 10, a volume light intensity distribution storing unit 20, a parallax range calculating unit 30, a depth range calculating unit 40, and a parallax. A range warning unit 50 and a depth range warning unit 60 are provided.

この平面光強度分布算出手段10及び体積光強度分布記憶手段20は、図1の各手段と同様のため、説明を省略する。
また、視差範囲算出手段30が視差範囲を視差範囲警告手段50に出力し、奥行き範囲算出手段40が奥行き範囲を奥行き範囲警告手段60に出力する以外、図1の各手段と同様のため、説明を省略する。
The planar light intensity distribution calculating means 10 and the volume light intensity distribution storing means 20 are the same as the means in FIG.
1 except that the parallax range calculation unit 30 outputs the parallax range to the parallax range warning unit 50 and the depth range calculation unit 40 outputs the depth range to the depth range warning unit 60. Is omitted.

視差範囲警告手段50は、視差範囲算出手段30から入力された視差範囲が視差範囲閾値を超えるか否かを判定し、視差範囲が視差範囲閾値を超えるときに警告するものである。ここで、視差範囲警告手段50は、警告方法が特に制限されず、視差範囲の警告メッセージを映像信号に付加してもよい。また、視差範囲警告手段50は、この警告メッセージを予め設定されたメールアドレスに送信してもよく、所定の警告音を鳴らしてもよい。
この視差範囲閾値は、例えば、視差範囲が観察者の許容限度を超えたことを示すような、任意の値で予め設定される。
The parallax range warning unit 50 determines whether or not the parallax range input from the parallax range calculation unit 30 exceeds the parallax range threshold, and warns when the parallax range exceeds the parallax range threshold. Here, the parallax range warning unit 50 may add a warning message of the parallax range to the video signal without any particular limitation on the warning method. Further, the parallax range warning unit 50 may transmit this warning message to a preset mail address or may sound a predetermined warning sound.
The parallax range threshold is set in advance as an arbitrary value, for example, indicating that the parallax range has exceeded the allowable limit of the observer.

奥行き範囲警告手段60は、奥行き範囲算出手段40から入力された奥行き範囲が奥行き範囲閾値を超えるか否かを判定し、奥行き範囲が奥行き範囲閾値を超えるときに警告するものである。ここで、視差範囲警告手段50は、視差範囲警告手段50と同様の警告方法で警告する。
この奥行き範囲閾値は、例えば、奥行き範囲が観察者の許容限度を超えたことを示すような、任意の値で予め設定される。
The depth range warning unit 60 determines whether or not the depth range input from the depth range calculation unit 40 exceeds the depth range threshold, and warns when the depth range exceeds the depth range threshold. Here, the parallax range warning unit 50 gives a warning by the same warning method as the parallax range warning unit 50.
The depth range threshold is set in advance as an arbitrary value, for example, indicating that the depth range has exceeded the allowable limit of the observer.

以上のように、本願発明の第2実施形態に係る奥行き情報生成装置1Bは、第1実施形態と同様の効果に加え、視差範囲や奥行き範囲が観察者の許容限度を超えるような場合に警告できるため、観察者にとって見づらい立体映像が表示される事態を低減させて、立体映像の品質を向上させることができる。   As described above, the depth information generating apparatus 1B according to the second embodiment of the present invention warns when the parallax range or the depth range exceeds the allowable limit of the observer in addition to the same effects as the first embodiment. Therefore, it is possible to improve the quality of the stereoscopic video by reducing the situation in which the stereoscopic video that is difficult for the observer to view is displayed.

(第3実施形態)
図9を参照して、本願発明の第3実施形態に係る奥行き情報生成装置1Cの構成について、第1実施形態と異なる点を説明する。
この奥行き情報生成装置1Cは、入力された要素画像群を遅延時間だけ遅延させて、この遅延時間内での視差範囲の変化量を示す視差変化量と、遅延時間内での奥行き範囲の変化量を示す奥行き変化量とを求める点が、第1実施形態と異なる。
(Third embodiment)
With reference to FIG. 9, the difference from the first embodiment will be described regarding the configuration of the depth information generating apparatus 1C according to the third embodiment of the present invention.
The depth information generation device 1C delays the input element image group by a delay time, and a parallax change amount indicating a change amount of the parallax range within the delay time and a depth range change amount within the delay time. The point which calculates | requires the depth variation | change_quantity which shows is different from 1st Embodiment.

このため、図9に示すように、奥行き情報生成装置1Cは、平面光強度分布算出手段10,10と、体積光強度分布記憶手段20,20と、視差範囲算出手段30,30と、奥行き範囲算出手段40,40と、遅延手段70と、奥行き情報記憶手段80,80と、視差変化量算出手段90と、奥行き変化量算出手段100とを備える。 For this reason, as shown in FIG. 9, the depth information generating apparatus 1C includes planar light intensity distribution calculating means 10 1 , 10 2 , volume light intensity distribution storing means 20 1 , 20 2 , and parallax range calculating means 30 1 , comprises a 30 2, the depth range calculating means 40 1, 40 2, the delay means 70, the depth information storing means 80 1, 80 2, the parallax variation calculating means 90, and a depth variation amount calculating means 100.

以下の説明では、立体画像撮影装置910から要素画像群が入力された時刻をTとし、後記する遅延手段70での遅延処理後の時刻をTとする。従って、遅延時間が(T−T)となり、遅延時間(T−T)だけ遅延させた要素画像群を遅延要素画像群と呼ぶ。 In the following description, the time at which the element image group from the stereoscopic imaging apparatus 910 is input as T 1, the time after the delay processing in the delay means 70 to be described later and T 2. Accordingly, the delay time (T 2 −T 1 ) and the element image group delayed by the delay time (T 2 −T 1 ) is referred to as a delay element image group.

この平面光強度分布算出手段10、体積光強度分布記憶手段20、視差範囲算出手段30及び奥行き範囲算出手段40は、時刻Tの要素画像群を扱う以外、図1の各手段と同様のため、説明を省略する。
また、平面光強度分布算出手段10、体積光強度分布記憶手段20、視差範囲算出手段30及び奥行き範囲算出手段40は、時刻Tの遅延要素画像群を扱う以外、図1の各手段と同様のため、説明を省略する。
The plane light intensity distribution calculating means 10 1, volume light intensity distribution storage unit 20 1, the parallax range calculation unit 30 1 and the depth range calculation unit 40 1, except that handle element images at time T 1, the means of FIG. 1 The description is omitted because it is the same as.
The planar light intensity distribution calculating means 10 2, volume light intensity distribution storage unit 20 2, the disparity range calculation unit 30 2 and the depth range calculation unit 40 2, except that handle delay element images at time T 2, in FIG. 1 Since it is the same as each means, description is abbreviate | omitted.

遅延手段70は、立体画像撮影装置910から入力された要素画像群を遅延時間(T−T)だけ遅延させて、遅延要素画像群を平面光強度分布算出手段10に出力するものである。この遅延手段70は、例えば、要素画像群を記憶するフレームメモリ(不図示)と、このフレームメモリを制御する制御手段(不図示)とで構成される。
この遅延時間(T−T)は、例えば、微少時間を示すような、任意の値で予め設定される。
Delay means 70, the stereoscopic image photographing apparatus 910 delay the input element image group from (T 2 -T 1) by delaying, and outputs the delay element images the plane light intensity distribution calculating means 10 2 is there. The delay means 70 is composed of, for example, a frame memory (not shown) that stores element image groups and a control means (not shown) that controls the frame memory.
This delay time (T 2 −T 1 ) is set in advance as an arbitrary value, for example, indicating a minute time.

奥行き情報記憶手段80は、奥行き範囲算出手段40から入力された時刻Tの奥行き情報(視差範囲及び奥行き範囲)を記憶するメモリ、ハードディスク等の記憶装置である。
奥行き情報記憶手段80は、奥行き範囲算出手段40から入力された時刻Tの奥行き情報(視差範囲及び奥行き範囲)を記憶するメモリ、ハードディスク等の記憶装置である。
Depth information storing section 80 1 is a storage device such as a memory and a hard disk for storing the depth information of the time T 1 which is input from the depth range calculating means 40 1 (disparity range and depth range).
Depth information storing section 802 is a storage device such as a memory and a hard disk for storing the depth information of the time T 2, which is input from the depth range calculating means 40 2 (disparity range and depth range).

視差変化量算出手段90は、奥行き情報記憶手段80に記憶された時刻Tの視差範囲θと、奥行き情報記憶手段80に記憶された時刻Tの視差範囲θとを読み出して、視差範囲θ,θの変化量を視差変化量θdifとして算出するものである。つまり、視差変化量算出手段90は、以下の式(7)に示すように、視差範囲θ,θの差分(θ−θ)を遅延時間(T−T)で除算することで、視差変化量θdifを算出する。その後、視差変化量算出手段90は、この視差変化量θdifを出力する。
θdif=(θ−θ)/(T−T) ・・・式(7)
Parallax change amount calculation unit 90 reads the parallax range theta 1 at time T 1, which is stored in the depth information storing means 80 1, and a parallax range theta 2 of time T 2, which is stored in the depth information storing means 80 2 The change amount of the parallax ranges θ 1 and θ 2 is calculated as the parallax change amount θ dif . That is, the parallax change amount calculation unit 90 divides the difference (θ 2 −θ 1 ) between the parallax ranges θ 1 and θ 2 by the delay time (T 2 −T 1 ) as shown in the following equation (7). Thus, the parallax change amount θ dif is calculated. Thereafter, the parallax change amount calculating means 90 outputs the parallax change amount θ dif .
θ dif = (θ 2 −θ 1 ) / (T 2 −T 1 ) (7)

奥行き変化量算出手段100は、奥行き情報記憶手段80に記憶された時刻Tの奥行き範囲Dと、奥行き情報記憶手段80に記憶された時刻Tの奥行き範囲Dとを読み出して、奥行き範囲D,Dの変化量を奥行き変化量Ddifとして算出するものである。つまり、奥行き変化量算出手段100は、以下の式(8)に示すように、奥行き範囲(D−D)の差分を遅延時間(T−T)で除算することで、奥行き変化量Ddifを算出する。その後、奥行き変化量算出手段100は、この奥行き変化量Ddifを出力する。
dif=(D−D)/(T−T) ・・・式(8)
Depth variation amount calculating means 100 reads the depth range D 1 of the time T 1, which is stored in the depth information storing means 80 1, and a depth range D 2 of time T 2, which is stored in the depth information storing means 80 2 The change amount of the depth ranges D 1 and D 2 is calculated as the depth change amount D dif . That is, the depth change amount calculation unit 100 divides the difference in the depth range (D 2 −D 1 ) by the delay time (T 2 −T 1 ) as shown in the following equation (8), thereby changing the depth change. The quantity D dif is calculated. Thereafter, the depth change amount calculation means 100 outputs the depth change amount Ddif .
D dif = (D 2 −D 1 ) / (T 2 −T 1 ) (8)

以上のように、本願発明の第3実施形態に係る奥行き情報生成装置1Cは、第1実施形態と同様の効果に加え、遅延時間内での視差変化量及び奥行き変化量を求められるので、立体映像の演出や編集をより効果的に行うことができる。   As described above, the depth information generating apparatus 1C according to the third embodiment of the present invention can obtain the parallax change amount and the depth change amount within the delay time in addition to the same effect as the first embodiment. Video production and editing can be performed more effectively.

(第4実施形態)
図10を参照して、本願発明の第4実施形態に係る奥行き情報生成装置1Dの構成について、第3実施形態と異なる点を説明する。
この奥行き情報生成装置1Dは、算出した視差変化量及び奥行き変化量が所定の閾値を超えた場合に警告する点が、第3実施形態と異なる。
(Fourth embodiment)
With reference to FIG. 10, the difference from the third embodiment will be described regarding the configuration of the depth information generating apparatus 1D according to the fourth embodiment of the present invention.
This depth information generation device 1D is different from the third embodiment in that a warning is issued when the calculated parallax change amount and depth change amount exceed a predetermined threshold.

このため、図10に示すように、奥行き情報生成装置1Dは、平面光強度分布算出手段10,10と、体積光強度分布記憶手段20,20と、視差範囲算出手段30,30と、奥行き範囲算出手段40,40と、遅延手段70と、奥行き情報記憶手段80,80と、視差変化量算出手段90と、奥行き変化量算出手段100と、視差変化量警告手段110と、奥行き変化量警告手段120とを備える。 For this reason, as shown in FIG. 10, the depth information generating apparatus 1D includes a planar light intensity distribution calculating unit 10 1 , 10 2 , a volume light intensity distribution storing unit 20 1 , 20 2, and a parallax range calculating unit 30 1 , 30 2, the depth range calculating means 40 1, 40 2, the delay means 70, the depth information storing means 80 1, 80 2, the parallax variation calculating means 90, the depth change amount calculation unit 100, the parallax variation Warning means 110 and depth change amount warning means 120 are provided.

この平面光強度分布算出手段10,10、体積光強度分布記憶手段20,20、視差範囲算出手段30,30、奥行き範囲算出手段40,40、遅延手段70、奥行き情報記憶手段80,80は、図9の各手段と同様のため、説明を省略する。
視差変化量算出手段90が視差変化量を視差変化量警告手段110に出力し、奥行き変化量算出手段100が奥行き変化量を奥行き変化量警告手段120に出力する以外、図9の各手段と同様のため、説明を省略する。
The planar light intensity distribution calculating means 10 1 , 10 2 , volume light intensity distribution storing means 20 1 , 20 2 , parallax range calculating means 30 1 , 30 2 , depth range calculating means 40 1 , 40 2 , delay means 70, depth The information storage means 80 1 and 80 2 are the same as the respective means in FIG.
9 except that the parallax change amount calculating unit 90 outputs the parallax change amount to the parallax change amount warning unit 110, and the depth change amount calculating unit 100 outputs the depth change amount to the depth change amount warning unit 120. Therefore, explanation is omitted.

視差変化量警告手段110は、視差変化量算出手段90から入力された視差変化量が視差変化量閾値を超えるか否かを判定し、視差変化量が視差変化量閾値を超えるときに警告するものである。ここで、視差変化量警告手段110は、図8の視差範囲警告手段50と同様の警告方法で警告する。
この視差変化量閾値は、例えば、視差変化量が観察者の許容限度を超えたことを示すような、任意の値で予め設定される。
The parallax change amount warning unit 110 determines whether or not the parallax change amount input from the parallax change amount calculation unit 90 exceeds a parallax change amount threshold, and warns when the parallax change amount exceeds the parallax change amount threshold. It is. Here, the parallax change amount warning means 110 gives a warning by the same warning method as the parallax range warning means 50 of FIG.
This parallax change amount threshold value is set in advance as an arbitrary value, for example, indicating that the parallax change amount exceeds the allowable limit of the observer.

奥行き変化量警告手段120は、奥行き変化量算出手段100から入力された奥行き変化量が奥行き変化量閾値を超えるか否かを判定し、奥行き変化量が奥行き変化量閾値を超えるときに警告するものである。ここで、奥行き変化量警告手段120は、図8の視差範囲警告手段50と同様の警告方法で警告する。
この奥行き変化量閾値は、例えば、奥行き変化量が観察者の許容限度を超えたことを示すような、任意の値で予め設定される。
The depth change amount warning means 120 determines whether or not the depth change amount input from the depth change amount calculation means 100 exceeds the depth change amount threshold value, and warns when the depth change amount exceeds the depth change amount threshold value. It is. Here, the depth change amount warning means 120 gives a warning by the same warning method as the parallax range warning means 50 of FIG.
This depth change amount threshold value is set in advance as an arbitrary value, for example, indicating that the depth change amount exceeds the allowable limit of the observer.

以上のように、本願発明の第4実施形態に係る奥行き情報生成装置1Dは、第3実施形態と同様の効果に加え、視差範囲や奥行き範囲が観察者の許容限度を超えて変化するような場合に警告できるので、観察者にとって見づらい立体映像が表示される事態を低減させて、立体映像の品質を向上させることができる。   As described above, the depth information generating apparatus 1D according to the fourth embodiment of the present invention has the same effect as the third embodiment, and the parallax range and the depth range change beyond the allowable limit of the observer. In such a case, it is possible to reduce the situation in which a stereoscopic video that is difficult for an observer to view is displayed, and improve the quality of the stereoscopic video.

なお、各実施形態では、体積光強度分布を用いて、視差範囲、奥行き範囲、視差変化量及び奥行き変化量を算出することとしたが、本願発明は、これに限定されない。例えば、本願発明は、体積光強度分布から、視差の分布、特定の被写体に対する立体映像の奥行きの時間変化、複数の時刻における視差変化量や奥行き変化量を算出してもよい。   In each embodiment, the parallax range, the depth range, the parallax change amount, and the depth change amount are calculated using the volume light intensity distribution, but the present invention is not limited to this. For example, the present invention may calculate a parallax distribution, a temporal change in the depth of a stereoscopic video for a specific subject, a parallax change amount and a depth change amount at a plurality of times from the volumetric light intensity distribution.

1,1B,1C,1D 奥行き情報生成装置(奥行き範囲算出装置)
10,10,10 平面光強度分布算出手段
11 分配手段
13 要素画像変換手段
13a 光波算出手段(第1光波算出手段)
13b 位相シフト手段
13c 光波算出手段(第2光波算出手段)
15 結合手段
20,20,20 体積光強度分布記憶手段
30,30,30 視差範囲算出手段
40,40,40 奥行き範囲算出手段
50 視差範囲警告手段
60 奥行き範囲警告手段
70 遅延手段
80,80 奥行き情報記憶手段
90 視差変化量算出手段
100 奥行き変化量算出手段
110 視差変化量警告手段
120 奥行き変化量警告手段
1,1B, 1C, 1D Depth information generation device (depth range calculation device)
10, 10 1 , 10 2 plane light intensity distribution calculating means 11 distributing means 13 element image converting means 13a light wave calculating means (first light wave calculating means)
13b Phase shift means 13c Light wave calculation means (second light wave calculation means)
15 coupling means 20, 20 1 , 20 2 volume light intensity distribution storage means 30, 30 1 , 30 2 parallax range calculation means 40, 40 1 , 40 2 depth range calculation means 50 parallax range warning means 60 depth range warning means 70 delay Means 80 1 , 80 2 Depth information storage means 90 Parallax change amount calculation means 100 Depth change amount calculation means 110 Parallax change amount warning means 120 Depth change amount warning means

Claims (6)

インテグラルフォトグラフィ方式を用いた立体画像撮影装置が被写体を撮影した要素画像群から、前記被写体の立体像の視差範囲及び奥行き範囲を算出する奥行き範囲算出装置であって、
前記立体画像撮影装置が撮影した要素画像群を入力し、当該要素画像群に対して、前記要素画像群を表示する立体画像表示装置の要素光学系のピッチおよび焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介した波動光学演算を行うことで、当該仮想要素光学系群からの距離が異なる予め設定された距離平面ごとの光強度分布である平面光強度分布を算出する平面光強度分布算出手段と、
この平面光強度分布算出手段で算出された距離平面ごとの平面光強度分布を立体空間上の体積光強度分布として記憶する体積光強度分布記憶手段と、
前記仮想要素光学系群を基準に予め設定された観察者位置において、奥行き方向で前記体積光強度分布がゼロとなる位置を前記被写体の立体像の近点及び遠点としてそれぞれ算出し、当該近点と当該遠点との角度視差量の差分を前記視差範囲として算出する視差範囲算出手段と、
前記観察者位置と前記近点との距離、及び、前記観察者位置と前記遠点との距離をそれぞれ算出し、2つの当該距離の差分を前記奥行き範囲として算出する奥行き範囲算出手段と、
を備えることを特徴とする奥行き範囲算出装置。
A depth range calculation device that calculates a parallax range and a depth range of a stereoscopic image of a subject from a group of element images obtained by photographing a subject with a stereoscopic image photographing device using an integral photography system,
A virtual element optical system having the same pitch and focal length of an element optical system of a stereoscopic image display apparatus that inputs an element image group captured by the stereoscopic image capturing apparatus and displays the element image group with respect to the element image group. A planar light intensity distribution that is a light intensity distribution for each preset distance plane that is different in distance from the virtual element optical system group by performing wave optical calculation via the virtual element optical system group arranged in two dimensions. Planar light intensity distribution calculating means for calculating
A volume light intensity distribution storage means for storing a plane light intensity distribution for each distance plane calculated by the plane light intensity distribution calculation means as a volume light intensity distribution in a three-dimensional space;
At the observer position preset with reference to the virtual element optical system group, the positions where the volume light intensity distribution becomes zero in the depth direction are respectively calculated as the near point and the far point of the stereoscopic image of the subject, A parallax range calculating means for calculating a difference in the amount of angular parallax between the point and the far point as the parallax range;
A depth range calculation means for calculating a distance between the observer position and the near point, and a distance between the observer position and the far point, and calculating a difference between the two distances as the depth range;
A depth range calculation apparatus comprising:
前記平面光強度分布算出手段は、
前記仮想要素光学系のピッチに基づいて、前記立体画像撮影装置が撮影した要素画像群を、要素画像ごとに分配する分配手段と、
この分配手段で分配された要素画像ごとに、当該要素画像の光波を、前記仮想要素光学系の焦点距離だけ伝搬させることで、前記仮想要素光学系に入射する光波を算出する第1光波算出手段と、
この第1光波算出手段で算出された前記仮想要素光学系に入射した要素画像ごとの光波を、前記仮想要素光学系の位相分だけシフトさせる位相シフト手段と、
この位相シフト手段で位相シフトされた光波を、それぞれの前記距離平面まで伝搬させることで、前記距離平面ごとの要素画像の光波を算出する第2光波算出手段と、
前記距離平面ごとに、前記第2光波算出手段で算出された要素画像の光波を、前記要素画像群分だけ結合して前記平面光強度分布とする結合手段と、
を備えることを特徴とする請求項1に記載の奥行き範囲算出装置。
The planar light intensity distribution calculating means includes
Distributing means for distributing the element image group captured by the stereoscopic image capturing device for each element image based on the pitch of the virtual element optical system;
First light wave calculating means for calculating the light wave incident on the virtual element optical system by propagating the light wave of the element image for the focal length of the virtual element optical system for each element image distributed by the distributing means. When,
Phase shift means for shifting the light wave of each element image incident on the virtual element optical system calculated by the first light wave calculation means by the phase of the virtual element optical system;
A second light wave calculation means for calculating the light wave of the element image for each distance plane by propagating the light wave phase-shifted by the phase shift means to each of the distance planes;
Combining means for combining the light waves of the element images calculated by the second light wave calculating means for the distance planes by the element image group to form the planar light intensity distribution;
The depth range calculation apparatus according to claim 1, comprising:
前記立体画像撮影装置が撮影した要素画像群を予め設定された遅延時間だけ遅延させて、遅延要素画像群を出力する遅延手段をさらに備え、
前記平面光強度分布算出手段は、前記要素画像群及び前記遅延手段が遅延させた遅延要素画像群から、前記平面光強度分布を算出し、
前記体積光強度分布記憶手段は、前記要素画像群及び前記遅延要素画像群から算出された前記平面光強度分布を、前記体積光強度分布としてそれぞれ記憶し、
前記視差範囲算出手段は、前記要素画像群及び前記遅延要素画像群の前記体積光強度分布から、前記視差範囲をそれぞれ算出し、
前記奥行き範囲算出手段は、前記要素画像群及び前記遅延要素画像群の前記体積光強度分布から、前記奥行き範囲をそれぞれ算出し、
前記視差範囲算出手段が算出した要素画像群と遅延要素画像群との視差範囲の変化量を視差変化量として算出する視差変化量算出手段と、
前記奥行き範囲算出手段が算出した要素画像群と遅延要素画像群との奥行き範囲の変化量を奥行き変化量として算出する奥行き変化量算出手段と、
をさらに備えることを特徴とする請求項1又は請求項2に記載の奥行き範囲算出装置。
A delay unit that delays the element image group captured by the stereoscopic image capturing apparatus by a preset delay time and outputs the delay element image group;
The planar light intensity distribution calculating means calculates the planar light intensity distribution from the element image group and the delayed element image group delayed by the delay means,
The volume light intensity distribution storage means stores the planar light intensity distribution calculated from the element image group and the delay element image group as the volume light intensity distribution,
The parallax range calculation means calculates the parallax range from the volume light intensity distribution of the element image group and the delay element image group,
The depth range calculation means calculates the depth range from the volume light intensity distribution of the element image group and the delay element image group,
Parallax change amount calculating means for calculating a change amount of the parallax range between the element image group and the delay element image group calculated by the parallax range calculating means as a parallax change amount;
A depth change amount calculating means for calculating a change amount of the depth range between the element image group and the delay element image group calculated by the depth range calculating means as a depth change amount;
The depth range calculation apparatus according to claim 1, further comprising:
前記視差範囲算出手段で算出された視差範囲が予め設定された視差範囲閾値を超えるか否かを判定し、前記視差範囲が前記視差範囲閾値を超えるときに警告する視差範囲警告手段と、
前記奥行き範囲算出手段で算出された奥行き範囲が予め設定された奥行き範囲閾値を超えるか否かを判定し、前記奥行き範囲が前記奥行き範囲閾値を超えるときに警告する奥行き範囲警告手段と、
をさらに備えることを特徴とする請求項1又は請求項2に記載の奥行き範囲算出装置。
A parallax range warning unit that determines whether or not the parallax range calculated by the parallax range calculation unit exceeds a preset parallax range threshold and warns when the parallax range exceeds the parallax range threshold;
A depth range warning unit that determines whether or not the depth range calculated by the depth range calculation unit exceeds a preset depth range threshold, and warns when the depth range exceeds the depth range threshold;
The depth range calculation apparatus according to claim 1, further comprising:
前記視差変化量算出手段で算出された視差変化量が予め設定された視差変化量閾値を超えるか否かを判定し、前記視差変化量が前記視差変化量閾値を超えるときに警告する視差変化量警告手段と、
前記奥行き変化量算出手段で算出された奥行き変化量が予め設定された奥行き変化量閾値を超えるか否かを判定し、前記奥行き変化量が前記奥行き変化量閾値を超えるときに警告する奥行き変化量警告手段と、
をさらに備えることを特徴とする請求項3に記載の奥行き範囲算出装置。
A parallax change amount that determines whether the parallax change amount calculated by the parallax change amount calculation unit exceeds a preset parallax change amount threshold and warns when the parallax change amount exceeds the parallax change amount threshold Warning means;
Depth change amount that determines whether or not the depth change amount calculated by the depth change amount calculation unit exceeds a preset depth change amount threshold value and warns when the depth change amount exceeds the depth change amount threshold value Warning means;
The depth range calculation apparatus according to claim 3, further comprising:
インテグラルフォトグラフィ方式を用いた立体画像撮影装置が被写体を撮影した要素画像群から、前記被写体の立体像の視差範囲及び奥行き範囲を算出するために、体積光強度分布記憶手段を備えるコンピュータを、
前記立体画像撮影装置が撮影した要素画像群を入力し、当該要素画像群に対して、前記要素画像群を表示する立体画像表示装置の要素光学系のピッチおよび焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介した波動光学演算を行うことで、当該仮想要素光学系群からの距離が異なる予め設定された距離平面ごとの光強度分布である平面光強度分布を算出し、算出した当該平面光強度分布を立体空間上の体積光強度分布として前記体積光強度分布記憶手段に書き込む平面光強度分布算出手段、
前記仮想要素光学系群を基準に予め設定された観察者位置において、奥行き方向で前記体積光強度分布がゼロとなる位置を前記被写体の立体像の近点及び遠点としてそれぞれ算出し、当該近点と当該遠点との角度視差量の差分を前記視差範囲として算出する視差範囲算出手段、
前記観察者位置と前記近点との距離、及び、前記観察者位置と前記遠点との距離をそれぞれ算出し、2つの当該距離の差分を前記奥行き範囲として算出する奥行き範囲算出手段、
として機能させるための奥行き範囲算出プログラム。
In order to calculate a parallax range and a depth range of a stereoscopic image of the subject from a group of element images in which the stereoscopic image capturing device using the integral photography system has captured the subject, a computer including volumetric light intensity distribution storage means,
A virtual element optical system having the same pitch and focal length of an element optical system of a stereoscopic image display apparatus that inputs an element image group captured by the stereoscopic image capturing apparatus and displays the element image group with respect to the element image group. A planar light intensity distribution that is a light intensity distribution for each preset distance plane that is different in distance from the virtual element optical system group by performing wave optical calculation via the virtual element optical system group arranged in two dimensions. A plane light intensity distribution calculating means for writing the calculated plane light intensity distribution into the volume light intensity distribution storage means as a volume light intensity distribution in a three-dimensional space;
At the observer position preset with reference to the virtual element optical system group, the positions where the volume light intensity distribution becomes zero in the depth direction are respectively calculated as the near point and the far point of the stereoscopic image of the subject, A parallax range calculating means for calculating a difference in the amount of angular parallax between the point and the far point as the parallax range;
A depth range calculating means for calculating a distance between the observer position and the near point, and a distance between the observer position and the far point, and calculating a difference between the two distances as the depth range;
Depth range calculation program to function as
JP2012205497A 2012-09-19 2012-09-19 Depth range calculation device and program thereof Active JP5993261B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012205497A JP5993261B2 (en) 2012-09-19 2012-09-19 Depth range calculation device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012205497A JP5993261B2 (en) 2012-09-19 2012-09-19 Depth range calculation device and program thereof

Publications (2)

Publication Number Publication Date
JP2014060649A JP2014060649A (en) 2014-04-03
JP5993261B2 true JP5993261B2 (en) 2016-09-14

Family

ID=50616726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012205497A Active JP5993261B2 (en) 2012-09-19 2012-09-19 Depth range calculation device and program thereof

Country Status (1)

Country Link
JP (1) JP5993261B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6076082B2 (en) * 2012-12-26 2017-02-08 日本放送協会 Stereoscopic image correction apparatus and program thereof
KR101881755B1 (en) * 2016-11-02 2018-07-25 충북대학교 산학협력단 Apparatus and method for assessing image quality of integral imaging display
JP6963295B2 (en) * 2017-09-01 2021-11-05 学校法人東京電機大学 3D information acquisition device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4676862B2 (en) * 2005-10-20 2011-04-27 日本放送協会 Stereoscopic image re-photographing device
JP4829924B2 (en) * 2008-05-08 2011-12-07 日本放送協会 Stereoscopic image conversion apparatus and program thereof
JP2012083412A (en) * 2010-10-07 2012-04-26 Sony Corp Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2014060649A (en) 2014-04-03

Similar Documents

Publication Publication Date Title
JP6018468B2 (en) Depth range calculation device and program thereof
KR101629479B1 (en) High density multi-view display system and method based on the active sub-pixel rendering
JP2009300268A (en) Three-dimensional information detection device
CN102812712B (en) Image processing device and image processing method
US8643645B2 (en) Method and apparatus for generating elemental image in integral imaging
JP2010039501A (en) Method for generating free viewpoint video image in three-dimensional movement, and recording medium
JP2008146221A (en) Image display system
KR20070104209A (en) System for providing three-dimensional integral imaging using multi-layered display device
JP4676862B2 (en) Stereoscopic image re-photographing device
JP2015132953A (en) Image processor and method thereof
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
JP5993261B2 (en) Depth range calculation device and program thereof
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP2017011520A (en) Stereoscopic image depth conversion device and program therefor
JP4875680B2 (en) 3D information integration apparatus and 3D information integration program
JP4829924B2 (en) Stereoscopic image conversion apparatus and program thereof
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
JP2019149777A (en) Image processing apparatus and image processing program
JP2011211551A (en) Image processor and image processing method
JP6076082B2 (en) Stereoscopic image correction apparatus and program thereof
KR100609379B1 (en) Three-dimensional display using point source array of light
JP6313569B2 (en) 3D image generation device, program thereof, and 3D image display device
JP6118527B2 (en) Spatial distortion correction apparatus and program thereof
JP2009210486A (en) Depth data generating device, depth data generation method, and program thereof
KR20150098252A (en) Computer graphics based stereo floting integral imaging creation system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160819

R150 Certificate of patent or registration of utility model

Ref document number: 5993261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250