JP2014127788A - Device of correcting stereoscopic image, and program of the same - Google Patents

Device of correcting stereoscopic image, and program of the same Download PDF

Info

Publication number
JP2014127788A
JP2014127788A JP2012282069A JP2012282069A JP2014127788A JP 2014127788 A JP2014127788 A JP 2014127788A JP 2012282069 A JP2012282069 A JP 2012282069A JP 2012282069 A JP2012282069 A JP 2012282069A JP 2014127788 A JP2014127788 A JP 2014127788A
Authority
JP
Japan
Prior art keywords
depth
depth range
stereoscopic image
time change
intensity distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012282069A
Other languages
Japanese (ja)
Other versions
JP6076082B2 (en
Inventor
Jun Arai
淳 洗井
Yoshiaki Shishikui
善明 鹿喰
Hitoshi Hiura
人誌 日浦
Hisayuki Sasaki
久幸 佐々木
Masato Miura
雅人 三浦
Yuichi Iwadate
祐一 岩舘
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012282069A priority Critical patent/JP6076082B2/en
Publication of JP2014127788A publication Critical patent/JP2014127788A/en
Application granted granted Critical
Publication of JP6076082B2 publication Critical patent/JP6076082B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device of correcting a stereoscopic image capable of correcting a depth of a stereoscopic image within a proper range for an observer.SOLUTION: A stereoscopic image correction device 1 corrects a depth range of an element image group photographed by a stereoscopic image photographing device 100 when a stereoscopic image is displayed by an IP system in a stereoscopic image display device 200. The stereoscopic image correction device 1 comprises: depth range calculation means 11 calculating a display depth range at the time when the element image group is displayed at a stereoscopic image display device 200; depth range determination means 13 determining whether or not the display depth range calculated by the depth range calculation means 11 exceeds a reference depth range; and stereoscopic image processing means 20 correcting the display depth range of the element image group so that the display depth range falls within the reference depth range in the case that the display depth range exceeds the reference depth range.

Description

本発明は、インテグラルフォトグラフィ方式により被写体を撮影した要素画像群を補正する立体画像補正装置及びそのプログラムに関する。   The present invention relates to a stereoscopic image correction apparatus for correcting an element image group obtained by photographing a subject by an integral photography method and a program therefor.

従来から、任意の視点から自由に立体映像を視聴することが可能な立体画像表示方式の一つとして、平面状に配列された凸レンズ群あるいはピンホール群を利用したインテグラルフォトグラフィ(Integral Photography:以下IP)方式が知られている。   Conventionally, as one of the stereoscopic image display methods capable of freely viewing stereoscopic images from an arbitrary viewpoint, integral photography (Integral Photography) using a group of convex lenses or pinholes arranged in a planar shape is possible. Hereinafter, the IP) method is known.

以下、図18,図19を参照して、IP方式に基づく通常の立体画像撮影及び立体画像表示について説明する。図18に示すように、立体画像撮影装置910は、同一平面上に凸レンズを配列したレンズ群912と、撮像板913とを備える。また、図18には、被写体911と、立体画像撮影装置910の撮影方向914と、レンズ群912によって結像される被写体911の要素画像915とを図示した。この被写体911は、撮影方向914から見た場合、円柱が角柱に対して手前になる。   Hereinafter, normal stereoscopic image capturing and stereoscopic image display based on the IP method will be described with reference to FIGS. 18 and 19. As illustrated in FIG. 18, the stereoscopic image capturing device 910 includes a lens group 912 in which convex lenses are arranged on the same plane, and an imaging plate 913. FIG. 18 illustrates a subject 911, a photographing direction 914 of the stereoscopic image photographing device 910, and an element image 915 of the subject 911 formed by the lens group 912. When the subject 911 is viewed from the shooting direction 914, the cylinder is in front of the prism.

この立体画像撮影装置910は、レンズ群912を通して被写体911を撮影する。すると、撮像板913には、レンズ群912を構成する凸レンズと同じ数だけ被写体911の要素画像915が生成される。   The stereoscopic image photographing device 910 photographs a subject 911 through a lens group 912. Then, the same number of element images 915 of the subject 911 as the convex lenses that form the lens group 912 are generated on the imaging plate 913.

図19に示すように、立体画像表示装置920は、同一平面上に凸レンズを配列したレンズ群922と、表示素子923とを備える。また、図19には、立体像921と、観察者926の観察方向924と、要素画像925と、観察者926とを図示した。この表示素子923は、立体画像撮影装置910の撮像板913により撮影された要素画像915に対応する要素画像925を表示する。   As shown in FIG. 19, the stereoscopic image display device 920 includes a lens group 922 in which convex lenses are arranged on the same plane, and a display element 923. Further, FIG. 19 illustrates a stereoscopic image 921, an observation direction 924 of the observer 926, an element image 925, and an observer 926. The display element 923 displays an element image 925 corresponding to the element image 915 photographed by the imaging plate 913 of the stereoscopic image photographing device 910.

この結果、図19に示すように、立体像921は、表示素子923からの距離が、図18の被写体911と撮像板913との距離に等しくなるように生成される。このとき、被写体911に対応する立体像921は、観察方向924から見た場合、角柱が円柱の手前になる。つまり、IP方式に基づく通常の立体画像撮影では、図18の被写体911と比較して、奥行きが反転した逆視像(立体像921)が生成される。   As a result, as shown in FIG. 19, the stereoscopic image 921 is generated such that the distance from the display element 923 is equal to the distance between the subject 911 and the imaging plate 913 in FIG. At this time, in the stereoscopic image 921 corresponding to the subject 911, when viewed from the observation direction 924, the prism is in front of the cylinder. That is, in normal stereoscopic image shooting based on the IP method, a reverse-view image (stereoscopic image 921) having a depth inverted compared to the subject 911 in FIG. 18 is generated.

なお、図18,図19では、光学素子アレイは、微小な凸レンズが配列されたレンズ群912であることとして説明したが、微小なピンホールが配列された開口アレイ(空間フィルタ)であってもよい。
また、表示素子923は、撮像板913により撮影された要素画像925を表示することとして説明したが、計算機(不図示)で生成された像を表示してもよい。
In FIGS. 18 and 19, the optical element array is described as the lens group 912 in which minute convex lenses are arranged. However, the optical element array may be an aperture array (spatial filter) in which minute pinholes are arranged. Good.
Further, although the display element 923 has been described as displaying the element image 925 captured by the imaging plate 913, an image generated by a computer (not shown) may be displayed.

そこで、前記した逆視像の問題を解決するための発明が提案されている(例えば、特許文献1)。この特許文献1に記載の発明は、図18の立体画像撮影装置910で取得した情報に対して演算処理を行い、演算処理後の情報を図19の立体画像表示装置920に入力し、最終的に正しい奥行きの立体像921を生成するものである。   Therefore, an invention for solving the above-described problem of reverse vision has been proposed (for example, Patent Document 1). The invention described in Patent Document 1 performs arithmetic processing on the information acquired by the stereoscopic image capturing device 910 in FIG. 18 and inputs the information after the arithmetic processing to the stereoscopic image display device 920 in FIG. A stereoscopic image 921 having a correct depth is generated.

以下、図20,図21を参照して、特許文献1に記載の画像奥行き変換装置930について説明する。図20に示すように、画像奥行き変換装置930は、図18の立体画像撮影装置910で撮影した要素画像931を入力し、この要素画像931が第1の仮想レンズアレイ932を通じて仮想的に形成された立体像933を、演算処理により求める。そして、画像奥行き変換装置930は、この立体像933が第2の仮想レンズアレイ934を通じて仮想的に形成された要素画像935を、演算処理により求める。   Hereinafter, with reference to FIGS. 20 and 21, an image depth conversion device 930 described in Patent Document 1 will be described. As shown in FIG. 20, the image depth conversion device 930 receives the element image 931 captured by the stereoscopic image capturing device 910 of FIG. 18, and this element image 931 is virtually formed through the first virtual lens array 932. The obtained stereoscopic image 933 is obtained by arithmetic processing. Then, the image depth conversion device 930 obtains an element image 935 in which the stereoscopic image 933 is virtually formed through the second virtual lens array 934 by arithmetic processing.

図21に示すように、立体画像表示装置940は、図19の立体画像表示装置920と同一構成であり、表示素子945を介して、図20の画像奥行き変換装置930が生成した要素画像941(つまり、図20の要素画像935)を表示する。この結果、要素画像941に対応する立体像943は、観察方向944から見た場合、円柱が角柱に対して手前になり、図17の被写体911と対比して、奥行きが等価になる。   As shown in FIG. 21, the stereoscopic image display device 940 has the same configuration as the stereoscopic image display device 920 in FIG. 19, and the element image 941 (the image depth conversion device 930 in FIG. 20 generates via the display element 945 ( That is, the element image 935) of FIG. 20 is displayed. As a result, when the stereoscopic image 943 corresponding to the element image 941 is viewed from the observation direction 944, the cylinder is in front of the prism and the depth is equivalent to the subject 911 in FIG.

特開2007−114483号公報JP 2007-114483 A

従来のIP方式で表示される立体像は、両眼視差のみを用いるディスプレイによって得られる立体映像と異なり、光学的な空間像に相当する。従って、従来のIP方式において、観察者が立体像を見る状態が、被写体の実物を見る状態と同様の視認性を有することになる。   A stereoscopic image displayed by the conventional IP method corresponds to an optical aerial image, unlike a stereoscopic image obtained by a display using only binocular parallax. Therefore, in the conventional IP system, the state in which the observer sees the stereoscopic image has the same visibility as the state in which the real object is viewed.

ここで、被写体の実物を見る際、過度に眼の近い位置に被写体が配置される場合、又は、奥行き方向に頻繁に見る場所が変わる場合、眼精疲労を引き起こす可能性がある。つまり、従来のIP方式で表示された立体像を見る場合、被写体の実物を見る際と同様、眼精疲労を引き起こす可能性がある。   Here, when looking at the actual object, if the object is placed too close to the eye, or if the place where the object is viewed frequently changes in the depth direction, eye strain may occur. That is, when viewing a stereoscopic image displayed by the conventional IP method, eye strain may occur as in the case of viewing the actual subject.

そこで、本願発明は、立体像の奥行きを観察者にとって適切な範囲内に補正できる立体画像補正装置及びそのプログラムを提供することを課題とする。   Therefore, an object of the present invention is to provide a stereoscopic image correction apparatus and a program thereof that can correct the depth of a stereoscopic image within an appropriate range for an observer.

前記課題に鑑みて、本願第1発明に係る立体画像補正装置は、IP方式により立体画像撮影装置で撮影された要素画像群が立体画像表示装置で表示された際の立体像の奥行き範囲と、奥行き範囲の変化量である奥行き時間変化とを補正する立体画像補正装置であって、遅延手段と、奥行き範囲算出手段と、奥行き範囲判定手段と、奥行き時間変化算出手段と、奥行き時間変化判定手段と、平面光強度分布算出手段と、体積光強度分布記憶手段と、奥行き範囲補正手段と、補正要素画像群生成手段と、を備えることを特徴とする。   In view of the above problems, the stereoscopic image correction apparatus according to the first invention of the present application includes a depth range of a stereoscopic image when an elemental image group captured by the stereoscopic image capturing apparatus by the IP method is displayed on the stereoscopic image display apparatus, and A stereoscopic image correction apparatus that corrects a depth time change that is a change amount of a depth range, and includes a delay unit, a depth range calculation unit, a depth range determination unit, a depth time change calculation unit, and a depth time change determination unit. And a planar light intensity distribution calculating means, a volume light intensity distribution storing means, a depth range correcting means, and a correction element image group generating means.

かかる構成によれば、立体画像補正装置は、遅延手段によって、要素画像群が入力され、入力された要素画像群を予め設定された遅延時間だけ遅延させて、遅延要素画像群を出力する。   According to this configuration, the stereoscopic image correction apparatus receives the element image group by the delay unit, delays the input element image group by a preset delay time, and outputs the delay element image group.

また、立体画像補正装置は、奥行き範囲算出手段によって、要素画像群及び遅延要素画像群がそれぞれ立体画像表示装置で表示された際の表示奥行き範囲及び遅延表示奥行き範囲を、所定の奥行き範囲算出法により算出する。
この表示奥行き範囲は、立体映像を再生する際、奥行き方向で立体像が表示される範囲、つまり、立体像の奥行き距離を示す。
In addition, the stereoscopic image correction apparatus uses a depth range calculation unit to calculate a display depth range and a delayed display depth range when the element image group and the delay element image group are each displayed on the stereoscopic image display device by a predetermined depth range calculation method. Calculated by
This display depth range indicates a range in which a stereoscopic image is displayed in the depth direction when reproducing a stereoscopic video, that is, a depth distance of the stereoscopic image.

また、立体画像補正装置は、奥行き範囲判定手段によって、表示奥行き範囲が予め設定された基準奥行き範囲(例えば、観察者にとって適切な奥行き範囲)を超えるか否かを判定する。この基準奥行き範囲は、観察者毎に固有の奥行き範囲であってもよく、全ての観察者に共通する奥行き範囲であってもよい。
ここで、表示奥行き範囲が基準奥行き範囲を超えて、立体映像の再生時に眼精疲労を引き起こす可能性がある場合、要素画像群は、以下の手順で補正される。
In the stereoscopic image correction apparatus, the depth range determination unit determines whether the display depth range exceeds a preset reference depth range (for example, a depth range appropriate for an observer). This reference depth range may be a depth range unique to each observer, or may be a depth range common to all observers.
Here, when the display depth range exceeds the reference depth range and there is a possibility of causing eye strain when reproducing a stereoscopic image, the element image group is corrected by the following procedure.

まず、立体画像補正装置は、平面光強度分布算出手段によって、表示奥行き範囲が基準奥行き範囲を超える場合、要素画像群に対し、立体画像表示装置の要素光学系のピッチ及び焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介して、フレネル近似等の波動光学演算を行うことで、仮想要素光学系群からの距離が異なる予め設定された距離平面毎の光強度分布である平面光強度分布を要素画像群から算出する。そして、立体画像補正装置は、平面光強度分布算出手段によって、算出した光強度分布を、距離に対応付けて、立体像を表示する立体像空間上の体積光強度分布として体積光強度分布記憶手段に記憶させる。   First, when the display depth range exceeds the reference depth range by the planar light intensity distribution calculation unit, the stereoscopic image correction device is a virtual element having the same pitch and focal length of the element optical system of the stereoscopic image display device with respect to the element image group. By performing wave optical calculation such as Fresnel approximation through the virtual element optical system group in which the optical systems are arranged two-dimensionally, the light intensity for each preset distance plane having a different distance from the virtual element optical system group A planar light intensity distribution as a distribution is calculated from the element image group. Then, the stereoscopic image correction apparatus uses the planar light intensity distribution calculating means to associate the calculated light intensity distribution with the distance, and to store the volume light intensity distribution storage means as the volume light intensity distribution on the stereoscopic image space for displaying the stereoscopic image. Remember me.

このように、立体画像表示装置と同じ要素光学系を仮想的に空間上に配置して、要素画像群に対して波動光学演算を行うことで、生成された体積光強度分布は、立体画像表示装置が立体像を表示する立体像空間を仮想的に示したものとなる。   In this way, the same elemental optical system as that of the stereoscopic image display device is virtually arranged in the space, and wave optical calculation is performed on the elemental image group. A virtual image space in which the apparatus displays a stereoscopic image is virtually shown.

次に、立体画像補正装置は、奥行き範囲補正手段によって、表示奥行き範囲が基準奥行き範囲を超える場合、表示奥行き範囲と基準奥行き範囲との比で、要素画像群における体積光強度分布の座標を奥行き方向に補正する。このように、補正後の体積光強度分布は、立体像を表示する立体像空間が奥行き方向で圧縮されたものとなる。   Next, when the display depth range exceeds the reference depth range by the depth range correction unit, the stereoscopic image correction device converts the volume light intensity distribution coordinates in the element image group into the depth by the ratio of the display depth range to the reference depth range. Correct in the direction. As described above, the corrected volumetric light intensity distribution is obtained by compressing the stereoscopic image space displaying the stereoscopic image in the depth direction.

最後に、立体画像補正装置は、補正要素画像群生成手段によって、奥行き範囲補正手段で補正された体積光強度分布の距離平面毎に、仮想要素光学系群を介して、波動光学演算を行うことで、補正後の要素画像群を生成する。これによって、補正後の要素画像群は、過度に眼の近い位置で立体像が表示されることがない。   Finally, the stereoscopic image correction device performs wave optical calculation via the virtual element optical system group for each distance plane of the volume light intensity distribution corrected by the depth range correction unit by the correction element image group generation unit. Thus, a corrected element image group is generated. As a result, the corrected elemental image group does not display a stereoscopic image at a position that is too close to the eyes.

続いて、立体画像補正装置は、奥行き時間変化算出手段によって、表示奥行き範囲と遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出する。
この表示奥行き時間変化は、立体映像を再生する際、どの程度、立体像の位置が奥行き方向で変化するかを示す。
Subsequently, the stereoscopic image correction apparatus calculates a display depth time change which is a change amount between the display depth range and the delayed display depth range by the depth time change calculation unit.
The display depth time change indicates how much the position of the stereoscopic image changes in the depth direction when the stereoscopic video is reproduced.

また、立体画像補正装置は、奥行き時間変化判定手段によって、表示奥行き時間変化が予め設定された基準奥行き時間変化(例えば、観察者にとって適切な奥行き時間変化)を超えるか否かを判定する。
ここで、表示奥行き時間変化が基準奥行き時間変化を超えて、立体映像の再生時に眼精疲労を引き起こす可能性がある場合、遅延要素画像群は、以下の手順で補正される。
Further, the stereoscopic image correction apparatus determines whether or not the display depth time change exceeds a preset reference depth time change (for example, a depth time change appropriate for the observer) by the depth time change determination unit.
Here, when the display depth time change exceeds the reference depth time change and there is a possibility of causing eye strain at the time of reproduction of the stereoscopic video, the delay element image group is corrected by the following procedure.

まず、立体画像補正装置は、平面光強度分布算出手段によって、表示奥行き時間変化が基準奥行き時間変化を超える場合、遅延要素画像群に対し、仮想要素光学系群を介して、波動光学演算を行うことで、遅延要素画像群から平面光強度分布を算出し、距離に対応付けて、立体像を表示する立体像空間上の体積光強度分布として体積光強度分布記憶手段に記憶させる。   First, when the display depth time change exceeds the reference depth time change, the stereoscopic image correction device performs wave optical calculation on the delay element image group via the virtual element optical system group by the planar light intensity distribution calculation unit. Thus, the planar light intensity distribution is calculated from the delay element image group, and is associated with the distance and stored in the volume light intensity distribution storage means as the volume light intensity distribution on the stereoscopic image space for displaying the stereoscopic image.

次に、立体画像補正装置は、奥行き範囲補正手段によって、表示奥行き時間変化が基準奥行き時間変化を超える場合、表示奥行き時間変化と基準奥行き時間変化との差分で、遅延要素画像群における体積光強度分布の座標を奥行き方向に補正する。最後に、立体画像補正装置は、補正要素画像群生成手段によって、奥行き範囲補正手段で補正された体積光強度分布の距離平面毎に、仮想要素光学系群を介して、波動光学演算を行うことで、補正後の遅延要素画像群を生成する。これによって、補正後の遅延要素画像群は、奥行き方向で立体像の位置が頻繁に変化することがない。   Next, when the display depth time change exceeds the reference depth time change by the depth range correction unit, the stereoscopic image correction device uses the difference between the display depth time change and the reference depth time change to determine the volume light intensity in the delay element image group. Correct the distribution coordinates in the depth direction. Finally, the stereoscopic image correction device performs wave optical calculation via the virtual element optical system group for each distance plane of the volume light intensity distribution corrected by the depth range correction unit by the correction element image group generation unit. Thus, a corrected delay element image group is generated. Thus, the corrected delay element image group does not frequently change the position of the stereoscopic image in the depth direction.

本願第1発明に係る立体画像補正装置において、奥行き範囲のみを補正することとしてもよい(本願第2発明)。
本願第1発明に係る立体画像補正装置において、奥行き時間変化のみを補正することとしてもよい(本願第3発明)。
In the stereoscopic image correction device according to the first invention of the present application, only the depth range may be corrected (second invention of the present application).
In the three-dimensional image correction apparatus according to the first invention of the present application, only the depth time change may be corrected (the third invention of the present application).

また、本願第4発明に係る立体画像補正装置は、奥行き範囲判定手段が、基準奥行き範囲として、観察者毎に固有の個別奥行き範囲が予め設定され、表示奥行き範囲が前記個別奥行き範囲を超えるか否かを判定し、奥行き範囲算出手段が、補正後の要素画像群が立体画像表示装置で表示された際の奥行き範囲を、奥行き範囲算出法によりさらに算出し、観察者に共通する共通奥行き範囲が予め設定され、補正後の要素画像群から算出された奥行き範囲が共通奥行き範囲を超えるか否かを判定し、奥行き範囲が共通奥行き範囲を超える場合に警告する奥行き範囲警告手段、をさらに備えることを特徴とする。   Further, in the stereoscopic image correction apparatus according to the fourth invention of the present application, the depth range determination means sets in advance a unique individual depth range for each observer as the reference depth range, and whether the display depth range exceeds the individual depth range. And the depth range calculation means further calculates the depth range when the corrected elemental image group is displayed on the stereoscopic image display device by the depth range calculation method, and the common depth range common to the observer Is further provided with depth range warning means for determining whether or not the depth range calculated from the corrected elemental image group exceeds the common depth range, and warning if the depth range exceeds the common depth range It is characterized by that.

かかる構成によれば、個々の観察者にとって最適な奥行き範囲内で立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。   According to such a configuration, a stereoscopic image can be reproduced within the optimum depth range for each observer, and an observer can be warned if there is a possibility of causing eye strain when reproducing the stereoscopic image.

また、本願第5発明に係る立体画像補正装置は、奥行き時間変化判定手段が、基準奥行き時間変化として、観察者毎に固有の個別奥行き時間変化が予め設定され、表示奥行き時間変化が個別奥行き時間変化を超えるか否かを判定し、奥行き範囲算出手段が、補正後の遅延要素画像群が立体画像表示装置で表示された際の奥行き範囲を、奥行き範囲算出法によりさらに算出し、奥行き時間変化算出手段が、表示奥行き範囲と補正後の遅延要素画像群から算出された奥行き範囲との変化量である奥行き時間変化をさらに算出し、観察者に共通する共通奥行き時間変化が予め設定され、補正後の遅延要素画像群から算出された奥行き時間変化が共通奥行き時間変化を超えるか否かを判定し、奥行き時間変化が共通奥行き時間変化を超える場合に警告する奥行き時間変化警告手段、をさらに備えることを特徴とする。   Further, in the stereoscopic image correction apparatus according to the fifth invention of the present application, the depth time change determining means presets an individual depth time change specific to each observer as the reference depth time change, and the display depth time change is the individual depth time change. The depth range calculation means further determines the depth range when the corrected delay element image group is displayed on the stereoscopic image display device by the depth range calculation method, and the depth time change The calculation means further calculates a depth time change that is a change amount between the display depth range and the corrected delay element image group, and a common depth time change common to the observer is preset and corrected. Determine whether the depth time change calculated from the later delay element image group exceeds the common depth time change, and warn if the depth time change exceeds the common depth time change That depth time change warning means, and further comprising a.

かかる構成によれば、個々の観察者にとって最適な奥行き時間変化内で立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。   According to such a configuration, a stereoscopic image can be reproduced within an optimum depth time change for an individual observer, and an observer can be warned when there is a possibility of causing eye strain when reproducing the stereoscopic image. .

ここで、本願第1発明に係る立体画像補正装置は、CPU(Central Processing Unit)、記憶手段(例えば、メモリ、ハードディスク)等のハードウェア資源を備えるコンピュータを、前記した各手段として協調動作させるための立体画像補正プログラムによって実現することもできる(本段第6発明)。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   Here, the stereoscopic image correction apparatus according to the first invention of the present application is for causing a computer having hardware resources such as a CPU (Central Processing Unit) and storage means (for example, a memory and a hard disk) to operate cooperatively as the above-described means. It can also be realized by the three-dimensional image correction program (the sixth aspect of the present invention). This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

本願発明は、以下に示す優れた効果を奏するものである。
本願第1,6発明によれば、立体画像補正装置は、立体像の奥行き(奥行き範囲及び奥行き時間変化)を観察者にとって適切な範囲内に補正するため、過度に眼の近い位置で立体像が表示されることや、奥行き方向で立体像の位置が頻繁に変化することがなく、眼精疲労を抑制することができる。
The present invention has the following excellent effects.
According to the first and sixth inventions of the present application, the stereoscopic image correction apparatus corrects the depth (depth range and depth time change) of the stereoscopic image within an appropriate range for the observer. Is not displayed, and the position of the stereoscopic image does not frequently change in the depth direction, and eye strain can be suppressed.

本願第2発明によれば、立体画像補正装置は、立体像の奥行き(奥行き範囲)を観察者にとって適切な範囲内に補正するため、過度に眼の近い位置で立体像が表示されることがなく、眼精疲労を抑制することができる。
本願第3発明によれば、立体画像補正装置は、立体像の奥行き(奥行き時間変化)を観察者にとって適切な範囲内に補正するため、奥行き方向で立体像の位置が頻繁に変化することがなく、眼精疲労を抑制することができる。
According to the second invention of the present application, since the stereoscopic image correction apparatus corrects the depth (depth range) of the stereoscopic image within an appropriate range for the observer, the stereoscopic image may be displayed at an excessively close position of the eyes. In addition, eye strain can be suppressed.
According to the third invention of the present application, since the stereoscopic image correction apparatus corrects the depth (change in depth time) of the stereoscopic image within an appropriate range for the observer, the position of the stereoscopic image may change frequently in the depth direction. In addition, eye strain can be suppressed.

本願第4発明によれば、個々の観察者にとって最適な奥行き範囲内で立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。
本願第5発明によれば、個々の観察者にとって最適な奥行き時間変化内で立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。
According to the fourth aspect of the present invention, a stereoscopic image can be reproduced within an optimum depth range for each observer, and if there is a possibility of causing eye strain when reproducing this stereoscopic image, the observer is warned. it can.
According to the fifth invention of the present application, a stereoscopic image can be reproduced within an optimum depth time change for each observer, and warning is given to the observer when there is a possibility of causing eye strain when reproducing the stereoscopic image. Can do.

本発明の第1実施形態に係る立体画像補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image correction apparatus which concerns on 1st Embodiment of this invention. 図1の立体画像処理手段の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional image processing means of FIG. 図2の平面光強度分布算出手段における光強度分布の生成を説明するための説明図である。It is explanatory drawing for demonstrating the production | generation of the light intensity distribution in the planar light intensity distribution calculation means of FIG. 図2の平面光強度分布算出手段の構成を示すブロック図である。It is a block diagram which shows the structure of the planar light intensity distribution calculation means of FIG. 図2の平面光強度分布算出手段における光強度分布を生成するまでの光波を説明するための説明図である。It is explanatory drawing for demonstrating the light wave until it produces | generates the light intensity distribution in the planar light intensity distribution calculation means of FIG. 図2の平面光強度分布算出手段が生成した平面光強度分布を説明するための説明図である。It is explanatory drawing for demonstrating the planar light intensity distribution which the planar light intensity distribution calculation means of FIG. 2 produced | generated. 図2の体積光強度分布記憶手段に記憶する体積光強度分布を説明するための説明図である。It is explanatory drawing for demonstrating the volume light intensity distribution memorize | stored in the volume light intensity distribution memory | storage means of FIG. (a)及び(b)は、図2の奥行き範囲補正手段における奥行き範囲の補正を説明するための説明図である。(A) And (b) is explanatory drawing for demonstrating correction | amendment of the depth range in the depth range correction | amendment means of FIG. 図2の補正要素画像群生成手段における補正要素画像群を生成する概念を説明するための説明図である。It is explanatory drawing for demonstrating the concept which produces | generates the correction element image group in the correction element image group generation means of FIG. 図2の補正要素画像群生成手段の構成を示すブロック図である。It is a block diagram which shows the structure of the correction | amendment element image group production | generation means of FIG. 本発明の第2実施形態に係る立体画像補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image correction apparatus which concerns on 2nd Embodiment of this invention. 図11の立体画像補正装置における奥行き時間変化の補正を説明するための説明図である。It is explanatory drawing for demonstrating correction | amendment of the depth time change in the three-dimensional image correction apparatus of FIG. 図11の立体画像補正装置における補正要素画像群を生成する概念を説明するための説明図である。It is explanatory drawing for demonstrating the concept which produces | generates the correction | amendment element image group in the stereo image correction apparatus of FIG. 図11の立体画像補正装置で補正された奥行き時間変化を説明するための説明図であり、(a)は補正前の奥行き時間変化を示し、(b)は補正後の奥行き時間変化を示す。It is explanatory drawing for demonstrating the depth time change correct | amended with the stereo image correction apparatus of FIG. 11, (a) shows the depth time change before correction | amendment, (b) shows the depth time change after correction | amendment. 図11の立体画像補正装置の動作を示すフローチャートである。12 is a flowchart illustrating an operation of the stereoscopic image correction apparatus in FIG. 11. 図11の立体画像補正装置の動作を示すフローチャートである。12 is a flowchart illustrating an operation of the stereoscopic image correction apparatus in FIG. 11. 本発明の第3実施形態に係る立体画像補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image correction apparatus which concerns on 3rd Embodiment of this invention. 従来のIP方式において、被写体の撮影を説明する図である。It is a figure explaining imaging | photography of a to-be-photographed object in the conventional IP system. 従来のIP方式において、立体像の表示を説明する図である。It is a figure explaining the display of a three-dimensional image in the conventional IP system. 従来のIP方式において、奥行き反転の解消を説明する図である。It is a figure explaining cancellation of depth inversion in the conventional IP system. 従来のIP方式において、奥行き反転が解消した要素画像群の表示を説明する図である。It is a figure explaining the display of the element image group which the depth inversion canceled in the conventional IP system.

以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(第1実施形態)
[立体画像補正装置の構成]
図1を参照して、本発明の第1実施形態に係る立体画像補正装置1の構成について、説明する。
立体画像補正装置1は、立体画像表示装置200においてIP方式により立体像を表示する際に、立体画像撮影装置100で撮影された要素画像群の奥行き範囲を補正するものである。
(First embodiment)
[Configuration of stereoscopic image correction apparatus]
With reference to FIG. 1, the structure of the three-dimensional image correction apparatus 1 which concerns on 1st Embodiment of this invention is demonstrated.
The stereoscopic image correction apparatus 1 corrects the depth range of the element image group captured by the stereoscopic image capturing apparatus 100 when displaying a stereoscopic image by the IP method on the stereoscopic image display apparatus 200.

この立体画像補正装置1は、IP方式を用いた立体画像撮影装置100が撮影した映像信号である要素画像群を入力し、補正した要素画像群(補正要素画像群)を出力する。この補正要素画像群は、IP方式を用いた立体画像表示装置200において、立体像を表示する際の要素画像群として使用される。   The stereoscopic image correction apparatus 1 receives an element image group that is a video signal captured by the stereoscopic image capturing apparatus 100 using the IP method, and outputs a corrected element image group (correction element image group). The correction element image group is used as an element image group when displaying a stereoscopic image in the stereoscopic image display apparatus 200 using the IP method.

立体画像撮影装置100は、被写体を要素画像群として撮影する一般的なIP方式を用いた撮影装置であって、例えば、図18に示した立体画像撮影装置910と同様のものである。また、立体画像表示装置200は、要素画像群を立体像として表示する一般的な表示装置であって、例えば、図19に示した立体画像表示装置920と同様のものである。
なお、立体画像補正装置1に入力される要素画像群は、実際の被写体を撮影した映像信号である必要はなく、コンピュータグラフィックス等、計算機(不図示)によって、立体画像撮影装置100を模式的に再現して生成されたものであっても構わない。
The stereoscopic image capturing apparatus 100 is an image capturing apparatus using a general IP system that captures a subject as an element image group, and is similar to the stereoscopic image capturing apparatus 910 shown in FIG. 18, for example. The stereoscopic image display device 200 is a general display device that displays a group of element images as a stereoscopic image, and is similar to the stereoscopic image display device 920 shown in FIG. 19, for example.
The element image group input to the stereoscopic image correction apparatus 1 does not have to be a video signal obtained by capturing an actual subject, and the stereoscopic image capturing apparatus 100 is schematically illustrated by a computer (not shown) such as computer graphics. It may be generated by reproducing.

また、立体画像補正装置1は、立体画像撮影装置100から、要素画像群映像信号と共に、要素画像群の補正に必要な情報として、標準奥行き範囲情報と、基準奥行き範囲情報と、要素画像群生成情報と、標準表示装置情報とが入力される。ただし、標準表示装置情報は、立体画像補正装置1に予め設定されてもよい。   In addition, the stereoscopic image correction apparatus 1 generates standard depth range information, reference depth range information, and element image group generation as information necessary for correcting the element image group together with the element image group video signal from the stereoscopic image capturing apparatus 100. Information and standard display information are input. However, the standard display device information may be set in the stereoscopic image correction device 1 in advance.

標準奥行き範囲情報は、予め設定された、標準的な表示装置(不図示)で立体像が表示された際の奥行き範囲(標準奥行き範囲)を示す情報である。
基準奥行き範囲情報は、予め設定された、観察者にとって適切な奥行き範囲(基準奥行き範囲)を示す情報である。本実施形態では、基準奥行き範囲は、全ての観察者に共通する奥行き範囲(共通奥行き範囲)であることとする。
The standard depth range information is information indicating a preset depth range (standard depth range) when a stereoscopic image is displayed on a standard display device (not shown).
The reference depth range information is information indicating a preset depth range (reference depth range) appropriate for the observer. In the present embodiment, the reference depth range is a depth range (common depth range) common to all observers.

要素画像群生成情報は、立体画像撮影装置100が備える光学素子である要素光学系(以下、要素レンズ)の特性及び配置を示す情報である。
具体的には、要素画像群生成情報は、立体画像撮影装置100の要素レンズ群から撮像板の撮影面までの距離(要素レンズの焦点距離)、要素レンズ群を構成する要素レンズの中心間隔(ピッチ)、撮像板で撮影される被写体の要素画像の大きさ、及び、要素レンズの配置位置を含んでいる。
The element image group generation information is information indicating the characteristics and arrangement of an element optical system (hereinafter referred to as an element lens) that is an optical element included in the stereoscopic image capturing apparatus 100.
Specifically, the element image group generation information includes the distance from the element lens group of the stereoscopic image capturing device 100 to the imaging surface of the imaging plate (focal length of the element lens), and the center distance between the element lenses constituting the element lens group ( Pitch), the size of the elemental image of the subject imaged by the imaging plate, and the arrangement position of the element lens.

また、立体画像補正装置1は、立体画像表示装置200に関連する情報として、表示装置情報が予め設定されている。
この表示装置情報は、立体画像表示装置200が備える要素レンズの特性及び配置を示す情報である。
具体的には、表示装置情報は、立体画像表示装置200の要素レンズ群から表示素子の表示面までの距離(要素レンズの焦点距離)、要素レンズ群を構成する要素レンズの中心間隔(ピッチ)、表示素子で表示される被写体の要素画像の大きさ、及び、要素レンズの配置位置を含んでいる。
In the stereoscopic image correction apparatus 1, display device information is set in advance as information related to the stereoscopic image display device 200.
This display device information is information indicating the characteristics and arrangement of the element lenses included in the stereoscopic image display device 200.
Specifically, the display device information includes the distance from the element lens group of the stereoscopic image display device 200 to the display surface of the display element (focal length of the element lens), and the center interval (pitch) of the element lenses constituting the element lens group. And the size of the elemental image of the subject displayed on the display element and the arrangement position of the element lens.

標準表示装置情報は、標準的な表示装置が備える要素レンズの特性及び配置を示す情報である。
具体的には、標準表示装置情報は、標準的な表示装置の要素レンズ群から表示素子の表示面までの距離(要素レンズの焦点距離)、要素レンズ群を構成する要素レンズの中心間隔(ピッチ)、表示素子で表示される被写体の要素画像の大きさ、及び、要素レンズの配置位置を含んでいる。
The standard display device information is information indicating the characteristics and arrangement of the element lenses included in the standard display device.
Specifically, the standard display device information includes the distance from the element lens group of the standard display device to the display surface of the display element (focal length of the element lens), and the center interval (pitch) of the element lenses constituting the element lens group. ), The size of the element image of the subject displayed on the display element, and the arrangement position of the element lens.

図1に示すように、立体画像補正装置1は、標準奥行き範囲情報と、基準奥行き範囲情報と、要素画像群生成情報と、表示装置情報と、標準表示装置情報とに基づいて、要素画像群を補正するため、表示状態算出手段10と、立体画像処理手段20とを備える。   As illustrated in FIG. 1, the stereoscopic image correction device 1 is configured to generate an element image group based on standard depth range information, reference depth range information, element image group generation information, display device information, and standard display device information. Display state calculation means 10 and stereoscopic image processing means 20 are provided.

表示状態算出手段10は、立体画像表示装置200において、要素画像群が表示される状態(奥行き範囲)を算出するものであり、奥行き範囲算出手段11と、奥行き範囲判定手段13とを備える。   The display state calculation unit 10 calculates a state (depth range) in which the element image group is displayed in the stereoscopic image display device 200, and includes a depth range calculation unit 11 and a depth range determination unit 13.

奥行き範囲算出手段11は、要素画像群が立体画像表示装置200で表示された際の表示奥行き範囲を、所定の奥行き範囲算出法により算出するものである。具体的には、奥行き範囲算出手段11は、以下の式(1)及び式(2)を用いて表示奥行き範囲を算出し、この表示奥行き範囲を示す表示奥行き範囲情報を生成する。   The depth range calculation unit 11 calculates a display depth range when the element image group is displayed on the stereoscopic image display device 200 by a predetermined depth range calculation method. Specifically, the depth range calculation unit 11 calculates a display depth range using the following formulas (1) and (2), and generates display depth range information indicating the display depth range.

Figure 2014127788
Figure 2014127788

Figure 2014127788
Figure 2014127788

具体的には、奥行き範囲算出手段11は、標準奥行き範囲の内、最も観察者に近い点(最近点)の奥行き位置を式(1)のZに代入して、立体画像表示装置200で生成される立体像の最近点を算出する。また、奥行き範囲算出手段11は、標準奥行き範囲の内、最も観察者から遠い点(最遠点)の奥行き位置を式(1)のZに代入して、立体画像表示装置200で生成される立体像の最遠点を算出する。そして、奥行き範囲算出手段11は、立体画像表示装置200で生成される立体像の最近点から最遠点までの範囲を、表示奥行き範囲として算出する。 Specifically, the depth range calculation unit 11, of the standard depth range, a point closest to the observer depth position of (nearest point) by substituting Z c of the formula (1), in the three-dimensional image display device 200 The closest point of the generated stereoscopic image is calculated. Further, the depth range calculation unit 11, of the standard depth range, the point far from the nearest to the observer the depth position of the (farthest point) by substituting Z c of the formula (1), is generated by the stereoscopic image display apparatus 200 The farthest point of the stereoscopic image is calculated. Then, the depth range calculation unit 11 calculates a range from the nearest point to the farthest point of the stereoscopic image generated by the stereoscopic image display apparatus 200 as the display depth range.

ここで、立体画像表示装置200の要素レンズ群から立体像までの距離がZである。また、標準的な表示装置によって立体像が表示された場合におけるレンズ群から立体像までの距離がZである。 Here, the distance from the element lens of the stereoscopic image display apparatus 200 to the stereoscopic image is Z r. The distance from the lens when the stereoscopic image is displayed by the standard display until the stereoscopic image is Z c.

また、標準的な表示装置における表示素子の表示面から要素レンズ群までの距離がdであり、要素レンズ群のピッチPであり、表示素子により表示される要素画像の大きさがKである。これらd,P,kは、標準表示装置情報から取得できる。 The distance from the display surface of the display device in a standard display until the element lens is d c, the pitch P c of the element lens group, the size of the element image displayed by the display device K c It is. These d c , P c , and k c can be acquired from the standard display device information.

また、立体画像表示装置200における表示素子の表示面から要素レンズ群までの距離がdであり、要素レンズ群のピッチがPであり、表示素子により表示される要素画像の大きさがKである。これらd,P,kは、表示装置情報から取得できる。 In the stereoscopic image display apparatus 200, the distance from the display surface of the display element to the element lens group is dr , the pitch of the element lens group is Pr , and the size of the element image displayed by the display element is K. r . These d r , P r , and k r can be acquired from the display device information.

なお、前記した奥行き範囲算出法は、以下の参考文献に記載されているため、詳細な説明を省略する。
参考文献:J.Arai, M.Okui, M.Kobayashi, and F.Okano:"Geometrical effects of positional errors in integral photography", J. Opt. Soc. Am. A,Vol. 21,pp.951-958,2004
Since the depth range calculation method described above is described in the following references, detailed description thereof will be omitted.
References: J.Arai, M.Okui, M.Kobayashi, and F.Okano: "Geometrical effects of positional errors in integral photography", J. Opt. Soc. Am. A, Vol. 21, pp.951-958 , 2004

奥行き範囲判定手段13は、奥行き範囲算出手段11で算出された表示奥行き範囲が基準奥行き範囲を超えるか否かを判定するものである。
表示奥行き範囲が基準奥行き範囲を超える場合、奥行き範囲判定手段13は、要素画像群を補正する旨の指令信号を生成する。
一方、表示奥行き範囲が基準奥行き範囲を超えない場合、奥行き範囲判定手段13は、要素画像群を補正しない旨の指令信号を生成する。
The depth range determination unit 13 determines whether or not the display depth range calculated by the depth range calculation unit 11 exceeds the reference depth range.
When the display depth range exceeds the reference depth range, the depth range determination unit 13 generates a command signal for correcting the element image group.
On the other hand, when the display depth range does not exceed the reference depth range, the depth range determination unit 13 generates a command signal indicating that the element image group is not corrected.

奥行き範囲判定手段13で生成された指令信号は、表示奥行き範囲情報と、標準奥行き範囲情報と、基準奥行き範囲情報と、要素画像群生成情報と、表示装置情報と共に、立体画像処理手段20に出力される。   The command signal generated by the depth range determination unit 13 is output to the stereoscopic image processing unit 20 together with the display depth range information, the standard depth range information, the reference depth range information, the element image group generation information, and the display device information. Is done.

立体画像処理手段20は、指令信号に基づいて、要素画像群の映像信号に対する処理(奥行き範囲の補正)を行うものである。
要素画像群を補正する旨の指令信号が入力された場合、立体画像処理手段20は、要素画像群を補正する。
一方、要素画像群を補正しない旨の指令信号が入力された場合、立体画像処理手段20は、奥行き範囲を補正せず、そのまま立体画像表示装置200に出力する。
The stereoscopic image processing means 20 performs processing (depth range correction) on the video signal of the element image group based on the command signal.
When a command signal for correcting the element image group is input, the stereoscopic image processing unit 20 corrects the element image group.
On the other hand, when a command signal indicating that the element image group is not corrected is input, the stereoscopic image processing unit 20 outputs the same to the stereoscopic image display apparatus 200 without correcting the depth range.

図2に示すように、立体画像処理手段20は、平面光強度分布算出手段30と、体積光強度分布記憶手段40と、奥行き範囲補正手段50と、補正要素画像群生成手段60とを備える。   As shown in FIG. 2, the stereoscopic image processing unit 20 includes a planar light intensity distribution calculating unit 30, a volume light intensity distribution storing unit 40, a depth range correcting unit 50, and a correction element image group generating unit 60.

平面光強度分布算出手段30は、入力された映像信号である要素画像群から、表示装置情報で示される立体画像表示装置200の要素レンズのピッチ及び焦点距離が同じ仮想要素レンズ(仮想要素光学系)を2次元状に仮想配置した仮想要素レンズ群(仮想要素光学系群)を介して、波動光学演算を行うことで、仮想要素レンズ群からの距離が異なる、予め設定された距離平面毎の光強度分布である平面光強度分布を算出するものである。   The planar light intensity distribution calculating means 30 is a virtual element lens (virtual element optical system) having the same pitch and focal length of the element lens of the stereoscopic image display device 200 indicated by the display device information from the element image group which is an input video signal. ) Are virtually arranged in a two-dimensional manner, by performing wave optical calculation via a virtual element lens group (virtual element optical system group), the distance from the virtual element lens group is different for each preset distance plane. A plane light intensity distribution, which is a light intensity distribution, is calculated.

この平面光強度分布算出手段30は、異なる距離平面毎に平面光強度分布を算出し、距離に対応付けて体積光強度分布記憶手段40に書き込む。
すなわち、平面光強度分布算出手段30は、一平面で構成される要素画像群から、複数の距離平面によって異なる光強度分布を生成することで、要素画像群を立体像として表示した際の光強度分布に相当する空間(立体像空間)を再現させる。
この平面光強度分布算出手段30は、予め定めた複数の距離平面における光強度分布を算出し、体積光強度分布として、体積光強度分布記憶手段40に書き込んだ後、体積光強度分布を生成した旨を、奥行き範囲補正手段50に通知する。
The planar light intensity distribution calculating unit 30 calculates a planar light intensity distribution for each different distance plane and writes it in the volume light intensity distribution storage unit 40 in association with the distance.
That is, the planar light intensity distribution calculating unit 30 generates light intensity distributions that differ depending on a plurality of distance planes from the element image group constituted by one plane, and thereby the light intensity when the element image group is displayed as a stereoscopic image. A space (stereoscopic image space) corresponding to the distribution is reproduced.
The plane light intensity distribution calculating unit 30 calculates the light intensity distribution in a plurality of predetermined distance planes, writes the volume light intensity distribution in the volume light intensity distribution storage unit 40, and then generates the volume light intensity distribution. This is notified to the depth range correction means 50.

ここで、図3を参照して、平面光強度分布算出手段30が距離平面毎に算出する光強度分布について説明する。
図3に示すように、平面光強度分布算出手段30は、要素画像群Gの画像面に対して、立体画像表示装置200における要素レンズ群と表示面までの距離dと同じ距離だけ仮想的に離間して配置した仮想要素レンズ群Vを介して、波動光学演算を行うことで、任意の距離L,L,…,L毎の光強度分布t,t,…,tを求める。
Here, with reference to FIG. 3, the light intensity distribution calculated by the planar light intensity distribution calculating unit 30 for each distance plane will be described.
As shown in FIG. 3, the planar light intensity distribution calculating unit 30 is virtual with respect to the image surface of the element image group G by the same distance as the distance dr between the element lens group and the display surface in the stereoscopic image display device 200. through the virtual element lens unit V which is disposed spaced, by performing wave optics calculation, arbitrary distance L 1, L 2, ..., the light intensity of each L n distribution t 1, t 2, ..., t Find n .

ここで、距離L,L,…,Lは、予め定めた複数の距離であって、その数及び間隔は任意に定めることができる。なお、距離平面を多く設定すれば、それだけ補正の効果を高めることができるが、演算量は増加する。そこで、距離平面の数及び間隔は、要素画像群Gの画素数等に応じて定めることが好ましい。 Here, the distances L 1 , L 2 ,..., L n are a plurality of predetermined distances, and the number and interval can be arbitrarily determined. If a large number of distance planes are set, the effect of correction can be increased accordingly, but the amount of calculation increases. Therefore, the number and interval of the distance planes are preferably determined according to the number of pixels of the element image group G and the like.

なお、図3に示すように、ある要素画像の画像領域kの光波は、対応する仮想要素レンズ(仮想的な開口〔仮想ピンホール〕)Vを介して拡がりを持って距離平面に到達する。例えば、要素画像の画像領域kが光波として距離Lの距離平面において拡がる範囲wは、以下の式(3)で表される。 As shown in FIG. 3, the light wave image area k r of an element image corresponding virtual element lens (virtual opening [virtual pinhole]) via the V L reaches the distance plane with the spread To do. For example, a range w 1 of the image region k r of the element image is enlarged at a distance plane distance L 1 as the light wave is expressed by the following equation (3).

Figure 2014127788
Figure 2014127788

また、仮想要素レンズ群Vから最も離れた距離Lに到達する要素画像の画像領域kの範囲wについても、式(3)と同様に求めることができる。
すなわち、平面光強度分布算出手段30が算出する光強度分布(体積光強度分布)は、奥行き方向であるz方向においては、仮想要素レンズ群Vに最も近い距離Lから、仮想要素レンズ群Vから最も遠い距離Lの範囲に生成され、xy方向においては、仮想要素レンズ群Vから最も遠い距離Lにおいて要素画像群Gの光波が拡がる範囲、すなわち、要素画像群Gの大きさよりも上下左右にそれぞれw/2分だけ大きい範囲に生成される。
As for the range w n of the image area k r of the element image that reaches the distance L n farthest from the virtual element lens group V, a can be obtained as for formula (3).
That is, the light intensity distribution (volume light intensity distribution) calculated by the planar light intensity distribution calculating unit 30 is determined from the distance L 1 closest to the virtual element lens group V in the z direction which is the depth direction, from the virtual element lens group V. In the range of the distance L n farthest from the virtual element lens group V, the range in which the light wave of the element image group G spreads at the distance L n farthest from the virtual element lens group V, that is, above and below the size of the element image group G It is generated in a range larger by w n / 2 on the left and right.

ここで、図4を参照して、平面光強度分布算出手段30の構成について説明する。
図3で説明した光強度分布(体積光強度分布)を生成するため、平面光強度分布算出手段30は、分割手段31と、要素画像変換手段33と、結合手段35と、を備える。
Here, the configuration of the planar light intensity distribution calculating means 30 will be described with reference to FIG.
In order to generate the light intensity distribution (volume light intensity distribution) described with reference to FIG. 3, the planar light intensity distribution calculating unit 30 includes a dividing unit 31, an element image converting unit 33, and a combining unit 35.

分割手段31は、表示装置情報に基づいて、映像信号として入力される要素画像群を要素画像単位の光波に分割するものである。すなわち、分割手段31は、要素画像群を、表示装置情報のうちの要素レンズの配置位置に対応する要素画像毎に分割し、要素画像の各画素において、画素値を振幅とし、予め定めた位相を付加することで、要素画像の画素値を、振幅と位相との複素数で表した光波情報(以下、単に光波という)とする。ただし、位相は必ずしも付加する必要はない。   The dividing unit 31 divides an element image group input as a video signal into light waves in units of element images based on display device information. That is, the dividing unit 31 divides the element image group for each element image corresponding to the arrangement position of the element lens in the display device information, and sets a pixel value as an amplitude in each pixel of the element image, and a predetermined phase. Is added to make the pixel value of the element image light wave information (hereinafter simply referred to as a light wave) represented by a complex number of amplitude and phase. However, it is not always necessary to add a phase.

なお、分割手段31は、要素画像群を立体画像表示装置200が扱う要素画像の大きさで分割する。立体画像撮影装置100と立体画像表示装置200とで、要素画像の大きさ(サイズ、解像度)が異なる場合には、分割手段31は、立体画像表示装置200の要素画像の大きさに合うように、ダウンコンバート、アップコンバート等の画像変換処理を行う。
この分割手段31は、分割した要素画像毎の光波を、要素画像変換手段33に出力する。
Note that the dividing unit 31 divides the element image group by the size of the element image handled by the stereoscopic image display apparatus 200. When the stereoscopic image capturing apparatus 100 and the stereoscopic image display apparatus 200 have different element image sizes (size, resolution), the dividing unit 31 matches the element image size of the stereoscopic image display apparatus 200. Image conversion processing such as down-conversion and up-conversion is performed.
The dividing unit 31 outputs a light wave for each divided element image to the element image converting unit 33.

要素画像変換手段33は、波動光学演算を行うことで、分割手段31から入力される要素画像毎の光波を、予め設定された距離平面における光波に変換するものである。ここでは、要素画像変換手段33は、光波算出手段33aと、位相シフト手段33bと、光波算出手段33cと、を備える。   The element image converting means 33 converts the light wave for each element image input from the dividing means 31 into a light wave on a preset distance plane by performing wave optical calculation. Here, the element image conversion means 33 includes a light wave calculation means 33a, a phase shift means 33b, and a light wave calculation means 33c.

光波算出手段(第1光波算出手段)33aは、要素画像の光波をフレネル近似することで、仮想要素レンズに伝搬する光波を算出するものである。すなわち、光波算出手段33aは、図5に示すように、m番目の要素画像の光波(gs,m(xs,m,ys,m))から、m番目の要素画像に対応する位置に仮想的に配置した仮想要素レンズVに到達する光波(Ri,m(xo,m,yo,m))を、以下の式(4)により、フレネル近似を用いて計算する。 The light wave calculating means (first light wave calculating means) 33a calculates the light wave propagating to the virtual element lens by approximating the light wave of the element image by Fresnel approximation. That is, as shown in FIG. 5, the light wave calculating unit 33 a determines the position corresponding to the m th element image from the light wave (gs , m (x s, m , y s, m )) of the m th element image. The light wave (R i, m (x o, m , y o, m )) that reaches the virtual element lens V m virtually arranged at is calculated using the following formula (4) using Fresnel approximation.

Figure 2014127788
Figure 2014127788

ここで、xs,m、xo,mは、それぞれ画像全体(要素画像群G)におけるm番目の要素画像の中心を原点とするx座標、仮想要素レンズ群Vのm番目の仮想要素レンズVの光軸中心を原点とするx座標である。また、ys,m、yo,mは、それぞれ画像全体(要素画像群G)におけるm番目の要素画像の中心を原点とするy座標、仮想要素レンズ群Vのm番目の仮想要素レンズVの光軸中心を原点とするy座標である。また、fは仮想要素レンズVの焦点距離(図5中、距離dに相当)、kは波数2π/λ(λは予め定めた光の波長)である。また、式(4)中、積分範囲となる要素画像(m)は、図5に示す要素画像mの画像領域kである。
この光波算出手段33aは、要素画像毎の光波(Ri,m(xo,m,yo,m))を、位相シフト手段33bに出力する。
Here, x s, m , x o, m are the x coordinate having the origin at the center of the mth element image in the entire image (element image group G), and the mth virtual element lens of the virtual element lens group V, respectively. the optical axis center of the V m is the x-coordinate of the origin. Y s, m , y o, m are the y coordinate with the center of the m-th element image in the entire image (element image group G) as the origin, and the m-th virtual element lens V of the virtual element lens group V, respectively. This is the y coordinate with the center of the optical axis of m as the origin. Further, f is the focal length of the virtual element lenses V m (in FIG. 5, corresponds to a distance d c), k is the wave number 2π / λ (λ is a wavelength of a predetermined light). In the formula (4), the element image to be integral range (m) is an image region k r of the element image m shown in FIG.
The light wave calculating means 33a outputs the light wave (R i, m (x o, m , yo, m )) for each element image to the phase shift means 33b.

位相シフト手段(第1位相シフト手段)33bは、光波算出手段33aから入力された要素画像の光波(Ri,m(xo,m,yo,m))の位相を、仮想要素レンズの位相分だけシフトさせるものである。すなわち、位相シフト手段33bは、図5に示すように、仮想要素レンズVに伝搬する光波(Ri,m(xo,m,yo,m))を、仮想要素レンズVにおいて変化する位相分だけ、以下の式(5)によりシフトさせることで、仮想要素レンズVから出射する光波(Ro,m(xo,m,yo,m))を算出する。 The phase shift means (first phase shift means) 33b converts the phase of the light wave (R i, m (x o, m , yo, m )) of the element image input from the light wave calculation means 33a to the virtual element lens. It is shifted by the phase. That is, the phase shifting means 33b, as shown in FIG. 5, the light waves propagating in the virtual element lenses V m (R i, m ( x o, m, y o, m)) , and changes in the virtual element lenses V m The light wave (R o, m (x o, m , y o, m )) emitted from the virtual element lens V m is calculated by shifting the phase by the following equation (5).

Figure 2014127788
Figure 2014127788

この位相シフト手段33bは、要素画像毎の光波(Ro,m(xo,m,yo,m))を、光波算出手段33cに出力する。 The phase shift means 33b outputs the light wave (R o, m (x o, m , yo, m )) for each element image to the light wave calculation means 33c.

光波算出手段(第2光波算出手段)33cは、位相シフト手段33bから入力された要素画像毎の光波(Ro,m(xo,m,yo,m))をフレネル近似することで、予め設定された距離平面における光波を算出するものである。すなわち、光波算出手段33cは、図5に示すように、仮想要素レンズVから出射される光波(Ro,m(xo,m,yo,m))から、仮想要素レンズVから距離Lだけ離間した予め定めた距離平面Tに到達する光波(Rd,m(xd,m,yd,m))を、以下の式(6)により、フレネル近似を用いて計算する。 The light wave calculating means (second light wave calculating means) 33c performs Fresnel approximation on the light wave (R o, m (x o, m , y o, m )) for each element image input from the phase shift means 33b. The light wave in the preset distance plane is calculated. That is, the light wave calculating means 33c, as shown in FIG. 5, the light waves emitted from the virtual element lenses V m (R o, m ( x o, m, y o, m)) from the virtual element lenses V m A light wave (R d, m (x d, m , y d, m )) that reaches a predetermined distance plane T separated by a distance L is calculated using the Fresnel approximation according to the following equation (6).

Figure 2014127788
Figure 2014127788

ここで、xd,mは、仮想要素レンズ群Vのm番目の仮想要素レンズVの光軸中心を原点とした距離平面Tのx座標である。また、yd,mは、仮想要素レンズ群Vのm番目の仮想要素レンズVの光軸中心を原点とした距離平面Tのy座標である。また、Lは、仮想要素レンズ群Vから距離平面Tまでの距離である。また、式(6)中、積分範囲となる要素画像(m)の拡がる範囲wは、図5に示す要素画像の画像領域kが光波として距離平面Tにおいて拡がる範囲wである。この範囲wは、前記した式(3)と同様の計算により求められる。
この光波算出手段33cは、距離平面Tに到達する要素画像毎の光波(Rd,m(xd,m,yd,m))を、結合手段35に出力する。
Here, x d, m is the x-coordinate of the distance plane T that the center of the optical axis of the m-th virtual element lenses V m of the virtual element lens unit V and the origin. Y d, m is the y coordinate of the distance plane T with the origin at the optical axis center of the m-th virtual element lens V m of the virtual element lens group V. L is the distance from the virtual element lens group V to the distance plane T. In the formula (6), the range w to spread the element image (m) as the integration range is a range w of the image region k r of the element image shown in FIG. 5 is enlarged at a distance plane T as light waves. This range w is obtained by the same calculation as the above-described equation (3).
The light wave calculating unit 33 c outputs a light wave (R d, m (x d, m , y d, m )) for each element image reaching the distance plane T to the combining unit 35.

結合手段35は、要素画像変換手段33で変換された距離平面における要素画像毎の光波を、当該距離平面において要素画像群の要素画像分だけ結合して平面光強度分布を生成するものである。すなわち、結合手段35は、図5に示すように、仮想要素レンズ群Vから、予め定めた距離Lに設定した距離平面Tに到達する要素画像毎の光波(Rd,m(xd,m,yd,m))を、距離平面Tの領域内で加算する。
より具体的には、結合手段35は、要素画像毎の光波(Rd,m(xd,m,yd,m))を、要素画像の数(ここでは、−M≦m≦Mの〔2M+1〕個とする)だけ、以下の式(7)により加算する。
The combining unit 35 combines the light waves of the element images on the distance plane converted by the element image converting unit 33 by the element image of the element image group on the distance plane to generate a plane light intensity distribution. That is, as shown in FIG. 5, the combining unit 35 transmits light waves (R d, m (x d, m) for each element image reaching the distance plane T set to a predetermined distance L from the virtual element lens group V. , Y d, m )) are added within the region of the distance plane T.
More specifically, the combining unit 35 converts the light wave (R d, m (x d, m , y d, m )) for each element image into the number of element images (here, −M ≦ m ≦ M). (2M + 1)) are added according to the following equation (7).

Figure 2014127788
Figure 2014127788

ここで、xp,mは、予め定めた距離平面Tの中心を原点としたx座標である。また、yp,mは、予め定めた距離平面Tの中心を原点としたy座標である。
そして、結合手段35は、以下の式(8)により、式(7)で算出した予め定めた距離平面Tに到達する光波を2乗することで、距離平面Tにおける光強度分布(平面光強度分布)t(xp,m,yp,m)を算出する。
Here, x p, m is an x coordinate with the origin of the center of a predetermined distance plane T. Further, yp , m is a y coordinate with the center of a predetermined distance plane T as the origin.
Then, the coupling means 35 squares the light wave reaching the predetermined distance plane T calculated by the expression (7) by the following expression (8), so that the light intensity distribution (planar light intensity in the distance plane T) is obtained. Distribution) t (x p, m , y p, m ) is calculated.

Figure 2014127788
Figure 2014127788

ここで、図6を参照して、平面光強度分布tについて説明する。
図6では、x軸を水平方向とし、y軸を垂直方向とし、z軸を奥行き方向とする。そして、円筒体及び三角錐体の2物体を被写体とし、これら円筒体及び三角錐体の底面をz軸に向けて撮影した場合を考える。この場合、平面光強度分布tにおいて、光強度がゼロを超える光強度分布範囲は、z軸から見た円筒体の立体像及び三角錐体の立体像を表すことになる。
Here, the planar light intensity distribution t will be described with reference to FIG.
In FIG. 6, the x-axis is the horizontal direction, the y-axis is the vertical direction, and the z-axis is the depth direction. Consider a case where two objects, a cylindrical body and a triangular pyramid, are taken as subjects, and the bottom surfaces of these cylindrical bodies and the triangular pyramid are photographed toward the z axis. In this case, in the planar light intensity distribution t, the light intensity distribution range in which the light intensity exceeds zero represents a three-dimensional image of the cylindrical body and a three-dimensional image of the triangular pyramid viewed from the z axis.

そして、結合手段35は、算出した平面光強度分布を、距離平面に対応付けて体積光強度分布記憶手段40(図2参照)に書き込む。
以上説明した平面光強度分布算出手段30は、仮想要素レンズ群からの距離を順次設定し直して、図3で説明したように、複数の距離平面に対応する平面光強度分布を算出する。すなわち、平面光強度分布算出手段30は、図3に示すように、仮想要素レンズ群Vからの距離L,L,…,Lに対応する光強度分布t,t,…,tを算出する。
この平面光強度分布算出手段30で生成された光強度分布t,t,…,tは、図7に示すように、距離毎に配列されることで、空間上における体積光強度分布として表すことができる。
Then, the combining unit 35 writes the calculated planar light intensity distribution in the volume light intensity distribution storage unit 40 (see FIG. 2) in association with the distance plane.
The planar light intensity distribution calculating means 30 described above sequentially resets the distance from the virtual element lens group, and calculates the planar light intensity distribution corresponding to a plurality of distance planes as described with reference to FIG. That is, the plane light intensity distribution calculating means 30, as shown in FIG. 3, the distance from the virtual element lens group V L 1, L 2, ... , the light intensity distribution t 1, t 2 corresponding to L n, ..., to calculate the t n.
The light intensity distributions t 1 , t 2 ,..., T n generated by the planar light intensity distribution calculating means 30 are arranged for each distance as shown in FIG. Can be expressed as

これによって、体積光強度分布記憶手段40には、複数の距離平面における光強度分布で構成される体積光強度分布が記憶される。この体積光強度分布は、要素画像群を立体画像表示装置で表示させる際の立体像空間において、光強度を分布させた状態に相当する。
図2に戻って、立体画像処理手段20の構成について、説明を続ける。
Thereby, the volume light intensity distribution storage means 40 stores a volume light intensity distribution composed of light intensity distributions in a plurality of distance planes. This volumetric light intensity distribution corresponds to a state in which the light intensity is distributed in the stereoscopic image space when the element image group is displayed on the stereoscopic image display device.
Returning to FIG. 2, the description of the configuration of the stereoscopic image processing means 20 will be continued.

体積光強度分布記憶手段40は、平面光強度分布算出手段30で算出された距離平面毎の光強度分布を、距離に対応付けて、体積光強度分布として記憶するもので、ハードディスク等の一般的な記憶装置である。この体積光強度分布は、奥行き範囲補正手段50によって補正され、補正要素画像群生成手段60によって参照される。   The volume light intensity distribution storage means 40 stores the light intensity distribution for each distance plane calculated by the plane light intensity distribution calculation means 30 as a volume light intensity distribution in association with the distance. Storage device. This volume light intensity distribution is corrected by the depth range correction unit 50 and is referred to by the correction element image group generation unit 60.

奥行き範囲補正手段50は、表示奥行き範囲情報と、基準奥行き範囲情報とを用いて、体積光強度分布記憶手段40に記憶された体積光強度分布の座標を奥行き方向に補正するものである。   The depth range correction unit 50 corrects the coordinates of the volume light intensity distribution stored in the volume light intensity distribution storage unit 40 in the depth direction using the display depth range information and the reference depth range information.

この体積光強度分布は、補正前の立体像空間の各座標に割り当てられた光強度の集合である。従って、奥行き範囲が補正された体積光強度分布(補正体積光強度分布)を算出するには、図8(a)に示すように、立体像が生成される立体像空間の補正前の座標(X,Y,Z´)を、図8(b)に示すように、立体像が生成される立体像空間の補正後の座標(X,Y,Z´)に割り当てればよい。
なお、図8(a)では補正前の立体像空間の座標軸をx,y,zと図示し、図8(b)では補正後の立体像空間の座標軸をx,y,zと図示した。
This volume light intensity distribution is a set of light intensities assigned to each coordinate in the stereoscopic image space before correction. Therefore, in order to calculate the volume light intensity distribution (corrected volume light intensity distribution) in which the depth range is corrected, as shown in FIG. 8A, coordinates before correction of the stereoscopic image space in which the stereoscopic image is generated ( X r , Y r , Z ′ r ) are assigned to corrected coordinates (X c , Y c , Z ′ c ) of the stereoscopic image space in which the stereoscopic image is generated, as shown in FIG. That's fine.
8A illustrates the coordinate axes of the stereoscopic image space before correction as x r , y r , and z r, and FIG. 8B illustrates the coordinate axes of the stereoscopic image space after correction as x c , y c , and so on. Illustrated as zc .

ここで、表示奥行き範囲βと基準奥行き範囲αとの比率をΩとする(ただし、Ω>1)。この場合、補正前の座標(X,Y,Z´)と、補正後の座標(X,Y,Z´)との関係は、以下の式(9)〜式(11)で表すことができる。つまり、奥行き範囲補正手段50は、式(9)〜式(11)を用いて、表示奥行き範囲βと基準奥行き範囲αとの比率Ωで、体積光強度分布を奥行き方向に圧縮する。 Here, the ratio between the display depth range β and the reference depth range α is Ω (where Ω> 1). In this case, the relationship between the coordinates before correction (X r , Y r , Z ′ r ) and the coordinates after correction (X c , Y c , Z ′ c ) is expressed by the following equations (9) to (11). ). That is, the depth range correction unit 50 compresses the volume light intensity distribution in the depth direction with the ratio Ω between the display depth range β and the reference depth range α, using Expressions (9) to (11).

Figure 2014127788
Figure 2014127788

Figure 2014127788
Figure 2014127788

Figure 2014127788
Figure 2014127788

ここでは、奥行き範囲補正手段50は、体積光強度分布の座標位置を補正した補正体積光強度分布を体積光強度分布記憶手段40に書き込み、補正が完了した旨を補正要素画像群生成手段60に通知する。   Here, the depth range correction unit 50 writes the corrected volume light intensity distribution obtained by correcting the coordinate position of the volume light intensity distribution in the volume light intensity distribution storage unit 40, and notifies the correction element image group generation unit 60 that the correction is completed. Notice.

補正要素画像群生成手段60は、奥行き範囲補正手段50で補正された補正体積光強度分布を、表示装置情報で示される立体画像表示装置200の要素レンズのピッチ及び焦点距離が同じ仮想要素レンズ(仮想要素光学系)で構成される仮想要素レンズ群(仮想要素光学系群)を介して、波動光学演算を行うことで、立体画像表示装置200の表示面に相当する位置における要素画像群を生成するものである。   The correction element image group generation unit 60 uses the virtual volume of the corrected volume light intensity distribution corrected by the depth range correction unit 50 as the virtual element lens (the same pitch and focal length of the element lens of the stereoscopic image display device 200 indicated by the display device information). An element image group at a position corresponding to the display surface of the stereoscopic image display device 200 is generated by performing wave optical calculation via a virtual element lens group (virtual element optical system group) configured by a virtual element optical system) To do.

すなわち、補正要素画像群生成手段60は、図9に示すように、補正後の体積光強度分布における光強度のデータ(例えば、点aのデータ)を、仮想要素レンズ群Vを介して対応する画像上の点のデータ(例えば、点a′のデータ)として割り当てる。なお、図9では、ある点のデータのみについて画像上に割り当てているが、補正後の体積光強度分布全体に亘って割り当てを行う。これによって、補正された要素画像群(補正要素画像群G′)が生成されることになる。   That is, the correction element image group generation means 60 corresponds to the light intensity data (for example, data of the point a) in the volume light intensity distribution after correction via the virtual element lens group V as shown in FIG. The data is assigned as point data on the image (for example, data of the point a ′). In FIG. 9, only data at a certain point is assigned on the image, but assignment is performed over the entire volumetric light intensity distribution after correction. As a result, a corrected element image group (corrected element image group G ′) is generated.

ここで、図10を参照(適宜図2参照)して、補正要素画像群生成手段60の構成について説明する。図10に示すように、補正要素画像群生成手段60は、要素画像逆変換手段61と、連結手段63と、を備える。   Here, the configuration of the correction element image group generation means 60 will be described with reference to FIG. 10 (refer to FIG. 2 as appropriate). As shown in FIG. 10, the correction element image group generation unit 60 includes an element image reverse conversion unit 61 and a connection unit 63.

要素画像逆変換手段61は、補正後の体積光強度分布から、表示装置情報で示される立体画像表示装置200の要素レンズの配置位置に対応する要素画像を生成するものである。
すなわち、要素画像逆変換手段61は、図5で説明した要素画像の画像領域kに対応する仮想要素レンズVを介して拡がりを持った距離平面毎の光強度分布を、要素画像群を構成する画像面に逆変換することで、画像領域kに相当する要素画像を生成する。なお、平面光強度分布算出手段30においては、距離L,L,…,Lは予め定めたものであったが、要素画像逆変換手段61では、補正後の体積光強度分布において、光強度が割り当てられた距離(z座標)における平面(xy平面)が、逆変換を行うために対象とする距離平面となる。
ここで、要素画像逆変換手段61は、光波算出手段61aと、位相シフト手段61bと、光波算出手段61cと、加算手段61dと、を備える。
The element image reverse conversion means 61 generates an element image corresponding to the arrangement position of the element lens of the stereoscopic image display device 200 indicated by the display device information from the corrected volume light intensity distribution.
That is, the element image inverting unit 61, the light intensity distribution of distances for each plane having spread through the virtual element lens V L corresponding to the image area k r of the element images described in FIG. 5, the elemental image group by inverse transform on the image plane that constitutes, generates an element image corresponding to the image area k r. In the plane light intensity distribution calculation means 30, the distances L 1 , L 2 ,..., L n are predetermined, but the element image inverse conversion means 61 uses the corrected volume light intensity distribution as follows: The plane (xy plane) at the distance (z coordinate) to which the light intensity is assigned becomes the target distance plane for performing the inverse transformation.
Here, the element image reverse conversion unit 61 includes a light wave calculation unit 61a, a phase shift unit 61b, a light wave calculation unit 61c, and an addition unit 61d.

光波算出手段(第3光波算出手段)61aは、補正後の体積光強度分布で示される距離(距離平面)毎に、フレネル近似により、光強度分布を有する光波が、仮想要素レンズ群に伝搬する光波を計算するものである。
すなわち、光波算出手段61aは、ある距離平面における要素画像分の光波(R(x,y))から、距離Lだけ離間した仮想要素レンズ群に到達する光波(R(x,y))を、以下の式(12)により、フレネル近似を用いて計算する。
The light wave calculation means (third light wave calculation means) 61a propagates the light wave having the light intensity distribution to the virtual element lens group by Fresnel approximation for each distance (distance plane) indicated by the corrected volume light intensity distribution. The light wave is calculated.
In other words, the light wave calculating means 61a, from the light wave (R p (x p , y p )) corresponding to the element image in a certain distance plane, reaches the virtual element lens group separated by the distance L (R o (x o , y o )) is calculated using the Fresnel approximation according to the following equation (12).

Figure 2014127788
Figure 2014127788

ここで、x、xは、予め定めた距離平面の中心を原点としたx座標である。また、y、yは、予め定めた距離平面の中心を原点としたy座標である。また、式(12)中、積分範囲となる「距離平面の領域」は、体積光強度分布記憶手段40に記憶されている体積光強度分布を構成する平面光強度分布の水平(x方向)、垂直(y方向)の範囲である。
なお、要素画像分の光波(R(x,y))は、体積光強度分布記憶手段40に記憶されている体積光強度分布の光強度を1/2乗したものである(前記式(8)の逆演算)。
この光波算出手段61aは、算出した距離平面毎の仮想要素レンズ群に到達する光波(R(x,y))を、位相シフト手段61bに出力する。
Here, x p and x o are x coordinates with the origin at the center of a predetermined distance plane. Further, y p and yo are y coordinates with the center of a predetermined distance plane as the origin. In Expression (12), the “distance plane region” serving as the integration range is the horizontal (x direction) of the plane light intensity distribution constituting the volume light intensity distribution stored in the volume light intensity distribution storage means 40. This is a vertical range (y direction).
Note that the light wave (R p (x p , y p )) for the element image is obtained by multiplying the light intensity of the volume light intensity distribution stored in the volume light intensity distribution storage means 40 by a factor of 1/2 (see above). Inverse calculation of equation (8)).
The light wave calculation means 61a outputs the light wave (R o (x o , y o )) reaching the virtual element lens group for each calculated distance plane to the phase shift means 61b.

位相シフト手段(第2位相シフト手段)61bは、光波算出手段61aから入力された距離平面毎の光波(R(x,y))の位相を、仮想要素レンズの位相分だけシフトさせるものである。すなわち、位相シフト手段61bは、光波(R(x,y))を、仮想要素レンズにおいて変化する位相分だけ、以下の式(13)によりシフトさせることで、光波(R(x,y))を算出する。 The phase shift means (second phase shift means) 61b shifts the phase of the light wave (R o (x o , y o )) for each distance plane input from the light wave calculation means 61a by the phase of the virtual element lens. Is. That is, the phase shifting means 61b is the light wave (R o (x o, y o)) and only the phase component that varies in the virtual element lens, by shifting the equation (13) below, the light wave (R i (x o , y o )) is calculated.

Figure 2014127788
Figure 2014127788

ここで、fは仮想要素レンズの焦点距離である。
この位相シフト手段61bは、距離平面毎の光波(R(x,y))を、光波算出手段61cに出力する。
Here, f is the focal length of the virtual element lens.
The phase shift means 61b outputs a light wave (R i (x o , y o )) for each distance plane to the light wave calculation means 61c.

光波算出手段(第4光波算出手段)61cは、位相シフト手段61bから入力された距離平面毎の光波(R(x,y))を仮想要素レンズ毎にフレネル近似することで、仮想要素レンズの焦点距離に到達する、距離平面に対応した要素画像毎の光波を算出するものである。すなわち、光波算出手段61cは、仮想要素レンズから逆方向に伝搬される光波(R(x,y))から、仮想要素レンズの焦点距離だけ離間した要素画像群Gの画像面(後側焦平面)に到達する距離平面毎の要素画像mの光波(g′s,m(xs,m,ys,m))を、以下の式(14)により、フレネル近似を用いて計算する。 The light wave calculating means (fourth light wave calculating means) 61c performs a virtual Fresnel approximation for each virtual element lens with the light wave (R i (x o , y o )) for each distance plane input from the phase shift means 61b. The light wave for each element image corresponding to the distance plane reaching the focal length of the element lens is calculated. In other words, the light wave calculation means 61c is configured to display the image plane (rear side) of the element image group G separated from the light wave (R i (x o , y o )) propagated in the opposite direction from the virtual element lens by the focal length of the virtual element lens. The light wave (g ′ s, m (x s, m , y s, m )) of the element image m for each distance plane reaching the side focal plane) is calculated using the Fresnel approximation by the following equation (14). To do.

Figure 2014127788
Figure 2014127788

ここで、xs,m、xi,mは、それぞれ画像全体(要素画像群)におけるm番目の要素画像の中心を原点とするx座標、仮想要素レンズ群のm番目の仮想要素レンズの光軸中心を原点とするx座標である。また、ys,m、yi,mは、それぞれ画像全体(要素画像群)におけるm番目の要素画像の中心を原点とするy座標、仮想要素レンズ群のm番目の仮想要素レンズの光軸中心を原点とするy座標である。また、fは仮想要素レンズの焦点距離、kは波数2π/λ(λは波長)である。また、式(14)中、積分範囲となる「要素画像(m)」は、図5に示す要素画像mの画像領域kである。
この光波算出手段61cは、算出した距離平面に対応した要素画像の光波(g′s,m(xs,m,ys,m))を、加算手段61dに出力する。
Here, x s, m , x i, m are respectively the x coordinate with the center of the mth element image in the entire image (element image group) as the origin, and the light of the mth virtual element lens of the virtual element lens group. This is the x coordinate with the axis center as the origin. Y s, m , y i, m are respectively the y coordinate with the origin of the center of the mth element image in the entire image (element image group), and the optical axis of the mth virtual element lens of the virtual element lens group The y coordinate with the center as the origin. F is the focal length of the virtual element lens, and k is the wave number 2π / λ (λ is the wavelength). In the formula (14), the integral range "element image (m)" is an image region k r of the element image m shown in FIG.
The light wave calculating means 61c outputs the light wave (g ′ s, m (x s, m , y s, m )) of the element image corresponding to the calculated distance plane to the adding means 61d.

加算手段61dは、光波算出手段61cから入力された仮想要素レンズ毎の要素画像の光波を距離平面分だけ加算することで、補正後の要素画像の光波を算出する。すなわち、加算手段61dは、以下の式(15)により、個々の距離平面からの光波として算出した距離平面毎の要素画像の光波(g′s,m(xs,m,ys,m))を、距離平面分だけ加算して、要素画像の光波(gs,m(xs,m,ys,m))を算出する。 The adding means 61d calculates the light wave of the corrected element image by adding the light waves of the element image for each virtual element lens input from the light wave calculating means 61c by the distance plane. That is, the adding means 61d uses the following equation (15) to calculate the light wave (g ′ s, m (x s, m , y s, m ) of the element image for each distance plane calculated as the light wave from each distance plane. ) Are added for the distance plane, and the light wave (gs , m ( xs, m , ys , m )) of the element image is calculated.

Figure 2014127788
Figure 2014127788

ここで、加算範囲となる「距離平面」は、奥行き範囲補正手段50によって補正された体積光強度分布の距離平面の数である。
この加算手段61dは、要素画像の光波(gs,m(xs,m,ys,m))を、連結手段63に出力する。
Here, the “distance plane” serving as the addition range is the number of distance planes of the volume light intensity distribution corrected by the depth range correction unit 50.
The adding means 61 d outputs the light wave (gs , m (x s, m , y s, m )) of the element image to the connecting means 63.

連結手段63は、要素画像逆変換手段61で生成された個々の要素画像の光波を連結し、要素画像群として構成するものである。
この連結手段63は、個々の要素画像の光波である画素毎の強度の値を画素値とし、要素画像分連結することで、補正後の要素画像群(補正要素画像群)を生成する。
The connecting unit 63 connects the light waves of the individual element images generated by the element image inverse converting unit 61 and constitutes an element image group.
The connecting means 63 generates a corrected element image group (corrected element image group) by connecting the intensity values for each pixel, which are light waves of individual element images, as pixel values and connecting the element images.

以上説明したように、立体画像補正装置1は、要素画像群の奥行き範囲を補正するため、過度に眼の近い位置で立体像が表示されることがなく、眼精疲労を抑制することができる。
この立体画像補正装置1は、一般的なコンピュータを前記した各手段として機能させるプログラム(立体画像補正プログラム)により動作させることができる。
As described above, since the stereoscopic image correction apparatus 1 corrects the depth range of the element image group, a stereoscopic image is not displayed at an excessively close position of the eyes, and eye strain can be suppressed. .
The stereoscopic image correction apparatus 1 can be operated by a program (stereoscopic image correction program) that causes a general computer to function as each of the above-described means.

なお、光波の伝搬を演算する波動光学演算として、フレネル近似の式を用いたが、ホイヘンス・フレネルの原理による積分や、フランフォーファ近似による積分等を用いて演算することとしてもよい。
また、要素光学系群は、要素レンズが配列されたレンズアレイとして説明したが、微小なピンホールが配列された開口アレイ(空間フィルタ)であってもよい。
また、立体画像補正装置1は、第2実施形態(図15)で説明するステップS2,S4〜S11を実行する動作を行うため、説明を省略する。
In addition, although the Fresnel approximation formula is used as the wave optical calculation for calculating the propagation of the light wave, the calculation may be performed using the integration based on the Huygens-Fresnel principle, the integration based on the Francofa approximation, or the like.
The element optical system group has been described as a lens array in which element lenses are arranged, but may be an aperture array (spatial filter) in which minute pinholes are arranged.
In addition, since the stereoscopic image correction apparatus 1 performs the operation of executing steps S2 and S4 to S11 described in the second embodiment (FIG. 15), description thereof is omitted.

(第2実施形態)
[立体画像補正装置の構成]
図11を参照して、本発明の第2実施形態に係る立体画像補正装置1Bについて、第1実施形態と異なる点を説明する(適宜図2参照)。
立体画像補正装置1Bは、奥行き範囲に加え、奥行き時間変化も補正する点が、第1実施形態と異なる。このため、立体画像補正装置1Bは、表示状態算出手段10Bと、立体画像処理手段20Bと、遅延手段70とを備える。
(Second Embodiment)
[Configuration of stereoscopic image correction apparatus]
With reference to FIG. 11, a difference from the first embodiment will be described for the stereoscopic image correction apparatus 1 </ b> B according to the second embodiment of the present invention (see FIG. 2 as appropriate).
The stereoscopic image correction apparatus 1B is different from the first embodiment in that in addition to the depth range, the stereoscopic image correction apparatus 1B also corrects the depth time change. Therefore, the stereoscopic image correction apparatus 1B includes a display state calculation unit 10B, a stereoscopic image processing unit 20B, and a delay unit 70.

また、立体画像補正装置1Bは、立体画像撮影装置100から、遅延要素画像群の補正に必要な情報として、標準奥行き時間変化情報と、基準奥行き時間変化情報とが入力される。   The stereoscopic image correction apparatus 1B receives standard depth time change information and reference depth time change information as information necessary for correcting the delay element image group from the stereoscopic image capturing apparatus 100.

標準奥行き時間変化情報は、予め設定された、標準的な表示装置で立体像が表示された場合の奥行き時間変化(標準奥行き時間変化)を示す情報である。
基準奥行き時間変化情報は、予め設定された、観察者にとって適切な奥行き時間変化(基準奥行き時間変化)を示す情報である。本実施形態では、基準奥行き時間変化情報は、全ての観察者に共通する奥行き時間変化(共通奥行き時間変化)であることとする。
The standard depth time change information is information indicating a preset depth time change (standard depth time change) when a stereoscopic image is displayed on a standard display device.
The reference depth time change information is information indicating preset depth time change (reference depth time change) appropriate for the observer. In this embodiment, the reference depth time change information is assumed to be a depth time change common to all observers (common depth time change).

ここでは、遅延手段70から先に説明する。
遅延手段70は、立体画像撮影装置100から要素画像群が入力され、入力された要素画像群を遅延時間だけ遅延させて、遅延要素画像群を出力するものである。この遅延手段70は、例えば、要素画像群を記憶するフレームメモリ(不図示)と、このフレームメモリを制御する制御手段(不図示)とで構成される。
Here, the delay means 70 will be described first.
The delay means 70 receives an element image group from the stereoscopic image capturing apparatus 100, delays the input element image group by a delay time, and outputs a delay element image group. The delay means 70 is composed of, for example, a frame memory (not shown) that stores element image groups and a control means (not shown) that controls the frame memory.

以下の説明では、立体画像撮影装置100から要素画像群が入力された時刻をTとし、遅延手段70での遅延処理後の時刻をTとする。つまり、遅延時間Δ=T−Tとなり、遅延時間Δだけ遅延させた要素画像群を遅延要素画像群と呼ぶ。
なお、遅延時間Δは、例えば、微少時間を示すような、任意の値で予め設定される。
In the following description, the time at which the element images is input from the three-dimensional image photographing apparatus 100 and T 1, the time after the delay processing in the delay means 70 and T 2. That is, the delay time Δ = T 2 −T 1 and the element image group delayed by the delay time Δ is referred to as a delay element image group.
The delay time Δ is set in advance as an arbitrary value, for example, indicating a minute time.

表示状態算出手段10Bは、立体画像表示装置200において、要素画像群及び遅延要素画像群が表示される状態を算出するものであり、奥行き範囲算出手段11Bと、奥行き範囲判定手段13と、奥行き時間変化算出手段15と、奥行き時間変化判定手段17とを備える。   The display state calculation unit 10B calculates a state in which the element image group and the delay element image group are displayed in the stereoscopic image display apparatus 200, and includes a depth range calculation unit 11B, a depth range determination unit 13, and a depth time. A change calculating means 15 and a depth time change determining means 17 are provided.

奥行き範囲算出手段11Bは、表示奥行き範囲に加え、遅延要素画像群が立体画像表示装置200で表示された際の遅延表示奥行き範囲を、図1の奥行き範囲算出手段11と同様に算出するものである。   The depth range calculation unit 11B calculates a delay display depth range when the delay element image group is displayed on the stereoscopic image display device 200 in the same manner as the depth range calculation unit 11 of FIG. 1 in addition to the display depth range. is there.

奥行き時間変化算出手段15は、表示状態算出手段10Bで算出された表示奥行き範囲と遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出するものである。つまり、奥行き時間変化算出手段15は、表示奥行き範囲と遅延表示奥行き範囲との差分を、表示奥行き時間変化として算出する。
この表示奥行き時間変化は、遅延時間Δ(微小時間)における奥行きの変化を示す情報である。
The depth time change calculation unit 15 calculates a display depth time change which is a change amount between the display depth range and the delay display depth range calculated by the display state calculation unit 10B. That is, the depth time change calculation means 15 calculates the difference between the display depth range and the delay display depth range as the display depth time change.
This display depth time change is information indicating a change in depth in the delay time Δ (minute time).

奥行き時間変化判定手段17は、奥行き時間変化算出手段15で算出された表示奥行き時間変化が基準奥行き時間変化を超えるか否かを判定するものである。
表示奥行き範囲が基準奥行き範囲を超える場合、奥行き時間変化判定手段17は、遅延要素画像群を補正する旨の指令信号を生成する。
一方、表示奥行き範囲が基準奥行き範囲を超えない場合、奥行き時間変化判定手段17は、遅延要素画像群を補正しない旨の指令信号を生成する。
奥行き時間変化判定手段17で生成された指令信号は、標準奥行き時間変化情報と、基準奥行き時間変化情報と共に、立体画像処理手段20Bに出力される。
The depth time change determination means 17 determines whether or not the display depth time change calculated by the depth time change calculation means 15 exceeds the reference depth time change.
When the display depth range exceeds the reference depth range, the depth time change determination unit 17 generates a command signal for correcting the delay element image group.
On the other hand, when the display depth range does not exceed the reference depth range, the depth time change determination unit 17 generates a command signal indicating that the delay element image group is not corrected.
The command signal generated by the depth time change determination unit 17 is output to the stereoscopic image processing unit 20B together with the standard depth time change information and the reference depth time change information.

図12に示すように、表示奥行き時間変化ηは、時刻Tの要素画像群における立体像空間と、時刻Tの要素画像群における立体像空間との奥行き範囲の変化量を示す。そして、この例では、奥行き時間変化判定手段17は、表示奥行き時間変化ηが基準奥行き時間変化γを超えるので、遅延要素画像群を補正する旨の指令信号を生成する。
なお、図12では、時刻Tの要素画像群における立体像空間を2点鎖線で図示した。また、図12の符号εについては、説明を後記する。
As shown in FIG. 12, the display depth time change eta, it shows a three-dimensional image space in element image group of time T 1, the amount of change in the depth range of the three-dimensional image space in element image group of time T 2. In this example, the depth time change determination unit 17 generates a command signal for correcting the delay element image group because the display depth time change η exceeds the reference depth time change γ.
In FIG. 12, illustrating the three-dimensional image space in element image group of time T 1 by a two-dot chain line. The description of the symbol ε in FIG. 12 will be given later.

図11に戻り、立体画像補正装置1Bの構成について、説明を続ける。
立体画像処理手段20Bは、図2の立体画像処理手段20と同様の構成であり、指令信号に基づいて、要素画像群に加え、遅延要素画像群を補正するものである。
遅延要素画像群を補正する旨の指令信号が入力された場合、立体画像処理手段20Bは、遅延要素画像群を補正する。
一方、遅延要素画像群を補正しない旨の指令信号が入力された場合、立体画像処理手段20Bは、遅延要素画像群を補正せず、そのまま立体画像表示装置200に出力する。
Returning to FIG. 11, the description of the configuration of the stereoscopic image correction apparatus 1B will be continued.
The stereoscopic image processing means 20B has the same configuration as that of the stereoscopic image processing means 20 in FIG. 2, and corrects the delay element image group in addition to the element image group based on the command signal.
When a command signal for correcting the delay element image group is input, the stereoscopic image processing unit 20B corrects the delay element image group.
On the other hand, when a command signal indicating that the delay element image group is not corrected is input, the stereoscopic image processing unit 20B outputs the signal to the stereoscopic image display apparatus 200 as it is without correcting the delay element image group.

平面光強度分布算出手段30(図2)は、要素画像群と同様の手法により、遅延要素画像群から、距離平面毎に平面光強度分布を算出し、距離に対応付けて体積光強度分布記憶手段40に書き込むものである。
これによって、体積光強度分布記憶手段40(図2)には、要素画像群における体積光強度分布に加え、遅延要素画像群における体積光強度分布が記憶される。
The planar light intensity distribution calculating means 30 (FIG. 2) calculates the planar light intensity distribution for each distance plane from the delayed element image group by the same method as the element image group, and stores the volume light intensity distribution in association with the distance. It is written in the means 40.
Thus, the volume light intensity distribution storage means 40 (FIG. 2) stores the volume light intensity distribution in the delayed element image group in addition to the volume light intensity distribution in the element image group.

奥行き範囲補正手段50(図2)は、表示奥行き時間変化情報と、基準奥行き時間変化情報とを用いて、遅延要素画像群における体積光強度分布の座標を奥行き方向に補正するものである。つまり、奥行き範囲補正手段50は、要素画像群における体積光強度分布と同様、表示奥行き時間変化と基準奥行き時間変化との差分で、遅延要素画像群における体積光強度分布を補正する。   The depth range correction means 50 (FIG. 2) corrects the coordinates of the volume light intensity distribution in the delay element image group in the depth direction using the display depth time change information and the reference depth time change information. That is, the depth range correction unit 50 corrects the volume light intensity distribution in the delay element image group with the difference between the display depth time change and the reference depth time change, similarly to the volume light intensity distribution in the element image group.

補正要素画像群生成手段60(図2)は、補正要素画像群と同様の手法により、遅延要素画像群における補正体積光強度分布から、補正遅延要素画像群を生成するものである。   The correction element image group generation means 60 (FIG. 2) generates a correction delay element image group from the corrected volume light intensity distribution in the delay element image group by the same method as the correction element image group.

ここで、補正要素画像群生成手段60は、表示装置情報に基づいて、遅延要素画像群における補正体積光強度から仮想要素レンズ群までの距離が予め設定される。この仮想要素レンズ群の位置を、「基準光学素子アレイ位置」と呼ぶ。そして、補正要素画像群生成手段60は、図13に示すように、基準光学素子アレイ位置Sから距離補正値εだけずらした位置に仮想要素レンズ群Vを配置した状態で、補正遅延要素画像群G´´を生成する。
この距離補正値εは、図12に示すように、表示奥行き時間変化ηと基準奥行き時間変化γとの差を示す。
Here, the correction element image group generation unit 60 presets the distance from the corrected volume light intensity in the delay element image group to the virtual element lens group based on the display device information. This position of the virtual element lens group is referred to as “reference optical element array position”. Then, as shown in FIG. 13, the correction element image group generation means 60 corrects the delay element image group with the virtual element lens group V disposed at a position shifted from the reference optical element array position S by the distance correction value ε. G ″ is generated.
This distance correction value ε indicates the difference between the display depth time change η and the reference depth time change γ, as shown in FIG.

これによって、補正要素画像群生成手段60は、図14(a)の表示奥行き時間変化ηが図14(b)の基準奥行き時間変化γを超えないようにして、補正遅延要素画像群を生成することができる。
なお、図14では、時刻Tの要素画像群における立体像空間を2点鎖線で図示し、時刻Tの遅延要素画像群における立体像空間を実線で図示した。
Accordingly, the correction element image group generation unit 60 generates the correction delay element image group so that the display depth time change η in FIG. 14A does not exceed the reference depth time change γ in FIG. 14B. be able to.
In FIG. 14, the stereoscopic image space in the element image group at time T 1 is illustrated by a two-dot chain line, and the stereoscopic image space in the delay element image group at time T 2 is illustrated by a solid line.

[立体画像補正装置の動作]
図15,16を参照して、立体画像補正装置1Bの動作について、説明する。
立体画像補正装置1Bは、遅延手段70によって、要素画像群を遅延時間だけ遅延させた遅延要素画像群を出力する(ステップS1)。
[Operation of stereoscopic image correction device]
The operation of the stereoscopic image correction apparatus 1B will be described with reference to FIGS.
The stereoscopic image correction apparatus 1B outputs a delayed element image group obtained by delaying the element image group by the delay time by the delay unit 70 (step S1).

立体画像補正装置1Bは、奥行き範囲算出手段11Bによって、要素画像群から表示奥行き範囲を算出し、遅延要素画像群から遅延表示奥行き範囲を算出する(ステップS2)。
立体画像補正装置1Bは、奥行き時間変化算出手段15によって、表示奥行き範囲と遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出する(ステップS3)。
In the stereoscopic image correction apparatus 1B, the depth range calculation unit 11B calculates the display depth range from the element image group, and calculates the delay display depth range from the delay element image group (step S2).
In the stereoscopic image correction apparatus 1B, the depth time change calculation unit 15 calculates a display depth time change that is a change amount between the display depth range and the delayed display depth range (step S3).

立体画像補正装置1Bは、奥行き範囲判定手段13によって、表示奥行き範囲が基準奥行き範囲を超えるか否かを判定する(ステップS4)。
表示奥行き範囲が基準奥行き範囲を超える場合(ステップS4でYes)、立体画像補正装置1Bは、ステップS5の処理に進む。
立体画像補正装置1Bは、平面光強度分布算出手段30によって、要素画像群に対し、仮想要素レンズ群からの距離が異なる距離平面を設定する(ステップS5)。
In the stereoscopic image correction apparatus 1B, the depth range determination unit 13 determines whether or not the display depth range exceeds the reference depth range (step S4).
When the display depth range exceeds the reference depth range (Yes in step S4), the stereoscopic image correction apparatus 1B proceeds to the process of step S5.
In the stereoscopic image correction device 1B, the plane light intensity distribution calculating unit 30 sets distance planes having different distances from the virtual element lens group for the element image group (step S5).

立体画像補正装置1Bは、平面光強度分布算出手段30によって、要素画像群の光波が、仮想要素レンズ群を介して、ステップS5で設定した距離に対応する距離平面に到達した際の平面光強度分布を、波動光学演算により算出する。   The stereoscopic image correction apparatus 1B uses the planar light intensity distribution calculating unit 30 to cause the planar light intensity when the light wave of the element image group reaches the distance plane corresponding to the distance set in step S5 via the virtual element lens group. The distribution is calculated by wave optics calculation.

すなわち、立体画像補正装置1Bは、平面光強度分布算出手段30の分割手段31によって、要素画像群を、表示装置情報で特定される要素画像毎に分割する。
立体画像補正装置1Bは、平面光強度分布算出手段30の光波算出手段33aによって、それぞれの要素画像の光波をフレネル近似して、仮想要素レンズに到達する光波を算出する。
立体画像補正装置1Bは、平面光強度分布算出手段30の位相シフト手段33bによって、仮想要素レンズに到達する光波の位相を仮想要素レンズの位相分だけシフトさせる。
立体画像補正装置1Bは、平面光強度分布算出手段30の光波算出手段33cによって、位相シフトした光波をフレネル近似して、設定された距離平面における要素画像毎の光波を算出する。
立体画像補正装置1Bは、平面光強度分布算出手段30の結合手段35によって、設定された距離平面に到達した要素画像毎の光波を要素画像分だけ結合し、距離平面における光強度分布(平面光強度分布)を算出する(ステップS6)。
That is, the stereoscopic image correction apparatus 1B divides the element image group for each element image specified by the display device information by the dividing unit 31 of the planar light intensity distribution calculating unit 30.
In the stereoscopic image correction apparatus 1B, the light wave calculation unit 33a of the planar light intensity distribution calculation unit 30 performs a Fresnel approximation of the light wave of each element image, and calculates a light wave that reaches the virtual element lens.
In the stereoscopic image correction apparatus 1B, the phase shift unit 33b of the planar light intensity distribution calculation unit 30 shifts the phase of the light wave reaching the virtual element lens by the phase of the virtual element lens.
The stereoscopic image correction apparatus 1B calculates the light wave for each element image in the set distance plane by Fresnel approximation of the phase-shifted light wave by the light wave calculation unit 33c of the plane light intensity distribution calculation unit 30.
The stereoscopic image correction apparatus 1B combines the light waves of the element images that have reached the set distance plane by an amount corresponding to the element image by the combining unit 35 of the plane light intensity distribution calculating unit 30, and the light intensity distribution (plane light in the distance plane). (Intensity distribution) is calculated (step S6).

立体画像補正装置1Bは、平面光強度分布算出手段30(結合手段35)によって、ステップS6で生成された平面光強度分布を、体積光強度分布記憶手段40に書き込む(ステップS7)。この平面光強度分布が、異なる距離平面毎に生成されることで、体積光強度となる。   The stereoscopic image correction apparatus 1B writes the planar light intensity distribution generated in step S6 into the volume light intensity distribution storage unit 40 by the planar light intensity distribution calculating unit 30 (combining unit 35) (step S7). This plane light intensity distribution is generated for each different distance plane, and thus becomes volume light intensity.

立体画像補正装置1Bは、奥行き範囲補正手段50によって、表示奥行き範囲情報と、基準奥行き範囲情報とを用いて、体積光強度分布記憶手段40に記憶された体積光強度分布の座標を奥行き方向に補正する。すなわち、奥行き範囲補正手段50は、表示奥行き範囲と基準奥行き範囲との比率で、要素画像群における体積光強度分布を奥行き方向に圧縮する(ステップS8)。
立体画像補正装置1Bは、補正要素画像群生成手段60によって、補正された体積光強度分布が存在する距離平面を設定する(ステップS9)。
The stereoscopic image correction apparatus 1B uses the depth range correction unit 50 to display the volume light intensity distribution coordinates stored in the volume light intensity distribution storage unit 40 in the depth direction using the display depth range information and the reference depth range information. to correct. That is, the depth range correction unit 50 compresses the volume light intensity distribution in the element image group in the depth direction at a ratio between the display depth range and the reference depth range (step S8).
The stereoscopic image correction apparatus 1B sets a distance plane in which the corrected volume light intensity distribution exists by the correction element image group generation unit 60 (step S9).

立体画像補正装置1Bは、補正要素画像群生成手段60の要素画像逆変換手段61によって、波動光学演算により、ステップS8で補正された体積光強度分布を光波として、要素画像群の画像面に到達する個々の要素画像の光波を算出する。   The stereoscopic image correction apparatus 1B reaches the image plane of the element image group using the volume light intensity distribution corrected in step S8 as a light wave by the wave optical calculation by the element image inverse conversion unit 61 of the correction element image group generation unit 60. The light wave of each element image to be calculated is calculated.

すなわち、立体画像補正装置1Bは、要素画像逆変換手段61の光波算出手段61aによって、補正後の体積光強度分布で示される距離(距離平面)毎に、フレネル近似により、光強度分布を有する光波が、仮想要素レンズ群に到達する光波を計算する。
立体画像補正装置1Bは、要素画像逆変換手段61の位相シフト手段61bによって、仮想要素レンズに到達する光波の位相を仮想要素レンズの位相分だけシフトさせる。
立体画像補正装置1Bは、要素画像逆変換手段61の光波算出手段61cによって、位相シフトした光波をフレネル近似して、要素画像群の画像面における距離平面に対応した要素画像毎の光波を算出する(ステップS10)。
That is, the stereoscopic image correction apparatus 1B uses the light wave calculation unit 61a of the element image reverse conversion unit 61 to generate a light wave having a light intensity distribution by Fresnel approximation for each distance (distance plane) indicated by the volume light intensity distribution after correction. Calculates the light wave reaching the virtual element lens group.
The stereoscopic image correction apparatus 1B shifts the phase of the light wave reaching the virtual element lens by the phase of the virtual element lens by the phase shift means 61b of the element image inverse conversion means 61.
The stereoscopic image correction apparatus 1B calculates the light wave for each element image corresponding to the distance plane in the image plane of the element image group by Fresnel approximation of the light wave that has been phase-shifted by the light wave calculation means 61c of the element image inverse conversion means 61. (Step S10).

立体画像補正装置1Bは、要素画像逆変換手段61の加算手段61dによって、距離平面に対応する要素画像の光波を、距離平面分だけ加算することで、補正後の要素画像の光波を算出し、連結手段63によって連結することで、補正要素画像群を生成する(ステップS11)。   The stereoscopic image correction apparatus 1B calculates the light wave of the element image after correction by adding the light wave of the element image corresponding to the distance plane by the addition unit 61d of the element image reverse conversion unit 61 by the distance plane, By connecting by the connecting means 63, a correction element image group is generated (step S11).

表示奥行き範囲が基準奥行き範囲を超えない場合(ステップS4でNo)、又は、ステップS11の処理に続いて、立体画像補正装置1Bは、ステップS12の処理に進む。
立体画像補正装置1Bは、奥行き時間変化判定手段17によって、表示奥行き時間変化が基準奥行き時間変化を超えるか否かを判定する(ステップS12)。
When the display depth range does not exceed the reference depth range (No in step S4), or after the process of step S11, the stereoscopic image correction apparatus 1B proceeds to the process of step S12.
In the stereoscopic image correction apparatus 1B, the depth time change determination unit 17 determines whether or not the display depth time change exceeds the reference depth time change (step S12).

表示奥行き時間変化が基準奥行き時間変化を超える場合(ステップS12でYes)、立体画像補正装置1Bは、ステップS13の処理に進む。
立体画像補正装置1Bは、平面光強度分布算出手段30によって、遅延要素画像群に対し、仮想要素レンズ群からの距離が異なる距離平面を設定する(ステップS13)。
When the display depth time change exceeds the reference depth time change (Yes in step S12), the stereoscopic image correction apparatus 1B proceeds to the process of step S13.
In the stereoscopic image correction apparatus 1B, the plane light intensity distribution calculating unit 30 sets distance planes having different distances from the virtual element lens group for the delay element image group (step S13).

立体画像補正装置1Bは、平面光強度分布算出手段30によって、遅延要素画像群の光波が、仮想要素レンズ群を介して、ステップS13で設定した距離に対応する距離平面に到達した際の平面光強度分布を、波動光学演算により算出する。   The stereoscopic image correction apparatus 1B uses the planar light intensity distribution calculating unit 30 to generate planar light when the light wave of the delay element image group reaches the distance plane corresponding to the distance set in step S13 via the virtual element lens group. The intensity distribution is calculated by wave optics calculation.

すなわち、立体画像補正装置1Bは、平面光強度分布算出手段30の分割手段31によって、遅延要素画像群を、表示装置情報で特定される要素画像毎に分割する。
立体画像補正装置1Bは、平面光強度分布算出手段30の光波算出手段33aによって、それぞれの遅延要素画像の光波をフレネル近似して、仮想要素レンズに到達する光波を算出する。
立体画像補正装置1Bは、平面光強度分布算出手段30の位相シフト手段33bによって、仮想要素レンズに到達する光波の位相を仮想要素レンズの位相分だけシフトさせる。
立体画像補正装置1Bは、平面光強度分布算出手段30の光波算出手段33cによって、位相シフトした光波をフレネル近似して、設定された距離平面における要素画像毎の光波を算出する。
立体画像補正装置1Bは、平面光強度分布算出手段30の結合手段35によって、設定された距離平面に到達した要素画像毎の光波を要素画像分だけ結合し、距離平面における光強度分布(平面光強度分布)を算出する(ステップS14)。
That is, the stereoscopic image correction apparatus 1B divides the delayed element image group for each element image specified by the display device information by the dividing unit 31 of the planar light intensity distribution calculating unit 30.
In the stereoscopic image correction apparatus 1B, the light wave calculation unit 33a of the planar light intensity distribution calculation unit 30 performs a Fresnel approximation of the light wave of each delay element image, and calculates a light wave that reaches the virtual element lens.
In the stereoscopic image correction apparatus 1B, the phase shift unit 33b of the planar light intensity distribution calculation unit 30 shifts the phase of the light wave reaching the virtual element lens by the phase of the virtual element lens.
The stereoscopic image correction apparatus 1B calculates the light wave for each element image in the set distance plane by Fresnel approximation of the phase-shifted light wave by the light wave calculation unit 33c of the plane light intensity distribution calculation unit 30.
The stereoscopic image correction apparatus 1B combines the light waves of the element images that have reached the set distance plane by an amount corresponding to the element image by the combining unit 35 of the plane light intensity distribution calculating unit 30, and the light intensity distribution (plane light in the distance plane). (Intensity distribution) is calculated (step S14).

立体画像補正装置1Bは、平面光強度分布算出手段30(結合手段35)によって、ステップS14で生成された平面光強度分布を、体積光強度分布記憶手段40に書き込む(ステップS15)。   The stereoscopic image correction apparatus 1B writes the planar light intensity distribution generated in step S14 to the volume light intensity distribution storage unit 40 by the planar light intensity distribution calculating unit 30 (combining unit 35) (step S15).

立体画像補正装置1Bは、奥行き範囲補正手段50によって、表示奥行き時間変化情報と、基準奥行き時間変化情報とを用いて、体積光強度分布記憶手段40に記憶された体積光強度分布の座標を奥行き方向に補正する。すなわち、奥行き範囲補正手段50は、表示奥行き時間変化と基準奥行き時間変化との差分で、遅延要素画像群における体積光強度分布を奥行き方向に圧縮する(ステップS16)。
立体画像補正装置1Bは、補正要素画像群生成手段60によって、補正された体積光強度分布が存在する距離平面を設定する(ステップS17)。
The stereoscopic image correction apparatus 1B uses the depth range correction unit 50 to display the coordinates of the volume light intensity distribution stored in the volume light intensity distribution storage unit 40 using the display depth time change information and the reference depth time change information. Correct in the direction. That is, the depth range correction unit 50 compresses the volume light intensity distribution in the delay element image group in the depth direction by the difference between the display depth time change and the reference depth time change (step S16).
The stereoscopic image correction apparatus 1B sets a distance plane in which the corrected volume light intensity distribution exists by the correction element image group generation unit 60 (step S17).

立体画像補正装置1Bは、補正要素画像群生成手段60の要素画像逆変換手段61によって、波動光学演算により、ステップS15で補正された体積光強度分布を光波として、遅延要素画像群の画像面に到達する個々の要素画像の光波を算出する。   The stereoscopic image correction apparatus 1B uses the volume image intensity distribution corrected in step S15 by the wave optical calculation by the element image inverse conversion unit 61 of the correction element image group generation unit 60 as a light wave on the image surface of the delay element image group. The light waves of the individual element images that arrive are calculated.

すなわち、立体画像補正装置1Bは、要素画像逆変換手段61の光波算出手段61aによって、補正後の体積光強度分布で示される距離(距離平面)毎に、フレネル近似により、光強度分布を有する光波が、仮想要素レンズ群に到達する光波を計算する。
立体画像補正装置1Bは、要素画像逆変換手段61の位相シフト手段61bによって、仮想要素レンズに到達する光波の位相を仮想要素レンズの位相分だけシフトさせる。
立体画像補正装置1Bは、要素画像逆変換手段61の光波算出手段61cによって、位相シフトした光波をフレネル近似して、遅延要素画像群の画像面における距離平面に対応した要素画像毎の光波を算出する(ステップS18)。
That is, the stereoscopic image correction apparatus 1B uses the light wave calculation unit 61a of the element image reverse conversion unit 61 to generate a light wave having a light intensity distribution by Fresnel approximation for each distance (distance plane) indicated by the volume light intensity distribution after correction. Calculates the light wave reaching the virtual element lens group.
The stereoscopic image correction apparatus 1B shifts the phase of the light wave reaching the virtual element lens by the phase of the virtual element lens by the phase shift means 61b of the element image inverse conversion means 61.
The stereoscopic image correction apparatus 1B calculates the light wave for each element image corresponding to the distance plane in the image plane of the delay element image group by performing Fresnel approximation of the phase-shifted light wave by the light wave calculation means 61c of the element image inverse conversion means 61. (Step S18).

立体画像補正装置1Bは、要素画像逆変換手段61の加算手段61dによって、距離平面に対応する要素画像の光波を、距離平面分だけ加算することで、補正後の要素画像の光波を算出し、連結手段63によって連結することで、補正遅延要素画像群を生成する(ステップS19)。
表示奥行き時間変化が基準奥行き時間変化を超えない場合(ステップS12でNo)、又は、ステップS19の後、立体画像補正装置1Bは、処理を終了する。
The stereoscopic image correction apparatus 1B calculates the light wave of the element image after correction by adding the light wave of the element image corresponding to the distance plane by the addition unit 61d of the element image reverse conversion unit 61 by the distance plane, By connecting by the connecting means 63, a corrected delay element image group is generated (step S19).
When the display depth time change does not exceed the reference depth time change (No in step S12), or after step S19, the stereoscopic image correction apparatus 1B ends the process.

以上説明したように、立体画像補正装置1Bは、要素画像群の奥行き範囲と遅延要素画像群の奥行き時間変化とを補正するため、過度に眼の近い位置で立体像が表示されることや、奥行き方向で立体像の位置が頻繁に変化することがないため、眼精疲労を抑制することができる。   As described above, since the stereoscopic image correction apparatus 1B corrects the depth range of the element image group and the depth time change of the delay element image group, the stereoscopic image is displayed at an excessively close position of the eye, Since the position of the stereoscopic image does not change frequently in the depth direction, it is possible to suppress eye strain.

なお、第2実施形態では、立体画像補正装置1Bが奥行き範囲及び奥行き時間変化の両方を補正することとして説明したが、奥行き時間変化のみを補正してもよい。この場合、立体画像補正装置1Bは、奥行き範囲判定手段13を備える必要がない。   In the second embodiment, the stereoscopic image correction apparatus 1B has been described as correcting both the depth range and the depth time change. However, only the depth time change may be corrected. In this case, the stereoscopic image correction apparatus 1B does not need to include the depth range determination unit 13.

(第3実施形態)
[立体画像補正装置の構成]
図17を参照して、本発明の第3実施形態に係る立体画像補正装置1Cについて、第2実施形態と異なる点を説明する。
立体画像補正装置1Cは、所定の条件により警告を行う点が、第2実施形態と異なる。このため、立体画像補正装置1Cは、表示状態算出手段10Cと、立体画像処理手段20Bと、遅延手段70と、パラメータ設定手段80と、警告手段90とを備える。
(Third embodiment)
[Configuration of stereoscopic image correction apparatus]
With reference to FIG. 17, a difference from the second embodiment will be described regarding a stereoscopic image correction apparatus 1 </ b> C according to the third embodiment of the present invention.
The stereoscopic image correction apparatus 1C is different from the second embodiment in that a warning is issued under a predetermined condition. Therefore, the stereoscopic image correction apparatus 1C includes a display state calculation unit 10C, a stereoscopic image processing unit 20B, a delay unit 70, a parameter setting unit 80, and a warning unit 90.

ここでは、パラメータ設定手段80から先に説明する。
パラメータ設定手段80は、観察者が各種パラメータ(個別奥行き範囲情報、個別奥行き時間変化情報、動作モード情報)を設定するものである。
このパラメータ設定手段80に設定されたパラメータは、表示状態算出手段10Cと、立体画像処理手段20Bと、警告手段90とで参照される。
Here, the parameter setting means 80 will be described first.
The parameter setting means 80 is for the observer to set various parameters (individual depth range information, individual depth time change information, operation mode information).
The parameters set in the parameter setting unit 80 are referred to by the display state calculation unit 10C, the stereoscopic image processing unit 20B, and the warning unit 90.

個別奥行き範囲情報は、予め設定された、観察者毎に固有の奥行き範囲(個別奥行き範囲)を示す情報である。
個別奥行き時間変化情報は、予め設定された、観察者毎に固有の奥行き時間変化(個別奥行き時間変化)を示す情報である。
動作モード情報は、基準設定モード又は視聴者設定モードの何れで立体画像補正装置1Cが動作するかを示す情報である。
The individual depth range information is information indicating a preset depth range (individual depth range) for each observer.
The individual depth time change information is information indicating a preset depth time change (individual depth time change) for each observer, which is set in advance.
The operation mode information is information indicating whether the stereoscopic image correction apparatus 1C operates in the reference setting mode or the viewer setting mode.

基準設定モードとは、基準奥行き範囲情報及び基準奥行き時間変化情報を用いて、立体画像補正装置1Cが動作することである。つまり、基準設定モードの場合、立体画像補正装置1Cは、全ての観察者に共通する共通奥行き範囲及び共通奥行き時間変化を用いることになる。   The reference setting mode is that the stereoscopic image correction apparatus 1C operates using the reference depth range information and the reference depth time change information. That is, in the case of the reference setting mode, the stereoscopic image correction apparatus 1C uses a common depth range and a common depth time change common to all viewers.

視聴者設定モードとは、個別奥行き範囲情報及び個別奥行き時間変化情報を用いて、立体画像補正装置1Cが動作することである。つまり、視聴者設定モードの場合、立体画像補正装置1Cは、観察者毎に固有の個別奥行き範囲及び個別奥行き時間変化を用いることになる。さらに、立体画像補正装置1Cは、補正要素画像群及び補正遅延要素画像群が眼精疲労を引き起こす可能性がある場合、警告を行う。   The viewer setting mode is the operation of the stereoscopic image correction apparatus 1C using the individual depth range information and the individual depth time change information. That is, in the case of the viewer setting mode, the stereoscopic image correction apparatus 1C uses the individual depth range and the individual depth time change unique to each viewer. Furthermore, the stereoscopic image correction apparatus 1C issues a warning when the correction element image group and the correction delay element image group may cause eye strain.

表示状態算出手段10Cは、奥行き範囲算出手段11Cと、奥行き範囲判定手段13Cと、奥行き時間変化算出手段15Cと、奥行き時間変化判定手段17Cとを備える。
また、表示状態算出手段10Cは、立体画像処理手段20Bから補正要素画像群及び補正遅延要素画像群が入力される。
The display state calculation unit 10C includes a depth range calculation unit 11C, a depth range determination unit 13C, a depth time change calculation unit 15C, and a depth time change determination unit 17C.
Further, the display state calculation unit 10C receives the correction element image group and the correction delay element image group from the stereoscopic image processing unit 20B.

奥行き範囲算出手段11Cは、視聴者設定モードの場合、補正要素画像群の奥行き範囲(補正奥行き範囲)と、補正遅延要素画像群の奥行き範囲とを、図11の奥行き範囲算出手段11Bと同様に算出するものである。
この奥行き範囲算出手段11Cで算出された補正奥行き範囲は、警告手段90に出力される。
In the viewer setting mode, the depth range calculation unit 11C determines the depth range (correction depth range) of the correction element image group and the depth range of the correction delay element image group in the same manner as the depth range calculation unit 11B of FIG. Is to be calculated.
The corrected depth range calculated by the depth range calculation unit 11C is output to the warning unit 90.

奥行き範囲判定手段13Cは、動作モード情報に基づいて、個別奥行き範囲情報又は基準奥行き範囲情報の何れか一方を選択して、図11の奥行き範囲判定手段13と同様に判定するものである。   The depth range determination unit 13C selects one of the individual depth range information and the reference depth range information based on the operation mode information, and determines the same as the depth range determination unit 13 of FIG.

奥行き時間変化算出手段15Cは、視聴者設定モードの場合、補正要素画像群と補正遅延要素画像群との奥行き時間変化(補正奥行き時間変化)を、図11の奥行き時間変化算出手段15と同様に算出するものである。
この奥行き時間変化算出手段15Cで算出された補正奥行き時間変化は、警告手段90に出力される。
In the viewer setting mode, the depth time change calculation unit 15C changes the depth time change (corrected depth time change) between the correction element image group and the correction delay element image group in the same manner as the depth time change calculation unit 15 in FIG. Is to be calculated.
The corrected depth time change calculated by the depth time change calculation means 15C is output to the warning means 90.

奥行き時間変化判定手段17Cは、動作モード情報に基づいて、個別奥行き時間変化情報又は基準奥行き時間変化情報の何れか一方を選択して、図11の奥行き時間変化判定手段17と同様に判定するものである。   Depth time change determination means 17C selects either individual depth time change information or reference depth time change information based on the operation mode information, and makes the same determination as depth time change determination means 17 in FIG. It is.

警告手段90は、視聴者設定モードの場合、所定の条件により警告を行うものであり、奥行き範囲警告手段91と、奥行き時間変化警告手段93とを備えるものである。   In the viewer setting mode, the warning unit 90 issues a warning according to a predetermined condition, and includes a depth range warning unit 91 and a depth time change warning unit 93.

奥行き範囲警告手段91は、奥行き範囲算出手段11Cから入力された補正奥行き範囲が共通奥行き範囲を超えるか否かを判定し、補正奥行き範囲が共通奥行き範囲を超える場合に警告するものである。
ここで、奥行き範囲警告手段91は、警告方法が特に制限されず、奥行き範囲の警告メッセージを映像信号に付加してもよい。また、奥行き範囲警告手段91は、この警告メッセージを予め設定されたメールアドレスに送信してもよく、所定の警告音を鳴らしてもよい。
The depth range warning unit 91 determines whether or not the corrected depth range input from the depth range calculation unit 11C exceeds the common depth range, and warns when the corrected depth range exceeds the common depth range.
Here, the depth range warning means 91 may add a warning message for the depth range to the video signal without any particular limitation on the warning method. Further, the depth range warning means 91 may transmit this warning message to a preset mail address or may sound a predetermined warning sound.

奥行き時間変化警告手段93は、奥行き時間変化算出手段15Cから入力された補正奥行き時間変化が共通奥行き時間変化を超えるか否かを判定し、補正奥行き時間変化が共通奥行き時間変化を超える場合に警告するものである。
ここで、奥行き時間変化警告手段93は、奥行き範囲警告手段91と同様の手法で警告することができる。
The depth time change warning means 93 determines whether or not the corrected depth time change input from the depth time change calculation means 15C exceeds the common depth time change, and warns when the corrected depth time change exceeds the common depth time change. To do.
Here, the depth time change warning means 93 can give a warning in the same manner as the depth range warning means 91.

以上説明したように、立体画像補正装置1Cは、個々の観察者にとって最適な奥行き範囲及び奥行き時間変化に収まるように立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。   As described above, the stereoscopic image correction apparatus 1 </ b> C can reproduce a stereoscopic image so as to be within a depth range and depth time change that are optimal for each observer, and may cause eye strain during reproduction of the stereoscopic image. If there is, it can alert the observer.

なお、立体画像補正装置1Cは、警告手段90を備えずに、個別奥行き範囲情報及び個別奥行き時間変化情報、又は、基準奥行き範囲情報及び基準奥行き時間変化情報の何れか一方のみを用いる構成としてもよい。   Note that the stereoscopic image correcting apparatus 1C may be configured to use only one of the individual depth range information and the individual depth time change information, or the reference depth range information and the reference depth time change information without including the warning unit 90. Good.

1,1B,1C 立体画像補正装置
10,10B,10C 表示状態算出手段
11,11B,11C 奥行き範囲算出手段
13,13C 奥行き範囲判定手段
15,15C 奥行き時間変化算出手段
17,17C 奥行き時間変化判定手段
20,20B 立体画像処理手段
30 平面光強度分布算出手段
31 分割手段
33 要素画像変換手段
33a 光波算出手段
33b 位相シフト手段
33c 光波算出手段
35 結合手段
40 体積光強度分布記憶手段
50 奥行き範囲補正手段
60 補正要素画像群生成手段
61 要素画像逆変換手段
61a 光波算出手段
61b 位相シフト手段
61c 光波算出手段
61d 加算手段
63 連結手段
70 遅延手段
80 パラメータ設定手段
90 警告手段
91 奥行き範囲警告手段
93 奥行き時間変化警告手段
1, 1B, 1C Stereoscopic image correction apparatus 10, 10B, 10C Display state calculation means 11, 11B, 11C Depth range calculation means 13, 13C Depth range determination means 15, 15C Depth time change calculation means 17, 17C Depth time change determination means 20, 20B Stereoscopic image processing means 30 Planar light intensity distribution calculating means 31 Dividing means 33 Element image converting means 33a Light wave calculating means 33b Phase shift means 33c Light wave calculating means 35 Combining means 40 Volume light intensity distribution storing means 50 Depth range correcting means 60 Correction element image group generation means 61 Element image inverse conversion means 61a Light wave calculation means 61b Phase shift means 61c Light wave calculation means 61d Addition means 63 Connection means 70 Delay means 80 Parameter setting means 90 Warning means 91 Depth range warning means 93 Depth time change warning means

Claims (6)

インテグラルフォトグラフィ方式により立体画像撮影装置で撮影された要素画像群が立体画像表示装置で表示された際の立体像の奥行き範囲と、前記奥行き範囲の変化量である奥行き時間変化とを補正する立体画像補正装置であって、
前記要素画像群が入力され、入力された前記要素画像群を予め設定された遅延時間だけ遅延させて、遅延要素画像群を出力する遅延手段と、
前記要素画像群及び前記遅延要素画像群がそれぞれ前記立体画像表示装置で表示された際の表示奥行き範囲及び遅延表示奥行き範囲を、所定の奥行き範囲算出法により算出する奥行き範囲算出手段と、
前記表示奥行き範囲が予め設定された基準奥行き範囲を超えるか否かを判定する奥行き範囲判定手段と、
前記表示奥行き範囲と前記遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出する奥行き時間変化算出手段と、
前記表示奥行き時間変化が予め設定された基準奥行き時間変化を超えるか否かを判定する奥行き時間変化判定手段と、
前記表示奥行き範囲が前記基準奥行き範囲を超える場合、前記要素画像群に対し、前記立体画像表示装置の要素光学系のピッチ及び焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介して、波動光学演算を行うことで、当該仮想要素光学系群からの距離が異なる予め設定された距離平面毎の光強度分布である平面光強度分布を前記要素画像群から算出し、前記表示奥行き時間変化が前記基準奥行き時間変化を超える場合、前記遅延要素画像群に対し、前記仮想要素光学系群を介して、波動光学演算を行うことで、前記遅延要素画像群から前記平面光強度分布を算出する平面光強度分布算出手段と、
前記平面光強度分布算出手段で算出された距離平面毎の平面光強度分布を、距離に対応付けて、前記立体像を表示する立体像空間上の体積光強度分布として記憶する体積光強度分布記憶手段と、
前記表示奥行き範囲が前記基準奥行き範囲を超える場合、前記表示奥行き範囲と前記基準奥行き範囲との比で、前記要素画像群における体積光強度分布の座標を奥行き方向に補正し、前記表示奥行き時間変化が前記基準奥行き時間変化を超える場合、前記表示奥行き時間変化と前記基準奥行き時間変化との差分で、前記遅延要素画像群における体積光強度分布の座標を奥行き方向に補正する奥行き範囲補正手段と、
前記奥行き範囲補正手段で補正された体積光強度分布の距離平面毎に、前記仮想要素光学系群を介して、波動光学演算を行うことで、補正後の要素画像群及び遅延要素画像群の少なくとも一方を生成する補正要素画像群生成手段と、
を備えることを特徴とする立体画像補正装置。
Corrects a depth range of a stereoscopic image when an elemental image group captured by a stereoscopic image capturing device using the integral photography method is displayed on a stereoscopic image display device, and a change in depth time that is a change amount of the depth range. A stereoscopic image correction device,
A delay means for inputting the element image group, delaying the input element image group by a preset delay time, and outputting a delay element image group;
A depth range calculating means for calculating a display depth range and a delayed display depth range when the element image group and the delay element image group are respectively displayed on the stereoscopic image display device by a predetermined depth range calculation method;
Depth range determining means for determining whether or not the display depth range exceeds a preset reference depth range;
A depth time change calculating means for calculating a display depth time change which is a change amount between the display depth range and the delay display depth range;
Depth time change determination means for determining whether or not the display depth time change exceeds a preset reference depth time change;
When the display depth range exceeds the reference depth range, virtual element optics in which virtual element optical systems having the same pitch and focal length of the element optical system of the stereoscopic image display device are arranged in a two-dimensional manner for the element image group A plane light intensity distribution, which is a light intensity distribution for each preset distance plane having a different distance from the virtual element optical system group, is calculated from the element image group by performing wave optical calculation via the system group. When the display depth time change exceeds the reference depth time change, wave optical computation is performed on the delay element image group via the virtual element optical system group, so that the plane from the delay element image group is obtained. Planar light intensity distribution calculating means for calculating the light intensity distribution;
Volume light intensity distribution storage for storing the plane light intensity distribution for each distance plane calculated by the plane light intensity distribution calculating means as a volume light intensity distribution on a stereoscopic image space for displaying the stereoscopic image in association with the distance. Means,
When the display depth range exceeds the reference depth range, the coordinates of the volume light intensity distribution in the element image group are corrected in the depth direction at a ratio between the display depth range and the reference depth range, and the display depth time change Depth range correction means for correcting the coordinates of the volume light intensity distribution in the delay element image group in the depth direction by the difference between the display depth time change and the reference depth time change,
By performing wave optical calculation via the virtual element optical system group for each distance plane of the volume light intensity distribution corrected by the depth range correction unit, at least of the corrected element image group and the delayed element image group Correction element image group generation means for generating one of them,
A three-dimensional image correction apparatus comprising:
インテグラルフォトグラフィ方式により立体画像撮影装置で撮影された要素画像群が立体画像表示装置で表示された際の立体像の奥行き範囲を補正する立体画像補正装置であって、
前記要素画像群が前記立体画像表示装置で表示された際の表示奥行き範囲を、所定の奥行き範囲算出法により算出する奥行き範囲算出手段と、
前記表示奥行き範囲が予め設定された基準奥行き範囲を超えるか否かを判定する奥行き範囲判定手段と、
前記表示奥行き範囲が前記基準奥行き範囲を超える場合、前記要素画像群に対し、前記立体画像表示装置の要素光学系のピッチ及び焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介して、波動光学演算を行うことで、当該仮想要素光学系群からの距離が異なる予め設定された距離平面毎の光強度分布である平面光強度分布を算出する平面光強度分布算出手段と、
前記平面光強度分布算出手段で算出された距離平面毎の平面光強度分布を、距離に対応付けて、前記立体像を表示する立体像空間上の体積光強度分布として記憶する体積光強度分布記憶手段と、
前記表示奥行き範囲が前記基準奥行き範囲を超える場合、前記表示奥行き範囲と前記基準奥行き範囲との比で、前記要素画像群における体積光強度分布の座標を奥行き方向に補正する奥行き範囲補正手段と、
前記奥行き範囲補正手段で補正された体積光強度分布の距離平面毎に、前記仮想要素光学系群を介して、波動光学演算を行うことで、補正後の要素画像群を生成する補正要素画像群生成手段と、
を備えることを特徴とする立体画像補正装置。
A stereoscopic image correction apparatus that corrects a depth range of a stereoscopic image when an elemental image group captured by a stereoscopic image capturing apparatus using an integral photography method is displayed on a stereoscopic image display apparatus,
Depth range calculation means for calculating a display depth range when the element image group is displayed on the stereoscopic image display device by a predetermined depth range calculation method;
Depth range determining means for determining whether or not the display depth range exceeds a preset reference depth range;
When the display depth range exceeds the reference depth range, virtual element optics in which virtual element optical systems having the same pitch and focal length of the element optical system of the stereoscopic image display device are arranged in a two-dimensional manner for the element image group Planar light intensity distribution calculation that calculates a planar light intensity distribution, which is a light intensity distribution for each preset distance plane with a different distance from the virtual element optical system group, by performing wave optical calculation via the system group Means,
Volume light intensity distribution storage for storing the plane light intensity distribution for each distance plane calculated by the plane light intensity distribution calculating means as a volume light intensity distribution on a stereoscopic image space for displaying the stereoscopic image in association with the distance. Means,
When the display depth range exceeds the reference depth range, a depth range correction unit that corrects the coordinates of the volume light intensity distribution in the element image group in the depth direction at a ratio between the display depth range and the reference depth range;
Correction element image group for generating a corrected element image group by performing wave optical calculation via the virtual element optical system group for each distance plane of the volumetric light intensity distribution corrected by the depth range correction unit. Generating means;
A three-dimensional image correction apparatus comprising:
インテグラルフォトグラフィ方式により立体画像撮影装置で撮影された要素画像群が立体画像表示装置で表示された際の立体像の奥行き範囲の変化量である奥行き時間変化を補正する立体画像補正装置であって、
前記要素画像群が入力され、入力された前記要素画像群を予め設定された遅延時間だけ遅延させて、遅延要素画像群を出力する遅延手段と、
前記要素画像群及び前記遅延要素画像群がそれぞれ前記立体画像表示装置で表示された際の表示奥行き範囲及び遅延表示奥行き範囲を、所定の奥行き範囲算出法により算出する奥行き範囲算出手段と、
前記表示奥行き範囲と前記遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出する奥行き時間変化算出手段と、
前記表示奥行き時間変化が予め設定された基準奥行き時間変化を超えるか否かを判定する奥行き時間変化判定手段と、
前記表示奥行き時間変化が前記基準奥行き時間変化を超える場合、前記遅延要素画像群に対し、前記立体画像表示装置の要素光学系のピッチ及び焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介して、波動光学演算を行うことで、当該仮想要素光学系群からの距離が異なる予め設定された距離平面毎の光強度分布である平面光強度分布を算出する平面光強度分布算出手段と、
前記平面光強度分布算出手段で算出された距離平面毎の平面光強度分布を、距離に対応付けて、前記立体像を表示する立体像空間上の体積光強度分布として記憶する体積光強度分布記憶手段と、
前記表示奥行き時間変化が前記基準奥行き時間変化を超える場合、前記表示奥行き時間変化と前記基準奥行き時間変化との差分で、前記遅延要素画像群における体積光強度分布の座標を奥行き方向に補正する奥行き範囲補正手段と、
前記奥行き範囲補正手段で補正された体積光強度分布の距離平面毎に、前記仮想要素光学系群を介して、波動光学演算を行うことで、補正後の遅延要素画像群を生成する補正要素画像群生成手段と、
を備えることを特徴とする立体画像補正装置。
A stereoscopic image correction device that corrects a depth time change, which is a change amount of a depth range of a stereoscopic image when an element image group captured by a stereoscopic image capturing device by an integral photography method is displayed on a stereoscopic image display device. And
A delay means for inputting the element image group, delaying the input element image group by a preset delay time, and outputting a delay element image group;
A depth range calculating means for calculating a display depth range and a delayed display depth range when the element image group and the delay element image group are respectively displayed on the stereoscopic image display device by a predetermined depth range calculation method;
A depth time change calculating means for calculating a display depth time change which is a change amount between the display depth range and the delay display depth range;
Depth time change determination means for determining whether or not the display depth time change exceeds a preset reference depth time change;
When the display depth time change exceeds the reference depth time change, virtual element optical systems having the same pitch and focal length of the element optical system of the stereoscopic image display device are two-dimensionally arranged for the delay element image group. Plane light that calculates a planar light intensity distribution, which is a light intensity distribution for each preset distance plane that has a different distance from the virtual element optical system group, by performing wave optical calculation via the virtual element optical system group Intensity distribution calculating means;
Volume light intensity distribution storage for storing the plane light intensity distribution for each distance plane calculated by the plane light intensity distribution calculating means as a volume light intensity distribution on a stereoscopic image space for displaying the stereoscopic image in association with the distance. Means,
When the display depth time change exceeds the reference depth time change, the depth for correcting the coordinate of the volume light intensity distribution in the delay element image group in the depth direction by the difference between the display depth time change and the reference depth time change Range correction means;
A correction element image for generating a corrected delay element image group by performing wave optical calculation via the virtual element optical system group for each distance plane of the volumetric light intensity distribution corrected by the depth range correction unit. Group generation means;
A three-dimensional image correction apparatus comprising:
前記奥行き範囲判定手段は、前記基準奥行き範囲として、前記観察者毎に固有の個別奥行き範囲が予め設定され、前記表示奥行き範囲が前記個別奥行き範囲を超えるか否かを判定し、
前記奥行き範囲算出手段は、前記補正後の要素画像群が前記立体画像表示装置で表示された際の奥行き範囲を、前記奥行き範囲算出法によりさらに算出し、
前記観察者に共通する共通奥行き範囲が予め設定され、前記補正後の要素画像群から算出された奥行き範囲が前記共通奥行き範囲を超えるか否かを判定し、当該奥行き範囲が前記共通奥行き範囲を超える場合に警告する奥行き範囲警告手段、
をさらに備えることを特徴とする請求項1又は請求項2に記載の立体画像補正装置。
The depth range determination means determines whether or not an individual depth range unique to each observer is preset as the reference depth range, and determines whether the display depth range exceeds the individual depth range;
The depth range calculation means further calculates a depth range when the corrected elemental image group is displayed on the stereoscopic image display device by the depth range calculation method,
A common depth range common to the observer is set in advance, and it is determined whether or not a depth range calculated from the corrected element image group exceeds the common depth range, and the depth range corresponds to the common depth range. Depth range warning means to warn when exceeding,
The stereoscopic image correction apparatus according to claim 1, further comprising:
前記奥行き時間変化判定手段は、前記基準奥行き時間変化として、前記観察者毎に固有の個別奥行き時間変化が予め設定され、前記表示奥行き時間変化が前記個別奥行き時間変化を超えるか否かを判定し、
前記奥行き範囲算出手段は、前記補正後の遅延要素画像群が前記立体画像表示装置で表示された際の奥行き範囲を、前記奥行き範囲算出法によりさらに算出し、
前記奥行き時間変化算出手段は、前記表示奥行き範囲と前記補正後の遅延要素画像群から算出された奥行き範囲との変化量である奥行き時間変化をさらに算出し、
前記観察者に共通する共通奥行き時間変化が予め設定され、前記補正後の遅延要素画像群から算出された奥行き時間変化が前記共通奥行き時間変化を超えるか否かを判定し、当該奥行き時間変化が前記共通奥行き時間変化を超える場合に警告する奥行き時間変化警告手段、
をさらに備えることを特徴とする請求項1又は請求項3に記載の立体画像補正装置。
The depth time change determination means determines whether or not the individual depth time change unique to each observer is preset as the reference depth time change, and the display depth time change exceeds the individual depth time change. ,
The depth range calculation means further calculates a depth range when the corrected delay element image group is displayed on the stereoscopic image display device by the depth range calculation method,
The depth time change calculating means further calculates a depth time change which is a change amount between the display depth range and the corrected depth element image group,
A common depth time change common to the observer is preset, it is determined whether the depth time change calculated from the corrected delay element image group exceeds the common depth time change, and the depth time change Depth time change warning means for warning when the common depth time change is exceeded,
The stereoscopic image correction apparatus according to claim 1, further comprising:
コンピュータを、請求項1に記載の立体画像補正装置として機能させるための立体画像補正プログラム。   A stereoscopic image correction program for causing a computer to function as the stereoscopic image correction apparatus according to claim 1.
JP2012282069A 2012-12-26 2012-12-26 Stereoscopic image correction apparatus and program thereof Expired - Fee Related JP6076082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012282069A JP6076082B2 (en) 2012-12-26 2012-12-26 Stereoscopic image correction apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012282069A JP6076082B2 (en) 2012-12-26 2012-12-26 Stereoscopic image correction apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2014127788A true JP2014127788A (en) 2014-07-07
JP6076082B2 JP6076082B2 (en) 2017-02-08

Family

ID=51406995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012282069A Expired - Fee Related JP6076082B2 (en) 2012-12-26 2012-12-26 Stereoscopic image correction apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6076082B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087357A (en) * 2018-07-26 2018-12-25 上海联影智能医疗科技有限公司 Scan orientation method, apparatus, computer equipment and computer readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010068251A (en) * 2008-09-10 2010-03-25 Nippon Hoso Kyokai <Nhk> Three-dimensional information integrating device, and three-dimensional information integrating program
WO2011108180A1 (en) * 2010-03-03 2011-09-09 パナソニック株式会社 Stereoscopic image output device and method of outputting stereoscopic image
JP2012083412A (en) * 2010-10-07 2012-04-26 Sony Corp Image processing device, image processing method, and program
JP2012253768A (en) * 2011-06-01 2012-12-20 Samsung Electronics Co Ltd 3d video conversion device, depth information adjustment method of the same and storage medium of adjustment method
JP2014060649A (en) * 2012-09-19 2014-04-03 Nippon Hoso Kyokai <Nhk> Depth range calculation device and program of the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010068251A (en) * 2008-09-10 2010-03-25 Nippon Hoso Kyokai <Nhk> Three-dimensional information integrating device, and three-dimensional information integrating program
WO2011108180A1 (en) * 2010-03-03 2011-09-09 パナソニック株式会社 Stereoscopic image output device and method of outputting stereoscopic image
JP2012083412A (en) * 2010-10-07 2012-04-26 Sony Corp Image processing device, image processing method, and program
JP2012253768A (en) * 2011-06-01 2012-12-20 Samsung Electronics Co Ltd 3d video conversion device, depth information adjustment method of the same and storage medium of adjustment method
JP2014060649A (en) * 2012-09-19 2014-04-03 Nippon Hoso Kyokai <Nhk> Depth range calculation device and program of the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087357A (en) * 2018-07-26 2018-12-25 上海联影智能医疗科技有限公司 Scan orientation method, apparatus, computer equipment and computer readable storage medium
CN109087357B (en) * 2018-07-26 2021-06-29 上海联影智能医疗科技有限公司 Scanning positioning method and device, computer equipment and computer readable storage medium

Also Published As

Publication number Publication date
JP6076082B2 (en) 2017-02-08

Similar Documents

Publication Publication Date Title
JP6018468B2 (en) Depth range calculation device and program thereof
US20100201783A1 (en) Stereoscopic Image Generation Apparatus, Stereoscopic Image Generation Method, and Program
KR101433803B1 (en) Method and apparatus for generating elemental image in integral imaging
JPWO2011118084A1 (en) Image processing apparatus and image processing method
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
JP2008085503A (en) Three-dimensional image processing apparatus, method and program, and three-dimensional image display device
US20220335637A1 (en) Systems and methods for low compute high-resolution depth map generation using low-resolution cameras
JP3032414B2 (en) Image processing method and image processing apparatus
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
CN107659772B (en) 3D image generation method and device and electronic equipment
JP6076082B2 (en) Stereoscopic image correction apparatus and program thereof
JP2011211551A (en) Image processor and image processing method
JP5993261B2 (en) Depth range calculation device and program thereof
JP3054312B2 (en) Image processing apparatus and method
JPH0749944A (en) Method and device for image processing
JP6118527B2 (en) Spatial distortion correction apparatus and program thereof
KR20110025083A (en) Apparatus and method for displaying 3d image in 3d image system
JP5993260B2 (en) Spatial distortion correction apparatus and program thereof
KR101567002B1 (en) Computer graphics based stereo floting integral imaging creation system
RU2474973C2 (en) Apparatus for real-time stereo-viewing
JP6543096B2 (en) Element image generating device for viewpoint position, program therefor, and integral three-dimensional simulation system
KR100893381B1 (en) Methods generating real-time stereo images
JP2014010804A (en) Image processing device, image processing method and image processing program
Hyun et al. Curved Projection Integral Imaging Using an Additional Large‐Aperture Convex Lens for Viewing Angle Improvement
KR100652204B1 (en) Method for displaying volumetric image and apparatus thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170110

R150 Certificate of patent or registration of utility model

Ref document number: 6076082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees