JP6076083B2 - Stereoscopic image correction apparatus and program thereof - Google Patents

Stereoscopic image correction apparatus and program thereof Download PDF

Info

Publication number
JP6076083B2
JP6076083B2 JP2012282070A JP2012282070A JP6076083B2 JP 6076083 B2 JP6076083 B2 JP 6076083B2 JP 2012282070 A JP2012282070 A JP 2012282070A JP 2012282070 A JP2012282070 A JP 2012282070A JP 6076083 B2 JP6076083 B2 JP 6076083B2
Authority
JP
Japan
Prior art keywords
depth
depth range
image
stereoscopic image
time change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012282070A
Other languages
Japanese (ja)
Other versions
JP2014127789A (en
Inventor
洗井 淳
淳 洗井
善明 鹿喰
善明 鹿喰
人誌 日浦
人誌 日浦
久幸 佐々木
久幸 佐々木
三浦 雅人
雅人 三浦
岩舘 祐一
祐一 岩舘
三科 智之
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012282070A priority Critical patent/JP6076083B2/en
Publication of JP2014127789A publication Critical patent/JP2014127789A/en
Application granted granted Critical
Publication of JP6076083B2 publication Critical patent/JP6076083B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、インテグラルフォトグラフィ方式により被写体を撮影した要素画像群を補正する立体画像補正装置及びそのプログラムに関する。   The present invention relates to a stereoscopic image correction apparatus for correcting an element image group obtained by photographing a subject by an integral photography method and a program therefor.

従来から、任意の視点から自由に立体映像を視聴することが可能な立体画像表示方式の一つとして、平面状に配列された凸レンズ群あるいはピンホール群を利用したインテグラルフォトグラフィ(Integral Photography:以下IP)方式が知られている。   Conventionally, as one of the stereoscopic image display methods capable of freely viewing stereoscopic images from an arbitrary viewpoint, integral photography (Integral Photography) using a group of convex lenses or pinholes arranged in a planar shape is possible. Hereinafter, the IP) method is known.

以下、図17,図18を参照して、IP方式に基づく通常の立体画像撮影及び立体画像表示について説明する。図17に示すように、立体画像撮影装置910は、同一平面上に凸レンズを配列したレンズ群912と、撮像板913とを備える。また、図17には、被写体911と、立体画像撮影装置910の撮影方向914と、レンズ群912によって結像される被写体911の要素画像915とを図示した。この被写体911は、撮影方向914から見た場合、円柱が角柱に対して手前になる。   Hereinafter, normal stereoscopic image capturing and stereoscopic image display based on the IP method will be described with reference to FIGS. 17 and 18. As shown in FIG. 17, the stereoscopic image capturing apparatus 910 includes a lens group 912 in which convex lenses are arranged on the same plane, and an imaging plate 913. FIG. 17 illustrates a subject 911, a photographing direction 914 of the stereoscopic image photographing device 910, and an element image 915 of the subject 911 formed by the lens group 912. When the subject 911 is viewed from the shooting direction 914, the cylinder is in front of the prism.

この立体画像撮影装置910は、レンズ群912を通して被写体911を撮影する。すると、撮像板913には、レンズ群912を構成する凸レンズと同じ数だけ被写体911の要素画像915が生成される。   The stereoscopic image photographing device 910 photographs a subject 911 through a lens group 912. Then, the same number of element images 915 of the subject 911 as the convex lenses that form the lens group 912 are generated on the imaging plate 913.

図18に示すように、立体画像表示装置920は、同一平面上に凸レンズを配列したレンズ群922と、表示素子923とを備える。また、図18には、立体像921と、観察者926の観察方向924と、要素画像925と、観察者926とを図示した。この表示素子923は、立体画像撮影装置910の撮像板913により撮影された要素画像915に対応する要素画像925を表示する。   As shown in FIG. 18, the stereoscopic image display device 920 includes a lens group 922 in which convex lenses are arranged on the same plane, and a display element 923. FIG. 18 illustrates a stereoscopic image 921, an observation direction 924 of the observer 926, an element image 925, and an observer 926. The display element 923 displays an element image 925 corresponding to the element image 915 photographed by the imaging plate 913 of the stereoscopic image photographing device 910.

この結果、図18に示すように、立体像921は、表示素子923からの距離が、図17の被写体911と撮像板913との距離に等しくなるように生成される。このとき、被写体911に対応する立体像921は、観察方向924から見た場合、角柱が円柱の手前になる。つまり、IP方式に基づく通常の立体画像撮影では、図17の被写体911と比較して、奥行きが反転した逆視像(立体像921)が生成される。   As a result, as shown in FIG. 18, the stereoscopic image 921 is generated such that the distance from the display element 923 is equal to the distance between the subject 911 and the imaging plate 913 in FIG. At this time, in the stereoscopic image 921 corresponding to the subject 911, when viewed from the observation direction 924, the prism is in front of the cylinder. That is, in normal stereoscopic image shooting based on the IP method, a reverse-view image (stereoscopic image 921) with an inverted depth is generated as compared with the subject 911 in FIG.

なお、図17,図18では、光学素子アレイは、微小な凸レンズが配列されたレンズ群912であることとして説明したが、微小なピンホールが配列された開口アレイ(空間フィルタ)であってもよい。
また、表示素子923は、撮像板913により撮影された要素画像925を表示することとして説明したが、計算機(不図示)で生成された像を表示してもよい。
17 and 18, the optical element array is described as the lens group 912 in which minute convex lenses are arranged. However, the optical element array may be an aperture array (spatial filter) in which minute pinholes are arranged. Good.
Further, although the display element 923 has been described as displaying the element image 925 captured by the imaging plate 913, an image generated by a computer (not shown) may be displayed.

そこで、前記した逆視像の問題を解決するための発明が提案されている(例えば、特許文献1)。この特許文献1に記載の発明は、図17の立体画像撮影装置910で取得した情報に対して演算処理を行い、演算処理後の情報を図18の立体画像表示装置920に入力し、最終的に正しい奥行きの立体像921を生成するものである。   Therefore, an invention for solving the above-described problem of reverse vision has been proposed (for example, Patent Document 1). The invention described in Patent Document 1 performs arithmetic processing on the information acquired by the stereoscopic image capturing device 910 in FIG. 17 and inputs the information after the arithmetic processing to the stereoscopic image display device 920 in FIG. A stereoscopic image 921 having a correct depth is generated.

以下、図19,図20を参照して、特許文献1に記載の画像奥行き変換装置930について説明する。図19に示すように、画像奥行き変換装置930は、図17の立体画像撮影装置910で撮影した要素画像931を入力し、この要素画像931が第1の仮想レンズアレイ932を通じて仮想的に形成された立体像933を、演算処理により求める。そして、画像奥行き変換装置930は、この立体像933が第2の仮想レンズアレイ934を通じて仮想的に形成された要素画像935を、演算処理により求める。   Hereinafter, with reference to FIGS. 19 and 20, an image depth conversion device 930 described in Patent Document 1 will be described. As shown in FIG. 19, the image depth conversion device 930 receives the element image 931 captured by the stereoscopic image capturing device 910 in FIG. 17, and this element image 931 is virtually formed through the first virtual lens array 932. The obtained stereoscopic image 933 is obtained by arithmetic processing. Then, the image depth conversion device 930 obtains an element image 935 in which the stereoscopic image 933 is virtually formed through the second virtual lens array 934 by arithmetic processing.

図20に示すように、立体画像表示装置940は、図18の立体画像表示装置920と同一構成であり、表示素子945を介して、図19の画像奥行き変換装置930が生成した要素画像941(つまり、図19の要素画像935)を表示する。この結果、要素画像941に対応する立体像943は、観察方向944から見た場合、円柱が角柱に対して手前になり、図17の被写体911と対比して、奥行きが等価になる。   As shown in FIG. 20, the stereoscopic image display device 940 has the same configuration as the stereoscopic image display device 920 of FIG. 18, and an element image 941 (generated by the image depth conversion device 930 of FIG. That is, the element image 935) of FIG. 19 is displayed. As a result, when the stereoscopic image 943 corresponding to the element image 941 is viewed from the observation direction 944, the cylinder is in front of the prism and the depth is equivalent to the subject 911 in FIG.

特開2007−114483号公報JP 2007-114483 A

従来のIP方式で表示される立体像は、両眼視差のみを用いるディスプレイによって得られる立体映像と異なり、光学的な空間像に相当する。従って、従来のIP方式において、観察者が立体像を見る状態が、被写体の実物を見る状態と同様の視認性を有することになる。   A stereoscopic image displayed by the conventional IP method corresponds to an optical aerial image, unlike a stereoscopic image obtained by a display using only binocular parallax. Therefore, in the conventional IP system, the state in which the observer sees the stereoscopic image has the same visibility as the state in which the real object is viewed.

ここで、被写体の実物を見る際、過度に眼の近い位置に被写体が配置される場合、又は、奥行き方向に頻繁に見る場所が変わる場合、眼精疲労を引き起こす可能性がある。つまり、従来のIP方式で表示された立体像を見る場合、被写体の実物を見る際と同様、眼精疲労を引き起こす可能性がある。   Here, when looking at the actual object, if the object is placed too close to the eye, or if the place where the object is viewed frequently changes in the depth direction, eye strain may occur. That is, when viewing a stereoscopic image displayed by the conventional IP method, eye strain may occur as in the case of viewing the actual subject.

そこで、本願発明は、立体像の奥行きを観察者にとって適切な範囲内に補正できる立体画像補正装置及びそのプログラムを提供することを課題とする。   Therefore, an object of the present invention is to provide a stereoscopic image correction apparatus and a program thereof that can correct the depth of a stereoscopic image within an appropriate range for an observer.

前記課題に鑑みて、本願第1発明に係る立体画像補正装置は、IP方式により立体画像撮影装置で撮影された要素画像群が立体画像表示装置で表示された際の立体像の奥行き範囲と、奥行き範囲の変化量である奥行き時間変化とを補正する立体画像補正装置であって、遅延手段と、奥行き範囲算出手段と、奥行き範囲判定手段と、奥行き時間変化算出手段と、奥行き時間変化判定手段と、距離平面画像生成手段と、体積画素分布記憶手段と、奥行き範囲補正手段と、補正要素画像群生成手段と、を備えることを特徴とする。   In view of the above problems, the stereoscopic image correction apparatus according to the first invention of the present application includes a depth range of a stereoscopic image when an elemental image group captured by the stereoscopic image capturing apparatus by the IP method is displayed on the stereoscopic image display apparatus, and A stereoscopic image correction apparatus that corrects a depth time change that is a change amount of a depth range, and includes a delay unit, a depth range calculation unit, a depth range determination unit, a depth time change calculation unit, and a depth time change determination unit. And a distance plane image generation means, a volume pixel distribution storage means, a depth range correction means, and a correction element image group generation means.

かかる構成によれば、立体画像補正装置は、遅延手段によって、要素画像群が入力され、入力された要素画像群を予め設定された遅延時間だけ遅延させて、遅延要素画像群を出力する。   According to this configuration, the stereoscopic image correction apparatus receives the element image group by the delay unit, delays the input element image group by a preset delay time, and outputs the delay element image group.

また、立体画像補正装置は、奥行き範囲算出手段によって、要素画像群及び遅延要素画像群がそれぞれ立体画像表示装置で表示された際の表示奥行き範囲及び遅延表示奥行き範囲を、所定の奥行き範囲算出法により算出する。
この表示奥行き範囲は、立体映像を再生する際、奥行き方向で立体像が表示される範囲、つまり、立体像の奥行き距離を示す。
In addition, the stereoscopic image correction apparatus uses a depth range calculation unit to calculate a display depth range and a delayed display depth range when the element image group and the delay element image group are each displayed on the stereoscopic image display device by a predetermined depth range calculation method. Calculated by
This display depth range indicates a range in which a stereoscopic image is displayed in the depth direction when reproducing a stereoscopic video, that is, a depth distance of the stereoscopic image.

そして、立体画像補正装置は、奥行き範囲判定手段によって、表示奥行き範囲が予め設定された基準奥行き範囲(例えば、観察者にとって適切な奥行き範囲)を超えるか否かを判定する。この基準奥行き範囲は、観察者毎に固有の奥行き範囲であってもよく、全ての観察者に共通する奥行き範囲であってもよい。
ここで、表示奥行き範囲が基準奥行き範囲を超えて、立体映像の再生時に眼精疲労を引き起こす可能性がある場合、要素画像群は、以下の手順で補正される。
Then, the stereoscopic image correction apparatus determines whether or not the display depth range exceeds a preset reference depth range (for example, a depth range appropriate for the observer) by the depth range determination unit. This reference depth range may be a depth range unique to each observer, or may be a depth range common to all observers.
Here, when the display depth range exceeds the reference depth range and there is a possibility of causing eye strain when reproducing a stereoscopic image, the element image group is corrected by the following procedure.

まず、立体画像補正装置は、距離平面画像生成手段によって、表示奥行き範囲が基準奥行き範囲を超える場合、要素画像群に対し、立体画像表示装置の要素光学系のピッチ及び焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介して、光線追跡を行うことで、仮想要素光学系群からの距離が異なる予め設定された距離平面毎の画素分布を示す距離平面画像を要素画像群から生成する。そして、立体画像補正装置は、距離平面画像生成手段によって、生成した距離平面画像を、距離に対応付けて、立体像を表示する立体像空間上の体積画素分布として体積画素分布記憶手段に記憶させる。   First, when the display depth range exceeds the reference depth range by the distance plane image generation unit, the stereoscopic image correction apparatus uses the virtual element optics having the same pitch and focal length of the element optical system of the stereoscopic image display apparatus for the element image group. A distance plane image showing a pixel distribution for each preset distance plane having a different distance from the virtual element optical system group by performing ray tracing through the virtual element optical system group in which the system is two-dimensionally arranged. Generate from element images. Then, the stereoscopic image correction device causes the distance plane image generation unit to store the generated distance plane image in the volume pixel distribution storage unit as a volume pixel distribution on the stereoscopic image space for displaying the stereoscopic image in association with the distance. .

このように、立体画像表示装置と同じ要素光学系を仮想的に空間上に配置して、要素画像群を、仮想的に光路上に展開することで、生成された体積画素分布は、立体画像表示装置が立体像を表示する立体像空間を仮想的に示したものとなる。   In this way, the same element optical system as that of the stereoscopic image display device is virtually arranged in the space, and the element image group is virtually expanded on the optical path, so that the generated volume pixel distribution is the stereoscopic image. A stereoscopic image space in which the display device displays a stereoscopic image is virtually shown.

次に、立体画像補正装置は、奥行き範囲補正手段によって、表示奥行き範囲が基準奥行き範囲を超える場合、表示奥行き範囲と基準奥行き範囲との比で、要素画像群における体積画素分布の座標を奥行き方向に補正する。このように、補正後の体積画素分布は、立体像を表示する立体像空間が奥行き方向で圧縮されたものとなる。   Next, when the display depth range exceeds the reference depth range by the depth range correction unit, the stereoscopic image correction device converts the coordinates of the volume pixel distribution in the element image group in the depth direction based on the ratio of the display depth range to the reference depth range. To correct. As described above, the corrected volume pixel distribution is obtained by compressing the stereoscopic image space displaying the stereoscopic image in the depth direction.

最後に、立体画像補正装置は、補正要素画像群生成手段によって、奥行き範囲補正手段で補正された体積画素分布の距離平面毎に、仮想要素光学系群を介して、光線追跡を行うことで、補正後の要素画像群を生成する。これによって、補正後の要素画像群は、過度に眼の近い位置で立体像が表示されることがない。   Finally, the stereoscopic image correction apparatus performs ray tracing via the virtual element optical system group for each distance plane of the volume pixel distribution corrected by the depth range correction unit by the correction element image group generation unit, A corrected element image group is generated. As a result, the corrected elemental image group does not display a stereoscopic image at a position that is too close to the eyes.

続いて、立体画像補正装置は、奥行き時間変化算出手段によって、表示奥行き範囲と遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出する。
この表示奥行き時間変化は、立体映像を再生する際、どの程度、立体像の位置が奥行き方向で変化するかを示す。
Subsequently, the stereoscopic image correction apparatus calculates a display depth time change which is a change amount between the display depth range and the delayed display depth range by the depth time change calculation unit.
The display depth time change indicates how much the position of the stereoscopic image changes in the depth direction when the stereoscopic video is reproduced.

また、立体画像補正装置は、奥行き時間変化判定手段によって、表示奥行き時間変化が予め設定された基準奥行き時間変化(例えば、観察者にとって適切な奥行き時間変化)を超えるか否かを判定する。
ここで、表示奥行き時間変化が基準奥行き時間変化を超えて、立体映像の再生時に眼精疲労を引き起こす可能性がある場合、遅延要素画像群は、以下の手順で補正される。
Further, the stereoscopic image correction apparatus determines whether or not the display depth time change exceeds a preset reference depth time change (for example, a depth time change appropriate for the observer) by the depth time change determination unit.
Here, when the display depth time change exceeds the reference depth time change and there is a possibility of causing eye strain at the time of reproduction of the stereoscopic video, the delay element image group is corrected by the following procedure.

まず、立体画像補正装置は、距離平面画像生成手段によって、表示奥行き時間変化が基準奥行き時間変化を超える場合、遅延要素画像群に対し、仮想要素光学系群を介して、光線追跡を行うことで、遅延要素画像群から距離平面画像を生成し、距離に対応付けて、立体像を表示する立体像空間上の体積画素分布として体積画素分布記憶手段に記憶させる。   First, when the display depth time change exceeds the reference depth time change by the distance plane image generation unit, the stereoscopic image correction device performs ray tracing on the delay element image group via the virtual element optical system group. Then, a distance plane image is generated from the delay element image group, and is associated with the distance and stored in the volume pixel distribution storage unit as a volume pixel distribution on the stereoscopic image space for displaying the stereoscopic image.

次に、立体画像補正装置は、奥行き範囲補正手段によって、表示奥行き時間変化が基準奥行き時間変化を超える場合、表示奥行き時間変化と基準奥行き時間変化との差分で、遅延要素画像群における体積画素分布の座標を奥行き方向に補正する。最後に、立体画像補正装置は、補正要素画像群生成手段によって、奥行き範囲補正手段で補正された体積画素分布の距離平面毎に、仮想要素光学系群を介して、光線追跡を行うことで、補正後の遅延要素画像群を生成する。これによって、補正後の遅延要素画像群は、奥行き方向で立体像の位置が頻繁に変化することがない。   Next, when the display depth time change exceeds the reference depth time change by the depth range correction unit, the stereoscopic image correction device uses the difference between the display depth time change and the reference depth time change to calculate the volume pixel distribution in the delay element image group. Is corrected in the depth direction. Finally, the stereoscopic image correction apparatus performs ray tracing via the virtual element optical system group for each distance plane of the volume pixel distribution corrected by the depth range correction unit by the correction element image group generation unit, A corrected delay element image group is generated. Thus, the corrected delay element image group does not frequently change the position of the stereoscopic image in the depth direction.

本願第1発明に係る立体画像補正装置において、奥行き範囲のみを補正することとしてもよい(本願第2発明)。
本願第1発明に係る立体画像補正装置において、奥行き時間変化のみを補正することとしてもよい(本願第3発明)。
In the stereoscopic image correction device according to the first invention of the present application, only the depth range may be corrected (second invention of the present application).
In the three-dimensional image correction apparatus according to the first invention of the present application, only the depth time change may be corrected (the third invention of the present application).

また、本願第4発明に係る立体画像補正装置は、奥行き範囲判定手段が、基準奥行き範囲として、観察者毎に固有の個別奥行き範囲が予め設定され、表示奥行き範囲が前記個別奥行き範囲を超えるか否かを判定し、奥行き範囲算出手段が、補正後の要素画像群が立体画像表示装置で表示された際の奥行き範囲を、奥行き範囲算出法によりさらに算出し、観察者に共通する共通奥行き範囲が予め設定され、補正後の要素画像群から算出された奥行き範囲が共通奥行き範囲を超えるか否かを判定し、奥行き範囲が共通奥行き範囲を超える場合に警告する奥行き範囲警告手段、をさらに備えることを特徴とする。   Further, in the stereoscopic image correction apparatus according to the fourth invention of the present application, the depth range determination means sets in advance a unique individual depth range for each observer as the reference depth range, and whether the display depth range exceeds the individual depth range. And the depth range calculation means further calculates the depth range when the corrected elemental image group is displayed on the stereoscopic image display device by the depth range calculation method, and the common depth range common to the observer Is further provided with depth range warning means for determining whether or not the depth range calculated from the corrected elemental image group exceeds the common depth range, and warning if the depth range exceeds the common depth range It is characterized by that.

かかる構成によれば、個々の観察者にとって最適な奥行き範囲内で立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。   According to such a configuration, a stereoscopic image can be reproduced within the optimum depth range for each observer, and an observer can be warned if there is a possibility of causing eye strain when reproducing the stereoscopic image.

また、本願第5発明に係る立体画像補正装置は、奥行き時間変化判定手段が、基準奥行き時間変化として、観察者毎に固有の個別奥行き時間変化が予め設定され、表示奥行き時間変化が個別奥行き時間変化を超えるか否かを判定し、奥行き範囲算出手段が、補正後の遅延要素画像群が立体画像表示装置で表示された際の奥行き範囲を、奥行き範囲算出法によりさらに算出し、奥行き時間変化算出手段が、表示奥行き範囲と補正後の遅延要素画像群から算出された奥行き範囲との変化量である奥行き時間変化をさらに算出し、観察者に共通する共通奥行き時間変化が予め設定され、補正後の遅延要素画像群から算出された奥行き時間変化が共通奥行き時間変化を超えるか否かを判定し、奥行き時間変化が共通奥行き時間変化を超える場合に警告する奥行き時間変化警告手段、をさらに備えることを特徴とする。   Further, in the stereoscopic image correction apparatus according to the fifth invention of the present application, the depth time change determining means presets an individual depth time change specific to each observer as the reference depth time change, and the display depth time change is the individual depth time change. The depth range calculation means further determines the depth range when the corrected delay element image group is displayed on the stereoscopic image display device by the depth range calculation method, and the depth time change The calculation means further calculates a depth time change that is a change amount between the display depth range and the corrected delay element image group, and a common depth time change common to the observer is preset and corrected. Determine whether the depth time change calculated from the later delay element image group exceeds the common depth time change, and warn if the depth time change exceeds the common depth time change That depth time change warning means, and further comprising a.

かかる構成によれば、個々の観察者にとって最適な奥行き時間変化内で立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。   According to such a configuration, a stereoscopic image can be reproduced within an optimum depth time change for an individual observer, and an observer can be warned when there is a possibility of causing eye strain when reproducing the stereoscopic image. .

ここで、本願第1発明に係る立体画像補正装置は、CPU(Central Processing Unit)、記憶手段(例えば、メモリ、ハードディスク)等のハードウェア資源を備えるコンピュータを、前記した各手段として協調動作させるための立体画像補正プログラムによって実現することもできる(本段第6発明)。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   Here, the stereoscopic image correction apparatus according to the first invention of the present application is for causing a computer having hardware resources such as a CPU (Central Processing Unit) and storage means (for example, a memory and a hard disk) to operate cooperatively as the above-described means. It can also be realized by the three-dimensional image correction program (this sixth invention). This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

本願発明は、以下に示す優れた効果を奏するものである。
本願第1,6発明によれば、立体画像補正装置は、立体像の奥行き(奥行き範囲及び奥行き時間変化)を観察者にとって適切な範囲内に補正するため、過度に眼の近い位置で立体像が表示されることや、奥行き方向で立体像の位置が頻繁に変化することがなく、眼精疲労を抑制することができる。
The present invention has the following excellent effects.
According to the first and sixth inventions of the present application, the stereoscopic image correction apparatus corrects the depth (depth range and depth time change) of the stereoscopic image within an appropriate range for the observer. Is not displayed, and the position of the stereoscopic image does not frequently change in the depth direction, and eye strain can be suppressed.

本願第2発明によれば、立体画像補正装置は、立体像の奥行き(奥行き範囲)を観察者にとって適切な範囲内に補正するため、過度に眼の近い位置で立体像が表示されることがなく、眼精疲労を抑制することができる。
本願第3発明によれば、立体画像補正装置は、立体像の奥行き(奥行き時間変化)を観察者にとって適切な範囲内に補正するため、奥行き方向で立体像の位置が頻繁に変化することがなく、眼精疲労を抑制することができる。
According to the second invention of the present application, since the stereoscopic image correction apparatus corrects the depth (depth range) of the stereoscopic image within an appropriate range for the observer, the stereoscopic image may be displayed at an excessively close position of the eyes. In addition, eye strain can be suppressed.
According to the third invention of the present application, since the stereoscopic image correction apparatus corrects the depth (change in depth time) of the stereoscopic image within an appropriate range for the observer, the position of the stereoscopic image may change frequently in the depth direction. In addition, eye strain can be suppressed.

本願第4発明によれば、個々の観察者にとって最適な奥行き範囲内で立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。
本願第5発明によれば、個々の観察者にとって最適な奥行き時間変化内で立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。
According to the fourth aspect of the present invention, a stereoscopic image can be reproduced within an optimum depth range for each observer, and if there is a possibility of causing eye strain when reproducing this stereoscopic image, the observer is warned. it can.
According to the fifth invention of the present application, a stereoscopic image can be reproduced within an optimum depth time change for each observer, and warning is given to the observer when there is a possibility of causing eye strain when reproducing the stereoscopic image. Can do.

本発明の第1実施形態に係る立体画像補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image correction apparatus which concerns on 1st Embodiment of this invention. 図1の立体画像処理手段の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional image processing means of FIG. 図2の距離平面画像生成手段における距離平面画像の生成を説明するための説明図である。It is explanatory drawing for demonstrating the production | generation of the distance plane image in the distance plane image generation means of FIG. 図2の距離平面画像生成手段の構成を示すブロック図である。It is a block diagram which shows the structure of the distance plane image generation means of FIG. 図2の距離平面画像生成手段が生成した距離平面画像を説明するための説明図である。It is explanatory drawing for demonstrating the distance plane image which the distance plane image generation means of FIG. 2 produced | generated. 図2の体積画素分布記憶手段に記憶する体積画素分布を説明するための説明図である。It is explanatory drawing for demonstrating the volume pixel distribution memorize | stored in the volume pixel distribution memory | storage means of FIG. (a)及び(b)は、図2の奥行き範囲補正手段における奥行き範囲の補正を説明するための説明図である。(A) And (b) is explanatory drawing for demonstrating correction | amendment of the depth range in the depth range correction | amendment means of FIG. 図2の補正要素画像群生成手段における補正要素画像群を生成する概念を説明するための説明図である。It is explanatory drawing for demonstrating the concept which produces | generates the correction element image group in the correction element image group generation means of FIG. 図2の補正要素画像群生成手段の構成を示すブロック図である。It is a block diagram which shows the structure of the correction | amendment element image group production | generation means of FIG. 本発明の第2実施形態に係る立体画像補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image correction apparatus which concerns on 2nd Embodiment of this invention. 図11の立体画像補正装置における奥行き時間変化の補正を説明するための説明図である。It is explanatory drawing for demonstrating correction | amendment of the depth time change in the three-dimensional image correction apparatus of FIG. 図11の立体画像補正装置における補正要素画像群を生成する概念を説明するための説明図である。It is explanatory drawing for demonstrating the concept which produces | generates the correction | amendment element image group in the stereo image correction apparatus of FIG. 図11の立体画像補正装置で補正された奥行き時間変化を説明するための説明図であり、(a)は補正前の奥行き時間変化を示し、(b)は補正後の奥行き時間変化を示す。It is explanatory drawing for demonstrating the depth time change correct | amended with the stereo image correction apparatus of FIG. 11, (a) shows the depth time change before correction | amendment, (b) shows the depth time change after correction | amendment. 図11の立体画像補正装置の動作を示すフローチャートである。12 is a flowchart illustrating an operation of the stereoscopic image correction apparatus in FIG. 11. 図11の立体画像補正装置の動作を示すフローチャートである。12 is a flowchart illustrating an operation of the stereoscopic image correction apparatus in FIG. 11. 本発明の第3実施形態に係る立体画像補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image correction apparatus which concerns on 3rd Embodiment of this invention. 従来のIP方式において、被写体の撮影を説明する図である。It is a figure explaining imaging | photography of a to-be-photographed object in the conventional IP system. 従来のIP方式において、立体像の表示を説明する図である。It is a figure explaining the display of a three-dimensional image in the conventional IP system. 従来のIP方式において、奥行き反転の解消を説明する図である。It is a figure explaining cancellation of depth inversion in the conventional IP system. 従来のIP方式において、奥行き反転が解消した要素画像群の表示を説明する図である。It is a figure explaining the display of the element image group which the depth inversion canceled in the conventional IP system.

以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(第1実施形態)
[立体画像補正装置の構成]
図1を参照して、本発明の第1実施形態に係る立体画像補正装置1の構成について、説明する。
立体画像補正装置1は、立体画像表示装置200においてIP方式により立体像を表示する際に、立体画像撮影装置100で撮影された要素画像群の奥行き範囲を補正するものである。
(First embodiment)
[Configuration of stereoscopic image correction apparatus]
With reference to FIG. 1, the structure of the three-dimensional image correction apparatus 1 which concerns on 1st Embodiment of this invention is demonstrated.
The stereoscopic image correction apparatus 1 corrects the depth range of the element image group captured by the stereoscopic image capturing apparatus 100 when displaying a stereoscopic image by the IP method on the stereoscopic image display apparatus 200.

この立体画像補正装置1は、IP方式を用いた立体画像撮影装置100が撮影した映像信号である要素画像群を入力し、補正した要素画像群(補正要素画像群)を出力する。この補正要素画像群は、IP方式を用いた立体画像表示装置200において、立体像を表示する際の要素画像群として使用される。   The stereoscopic image correction apparatus 1 receives an element image group that is a video signal captured by the stereoscopic image capturing apparatus 100 using the IP method, and outputs a corrected element image group (correction element image group). The correction element image group is used as an element image group when displaying a stereoscopic image in the stereoscopic image display apparatus 200 using the IP method.

立体画像撮影装置100は、被写体を要素画像群として撮影する一般的なIP方式を用いた撮影装置であって、例えば、図17に示した立体画像撮影装置910と同様のものである。また、立体画像表示装置200は、要素画像群を立体像として表示する一般的な表示装置であって、例えば、図18に示した立体画像表示装置920と同様のものである。
なお、立体画像補正装置1に入力される要素画像群は、実際の被写体を撮影した映像信号である必要はなく、コンピュータグラフィックス等、計算機(不図示)によって、立体画像撮影装置100を模式的に再現して生成されたものであっても構わない。
The stereoscopic image photographing device 100 is a photographing device using a general IP method for photographing a subject as an element image group, and is similar to the stereoscopic image photographing device 910 shown in FIG. 17, for example. The stereoscopic image display device 200 is a general display device that displays a group of element images as a stereoscopic image, and is similar to the stereoscopic image display device 920 shown in FIG. 18, for example.
The element image group input to the stereoscopic image correction apparatus 1 does not have to be a video signal obtained by capturing an actual subject, and the stereoscopic image capturing apparatus 100 is schematically illustrated by a computer (not shown) such as computer graphics. It may be generated by reproducing.

また、立体画像補正装置1は、立体画像撮影装置100から、要素画像群映像信号と共に、要素画像群の補正に必要な情報として、標準奥行き範囲情報と、基準奥行き範囲情報と、要素画像群生成情報と、標準表示装置情報とが入力される。ただし、標準表示装置情報は、立体画像補正装置1に予め設定されてもよい。   In addition, the stereoscopic image correction apparatus 1 generates standard depth range information, reference depth range information, and element image group generation as information necessary for correcting the element image group together with the element image group video signal from the stereoscopic image capturing apparatus 100. Information and standard display information are input. However, the standard display device information may be set in the stereoscopic image correction device 1 in advance.

標準奥行き範囲情報は、予め設定された、標準的な表示装置(不図示)で立体像が表示された際の奥行き範囲(標準奥行き範囲)を示す情報である。
基準奥行き範囲情報は、予め設定された、観察者にとって適切な奥行き範囲(基準奥行き範囲)を示す情報である。本実施形態では、基準奥行き範囲は、全ての観察者に共通する奥行き範囲(共通奥行き範囲)であることとする。
The standard depth range information is information indicating a preset depth range (standard depth range) when a stereoscopic image is displayed on a standard display device (not shown).
The reference depth range information is information indicating a preset depth range (reference depth range) appropriate for the observer. In the present embodiment, the reference depth range is a depth range (common depth range) common to all observers.

要素画像群生成情報は、立体画像撮影装置100が備える光学素子である要素光学系(以下、要素レンズ)の特性及び配置を示す情報である。
具体的には、要素画像群生成情報は、立体画像撮影装置100の要素レンズ群から撮像板の撮影面までの距離(要素レンズの焦点距離)、要素レンズ群を構成する要素レンズの中心間隔(ピッチ)、撮像板で撮影される被写体の要素画像の大きさ、及び、要素レンズの配置位置を含んでいる。
The element image group generation information is information indicating the characteristics and arrangement of an element optical system (hereinafter referred to as an element lens) that is an optical element included in the stereoscopic image capturing apparatus 100.
Specifically, the element image group generation information includes the distance from the element lens group of the stereoscopic image capturing device 100 to the imaging surface of the imaging plate (focal length of the element lens), and the center distance between the element lenses constituting the element lens group ( Pitch), the size of the elemental image of the subject imaged by the imaging plate, and the arrangement position of the element lens.

また、立体画像補正装置1は、立体画像表示装置200に関連する情報として、表示装置情報が予め設定されている。
この表示装置情報は、立体画像表示装置200が備える要素レンズの特性及び配置を示す情報である。
具体的には、表示装置情報は、立体画像表示装置200の要素レンズ群から表示素子の表示面までの距離(要素レンズの焦点距離)、要素レンズ群を構成する要素レンズの中心間隔(ピッチ)、表示素子で表示される被写体の要素画像の大きさ、及び、要素レンズの配置位置を含んでいる。
In the stereoscopic image correction apparatus 1, display device information is set in advance as information related to the stereoscopic image display device 200.
This display device information is information indicating the characteristics and arrangement of the element lenses included in the stereoscopic image display device 200.
Specifically, the display device information includes the distance from the element lens group of the stereoscopic image display device 200 to the display surface of the display element (focal length of the element lens), and the center interval (pitch) of the element lenses constituting the element lens group. And the size of the elemental image of the subject displayed on the display element and the arrangement position of the element lens.

標準表示装置情報は、標準的な表示装置が備える要素レンズの特性及び配置を示す情報である。
具体的には、標準表示装置情報は、標準的な表示装置の要素レンズ群から表示素子の表示面までの距離(要素レンズの焦点距離)、要素レンズ群を構成する要素レンズの中心間隔(ピッチ)、表示素子で表示される被写体の要素画像の大きさ、及び、要素レンズの配置位置を含んでいる。
The standard display device information is information indicating the characteristics and arrangement of the element lenses included in the standard display device.
Specifically, the standard display device information includes the distance from the element lens group of the standard display device to the display surface of the display element (focal length of the element lens), and the center interval (pitch) of the element lenses constituting the element lens group. ), The size of the element image of the subject displayed on the display element, and the arrangement position of the element lens.

図1に示すように、立体画像補正装置1は、標準奥行き範囲情報と、基準奥行き範囲情報と、要素画像群生成情報と、表示装置情報と、標準表示装置情報とに基づいて、要素画像群を補正するため、表示状態算出手段10と、立体画像処理手段20とを備える。   As illustrated in FIG. 1, the stereoscopic image correction device 1 is configured to generate an element image group based on standard depth range information, reference depth range information, element image group generation information, display device information, and standard display device information. Display state calculation means 10 and stereoscopic image processing means 20 are provided.

表示状態算出手段10は、立体画像表示装置200において、要素画像群が表示される状態(奥行き範囲)を算出するものであり、奥行き範囲算出手段11と、奥行き範囲判定手段13とを備える。   The display state calculation unit 10 calculates a state (depth range) in which the element image group is displayed in the stereoscopic image display device 200, and includes a depth range calculation unit 11 and a depth range determination unit 13.

奥行き範囲算出手段11は、要素画像群が立体画像表示装置200で表示された際の表示奥行き範囲を、所定の奥行き範囲算出法により算出するものである。具体的には、奥行き範囲算出手段11は、以下の式(1)及び式(2)を用いて表示奥行き範囲を算出し、この表示奥行き範囲を示す表示奥行き範囲情報を生成する。   The depth range calculation unit 11 calculates a display depth range when the element image group is displayed on the stereoscopic image display device 200 by a predetermined depth range calculation method. Specifically, the depth range calculation unit 11 calculates a display depth range using the following formulas (1) and (2), and generates display depth range information indicating the display depth range.

Figure 0006076083
Figure 0006076083

Figure 0006076083
Figure 0006076083

具体的には、奥行き範囲算出手段11は、標準奥行き範囲の内、最も観察者に近い点(最近点)の奥行き位置を式(1)のZに代入して、立体画像表示装置200で生成される立体像の最近点を算出する。また、奥行き範囲算出手段11は、標準奥行き範囲の内、最も観察者から遠い点(最遠点)の奥行き位置を式(1)のZに代入して、立体画像表示装置200で生成される立体像の最遠点を算出する。そして、奥行き範囲算出手段11は、立体画像表示装置200で生成される立体像の最近点から最遠点までの範囲を、表示奥行き範囲として算出する。 Specifically, the depth range calculation unit 11, of the standard depth range, a point closest to the observer depth position of (nearest point) by substituting Z c of the formula (1), in the three-dimensional image display device 200 The closest point of the generated stereoscopic image is calculated. Further, the depth range calculation unit 11, of the standard depth range, the point far from the nearest to the observer the depth position of the (farthest point) by substituting Z c of the formula (1), is generated by the stereoscopic image display apparatus 200 The farthest point of the stereoscopic image is calculated. Then, the depth range calculation unit 11 calculates a range from the nearest point to the farthest point of the stereoscopic image generated by the stereoscopic image display apparatus 200 as the display depth range.

ここで、立体画像表示装置200の要素レンズ群から立体像までの距離がZである。また、標準的な表示装置によって立体像が表示された場合におけるレンズ群から立体像までの距離がZである。 Here, the distance from the element lens of the stereoscopic image display apparatus 200 to the stereoscopic image is Z r. The distance from the lens when the stereoscopic image is displayed by the standard display until the stereoscopic image is Z c.

また、標準的な表示装置における表示素子の表示面から要素レンズ群までの距離がdであり、要素レンズ群のピッチPであり、表示素子により表示される要素画像の大きさがKである。これらd,P,kは、標準表示装置情報から取得できる。 The distance from the display surface of the display device in a standard display until the element lens is d c, the pitch P c of the element lens group, the size of the element image displayed by the display device K c It is. These d c , P c , and k c can be acquired from the standard display device information.

また、立体画像表示装置200における表示素子の表示面から要素レンズ群までの距離がdであり、要素レンズ群のピッチがPであり、表示素子により表示される要素画像の大きさがKである。これらd,P,kは、表示装置情報から取得できる。 In the stereoscopic image display apparatus 200, the distance from the display surface of the display element to the element lens group is dr , the pitch of the element lens group is Pr , and the size of the element image displayed by the display element is K. r . These d r , P r , and k r can be acquired from the display device information.

なお、前記した奥行き範囲算出法は、以下の参考文献に記載されているため、詳細な説明を省略する。
参考文献:J.Arai, M.Okui, M.Kobayashi, and F.Okano:"Geometrical effects of positional errors in integral photography", J. Opt. Soc. Am. A,Vol. 21,pp.951-958,2004
Since the depth range calculation method described above is described in the following references, detailed description thereof will be omitted.
References: J.Arai, M.Okui, M.Kobayashi, and F.Okano: "Geometrical effects of positional errors in integral photography", J. Opt. Soc. Am. A, Vol. 21, pp.951-958 , 2004

奥行き範囲判定手段13は、奥行き範囲算出手段11で算出された表示奥行き範囲が基準奥行き範囲を超えるか否かを判定するものである。
表示奥行き範囲が基準奥行き範囲を超える場合、奥行き範囲判定手段13は、要素画像群を補正する旨の指令信号を生成する。
一方、表示奥行き範囲が基準奥行き範囲を超えない場合、奥行き範囲判定手段13は、要素画像群を補正しない旨の指令信号を生成する。
The depth range determination unit 13 determines whether or not the display depth range calculated by the depth range calculation unit 11 exceeds the reference depth range.
When the display depth range exceeds the reference depth range, the depth range determination unit 13 generates a command signal for correcting the element image group.
On the other hand, when the display depth range does not exceed the reference depth range, the depth range determination unit 13 generates a command signal indicating that the element image group is not corrected.

奥行き範囲判定手段13で生成された指令信号は、表示奥行き範囲情報と、標準奥行き範囲情報と、基準奥行き範囲情報と、要素画像群生成情報と、表示装置情報と共に、立体画像処理手段20に出力される。   The command signal generated by the depth range determination unit 13 is output to the stereoscopic image processing unit 20 together with the display depth range information, the standard depth range information, the reference depth range information, the element image group generation information, and the display device information. Is done.

立体画像処理手段20は、指令信号に基づいて、要素画像群の映像信号に対する処理(奥行き範囲の補正)を行うものである。
要素画像群を補正する旨の指令信号が入力された場合、立体画像処理手段20は、要素画像群を補正する。
一方、要素画像群を補正しない旨の指令信号が入力された場合、立体画像処理手段20は、奥行き範囲を補正せず、そのまま立体画像表示装置200に出力する。
The stereoscopic image processing means 20 performs processing (depth range correction) on the video signal of the element image group based on the command signal.
When a command signal for correcting the element image group is input, the stereoscopic image processing unit 20 corrects the element image group.
On the other hand, when a command signal indicating that the element image group is not corrected is input, the stereoscopic image processing unit 20 outputs the same to the stereoscopic image display apparatus 200 without correcting the depth range.

図2に示すように、立体画像処理手段20は、距離平面画像生成手段30と、体積画素分布記憶手段40と、奥行き範囲補正手段50と、補正要素画像群生成手段60とを備える。   As shown in FIG. 2, the stereoscopic image processing unit 20 includes a distance plane image generation unit 30, a volume pixel distribution storage unit 40, a depth range correction unit 50, and a correction element image group generation unit 60.

距離平面画像生成手段30は、入力された要素画像群の各画素を、光学素子情報で示される立体画像表示装置200の要素レンズのピッチ及び焦点距離が同じ仮想要素レンズ(仮想要素光学系)で構成される仮想要素レンズ群(仮想要素光学系群)を介して、光路追跡を行い、仮想要素レンズ群からの距離が異なる、予め設定された距離平面毎に各画素の画素値を割り当てることで、距離毎の平面画像(距離平面画像)を生成するものである。   The distance plane image generation means 30 is a virtual element lens (virtual element optical system) in which each pixel of the input element image group has the same pitch and focal length of the element lens of the stereoscopic image display device 200 indicated by the optical element information. By performing optical path tracking through a configured virtual element lens group (virtual element optical system group), and assigning a pixel value of each pixel to each preset distance plane that is different in distance from the virtual element lens group A plane image for each distance (distance plane image) is generated.

この距離平面画像生成手段30は、異なる距離毎に距離平面画像を生成し、距離に対応付けて体積画素分布記憶手段40に書き込む。
すなわち、距離平面画像生成手段30は、一平面で構成される要素画像群から、複数の距離によって異なる平面画像を生成することで、要素画像群を立体像として表示した際の画素分布に相当する空間(立体像空間)を再現させる。
この距離平面画像生成手段30は、予め定めた複数距離における距離平面画像を生成し、体積画素分布として、体積画素分布記憶手段40に書き込んだ後、体積画素分布を生成した旨を、奥行き範囲補正手段50に通知する。
The distance plane image generation unit 30 generates a distance plane image for each different distance and writes it in the volume pixel distribution storage unit 40 in association with the distance.
That is, the distance plane image generation means 30 corresponds to the pixel distribution when the element image group is displayed as a stereoscopic image by generating different plane images depending on a plurality of distances from the element image group constituted by one plane. Reproduce the space (stereoscopic image space).
This distance plane image generation means 30 generates a distance plane image at a plurality of predetermined distances, writes the volume pixel distribution in the volume pixel distribution storage means 40, and then indicates that the volume pixel distribution has been generated. The means 50 is notified.

ここで、図3を参照して、距離平面画像生成手段30が距離毎に生成する距離平面画像について説明する。
図3に示すように、距離平面画像生成手段30は、要素画像群Gの画像面に対して、立体画像表示装置200における要素レンズ群と表示面までの距離dと同じ距離だけ仮想的に離間して配置した仮想要素レンズ群Vを介して、光路追跡を行うことで、要素画像群Gの各画素の画素値を、任意の距離L,L,…,L毎に割り当てて、平面画像t,t,…,tを生成する。
Here, with reference to FIG. 3, the distance plane image which the distance plane image generation means 30 produces | generates for every distance is demonstrated.
As shown in FIG. 3, the distance plane image generation means 30 virtually corresponds to the image surface of the element image group G by the same distance as the distance dr between the element lens group and the display surface in the stereoscopic image display device 200. By performing optical path tracking through the virtual element lens group V arranged at a distance, the pixel values of each pixel of the element image group G are assigned for each arbitrary distance L 1 , L 2 ,..., L n. , planar image t 1, t 2, ..., to generate a t n.

ここで、距離L,L,…,Lは、予め定めた複数の距離であって、その数及び間隔は任意に定めることができる。なお、距離平面を多く設定すれば、それだけ補正の効果を高めることができるが、演算量は増加する。そこで、距離平面の数及び間隔は、要素画像群Gの画素数等に応じて定めることが好ましい。 Here, the distances L 1 , L 2 ,..., L n are a plurality of predetermined distances, and the number and interval can be arbitrarily determined. If a large number of distance planes are set, the effect of correction can be increased accordingly, but the amount of calculation increases. Therefore, the number and interval of the distance planes are preferably determined according to the number of pixels of the element image group G and the like.

距離平面画像生成手段30は、図3に示すように、ある要素画像の画素gから、対応する仮想要素レンズ(仮想的な開口〔仮想ピンホール〕)Vの中心を通る直線が任意の距離の平面と交わる座標上の画素に、画素gの画素値を割り当てる。すなわち、距離平面画像生成手段30は、要素画像の画素gの画素値を、平面画像t,…,tとの交点の画素g,…,gの画素値とする。
これによって、図3に示すように、ある要素画像の画像領域kの画素の画素値は、対応する仮想要素レンズVを介して拡がり(w,…,w)を持って距離平面に割り当てられる。例えば、要素画像の画像領域kが距離Lの距離平面において拡がる範囲wは、以下の式(3)で表される。
As shown in FIG. 3, the distance plane image generation means 30 has an arbitrary distance from a pixel g of a certain element image to a straight line passing through the center of the corresponding virtual element lens (virtual aperture [virtual pinhole]) V L. The pixel value of the pixel g is assigned to the pixel on the coordinates intersecting with the plane. That is, the distance planar image generating unit 30, the pixel values of the pixels g of the elemental image, a planar image t 1, ..., pixel g 1 at the intersection of the t n, ..., the pixel value of g n.
Thus, as shown in FIG. 3, the pixel values of the pixels of the image region k r of an element image, spread through the corresponding virtual element lenses V L (w 1, ..., w n) distance plane with Assigned to. For example, a range w 1 of the image region k r of the element image is enlarged at a distance plane distance L 1 is expressed by the following equation (3).

Figure 0006076083
Figure 0006076083

また、仮想要素レンズ群Vから最も離れた距離Lに到達する要素画像の画像領域kの範囲wについても、式(3)と同様に求めることができる。
すなわち、距離平面画像生成手段30が生成する立体を構成する平面画像(体積画素分布)は、奥行き方向であるz方向においては、仮想要素レンズ群Vに最も近い距離Lから、仮想要素レンズ群Vから最も遠い距離Lの範囲に生成され、xy方向においては、仮想要素レンズ群Vから最も遠い距離Lにおいて要素画像群の画素値が割り当てられる最大の拡がり範囲、すなわち、要素画像群の大きさよりも上下左右にそれぞれw/2分だけ大きい範囲に生成される。
As for the range w n of the image area k r of the element image that reaches the distance L n farthest from the virtual element lens group V, a can be obtained as for formula (3).
That is, the planar image (volume pixel distribution) that forms the solid generated by the distance planar image generation unit 30 has a virtual element lens group from the distance L 1 closest to the virtual element lens group V in the z direction that is the depth direction. Generated in the range of the distance L n farthest from V, and in the xy direction, the maximum spread range to which the pixel values of the element image group are allocated at the distance L n farthest from the virtual element lens group V, that is, the element image group It is generated in a range larger by w n / 2 in the vertical and horizontal directions than the size.

ここで、図4を参照して、距離平面画像生成手段30の構成について説明する。
図3で説明した複数の距離平面画像からなる体積画素分布を生成するため、距離平面画像生成手段30は、分割手段31と、要素画像変換手段33と、結合手段35と、を備える。
Here, the configuration of the distance plane image generating means 30 will be described with reference to FIG.
In order to generate a volume pixel distribution including a plurality of distance plane images described with reference to FIG. 3, the distance plane image generation unit 30 includes a division unit 31, an element image conversion unit 33, and a combination unit 35.

分割手段31は、表示装置情報に基づいて、映像信号として入力される要素画像群を要素画像単位の画像に分割するものである。すなわち、分割手段31は、要素画像群を、光学素子情報のうちの要素レンズの配置位置に対応する要素画像毎に分割する。   The dividing unit 31 divides an element image group input as a video signal into images in element image units based on display device information. That is, the dividing unit 31 divides the element image group for each element image corresponding to the arrangement position of the element lens in the optical element information.

なお、分割手段31は、要素画像群を立体画像表示装置200が扱う要素画像の大きさで分割する。立体画像撮影装置100と立体画像表示装置200とで、要素画像の大きさ(サイズ、解像度)が異なる場合には、分割手段31は、立体画像表示装置200の要素画像の大きさに合うように、ダウンコンバート、アップコンバート等の画像変換処理を行う。
この分割手段31は、分割した要素画像毎の光波を、要素画像変換手段33に出力する。
Note that the dividing unit 31 divides the element image group by the size of the element image handled by the stereoscopic image display apparatus 200. When the stereoscopic image capturing apparatus 100 and the stereoscopic image display apparatus 200 have different element image sizes (size, resolution), the dividing unit 31 matches the element image size of the stereoscopic image display apparatus 200. Image conversion processing such as down-conversion and up-conversion is performed.
The dividing unit 31 outputs a light wave for each divided element image to the element image converting unit 33.

要素画像変換手段33は、光路追跡を行うことで、分割手段31から入力される要素画像を、予め設定された距離における平面画像に変換するものである。ここでは、要素画像変換手段33は、画素割当手段33aを備える。   The element image converting unit 33 converts the element image input from the dividing unit 31 into a plane image at a preset distance by performing optical path tracking. Here, the element image conversion means 33 includes a pixel allocation means 33a.

画素割当手段33aは、要素画像の画素毎に、当該画素から仮想要素レンズの中心を通る直線が、予め設定された距離平面と交わる座標に、当該画素の画素値を割り当てるものである。これによって、要素画像毎の距離平面画像が生成される。
この画素割当手段33aは、要素画像毎に生成した距離平面画像を結合手段35に出力する。
The pixel assigning unit 33a assigns the pixel value of each pixel to the coordinates at which a straight line passing from the pixel to the center of the virtual element lens intersects a preset distance plane for each pixel of the element image. Thereby, a distance plane image for each element image is generated.
The pixel assigning unit 33a outputs the distance plane image generated for each element image to the combining unit 35.

結合手段35は、要素画像変換手段33(画素割当手段33a)で生成された予め設定された距離平面における要素画像毎の距離平面画像を当該距離平面において要素画像群の要素画像分だけ結合するものである。すなわち、結合手段35は、予め設定された距離平面において、要素画像毎に生成された距離平面画像の画素値を割り当てることで、要素画像群に対応した距離平面画像を生成する。
なお、結合手段35は、距離平面画像の同一の座標に異なる要素画像の画素値が割り当てられている場合、同一の座標に割り当てられた画素値を加算し平均化することで、当該座標の画素値とする。
The combining unit 35 combines the distance plane image for each element image on the preset distance plane generated by the element image conversion unit 33 (pixel allocation unit 33a) by the element image of the element image group on the distance plane. It is. That is, the combining unit 35 generates a distance plane image corresponding to the element image group by assigning the pixel value of the distance plane image generated for each element image on the preset distance plane.
Note that, when the pixel values of different element images are assigned to the same coordinates of the distance plane image, the combining unit 35 adds and averages the pixel values assigned to the same coordinates, thereby obtaining a pixel of the coordinates. Value.

ここで、図5を参照して、平面光強度分布tについて説明する。
図5では、x軸を水平方向とし、y軸を垂直方向とし、z軸を奥行き方向とする。そして、円筒体及び三角錐体の2物体を被写体とし、これら円筒体及び三角錐体の底面をz軸に向けて撮影した場合を考える。この場合、距離平面画像tにおいて、画素値がゼロを超える画素分布範囲は、z軸から見た円筒体の立体像α及び三角錐体の立体像βを表すことになる。
Here, the planar light intensity distribution t will be described with reference to FIG.
In FIG. 5, the x-axis is the horizontal direction, the y-axis is the vertical direction, and the z-axis is the depth direction. Consider a case where two objects, a cylindrical body and a triangular pyramid, are taken as subjects, and the bottom surfaces of these cylindrical bodies and the triangular pyramid are photographed toward the z axis. In this case, in the distance plane image t, the pixel distribution range in which the pixel value exceeds zero represents the cylindrical three-dimensional image α and the triangular pyramid three-dimensional image β viewed from the z-axis.

そして、結合手段35は、要素画像群に対応して生成した距離平面画像を、距離に対応付けて体積画素分布記憶手段40(図2参照)に書き込む。
以上説明した距離平面画像生成手段30は、仮想要素レンズ群からの距離を順次設定し直して、図3で説明したように、複数の距離平面に対応する平面画像を生成する。すなわち、距離平面画像生成手段30は、図3に示すように、仮想要素レンズ群Vからの距離L,L,…,Lに対応する平面画像t,t,…,tを生成する。
この距離平面画像生成手段30で生成された平面画像t,t,…,tは、図6に示すように、距離毎に配列されることで、空間上における体積画素分布として表すことができる。
Then, the combining unit 35 writes the distance plane image generated corresponding to the element image group in the volume pixel distribution storage unit 40 (see FIG. 2) in association with the distance.
The distance plane image generation unit 30 described above sequentially resets the distance from the virtual element lens group, and generates plane images corresponding to a plurality of distance planes as described with reference to FIG. That is, the distance planar image generating unit 30, as shown in FIG. 3, the distance from the virtual element lens group V L 1, L 2, ... , planar image t 1, t 2 corresponding to L n, ..., t n Is generated.
The plane images t 1 , t 2 ,..., T n generated by the distance plane image generation means 30 are arranged for each distance as shown in FIG. Can do.

これによって、体積画素分布記憶手段40には、複数の距離平面における平面画像で構成される体積画素分布が記憶される。この体積画素分布は、要素画像群を立体画像表示装置で表示させる際の立体像空間において、画素を分布させた状態に相当する。
図2に戻って、立体画像処理手段20の構成について、説明を続ける。
As a result, the volume pixel distribution storage means 40 stores a volume pixel distribution composed of planar images on a plurality of distance planes. This volume pixel distribution corresponds to a state in which pixels are distributed in a stereoscopic image space when an element image group is displayed on a stereoscopic image display device.
Returning to FIG. 2, the description of the configuration of the stereoscopic image processing means 20 will be continued.

体積画素分布記憶手段40は、距離平面画像生成手段30で生成された距離平面画像を距離に対応付けて、体積画素分布として記憶するもので、ハードディスク等の一般的な記憶装置である。この体積画素分布は、奥行き範囲補正手段50によって補正され、補正要素画像群生成手段60によって参照される。   The volume pixel distribution storage unit 40 stores the distance plane image generated by the distance plane image generation unit 30 as a volume pixel distribution in association with the distance, and is a general storage device such as a hard disk. This volume pixel distribution is corrected by the depth range correction unit 50 and is referred to by the correction element image group generation unit 60.

奥行き範囲補正手段50は、表示奥行き範囲情報と、基準奥行き範囲情報とを用いて、体積画素分布記憶手段40に記憶された体積画素分布の座標を奥行き方向に補正するものである。   The depth range correction unit 50 corrects the coordinates of the volume pixel distribution stored in the volume pixel distribution storage unit 40 in the depth direction using the display depth range information and the reference depth range information.

この体積画素分布は、補正前の立体像空間の各座標に割り当てられた光強度の集合である。従って、奥行き範囲が補正された体積画素分布(補正体積画素分布)を算出するには、図7(a)に示すように、立体像が生成される立体像空間の補正前の座標(X,Y,Z´)を、図7(b)に示すように、立体像が生成される立体像空間の補正後の座標(X,Y,Z´)に割り当てればよい。
なお、図7(a)では補正前の立体像空間の座標軸をx,y,zと図示し、図7(b)では補正後の立体像空間の座標軸をx,y,zと図示した。
This volume pixel distribution is a set of light intensities assigned to each coordinate in the stereoscopic image space before correction. Therefore, in order to calculate the volume pixel distribution (corrected volume pixel distribution) in which the depth range is corrected, as shown in FIG. 7A, the coordinates (X r ) of the stereoscopic image space where the stereoscopic image is generated are corrected. , Y r , Z ′ r ) may be assigned to the corrected coordinates (X c , Y c , Z ′ c ) of the stereoscopic image space in which the stereoscopic image is generated, as shown in FIG. .
7A illustrates the coordinate axes of the stereoscopic image space before correction as x r , y r , and z r, and FIG. 7B illustrates the coordinate axes of the stereoscopic image space after correction as x c , y c , and so on. Illustrated as zc .

ここで、表示奥行き範囲βと基準奥行き範囲αとの比率をΩとする(ただし、Ω>1)。この場合、補正前の座標(X,Y,Z´)と、補正後の座標(X,Y,Z´)との関係は、以下の式(4)〜式(6)で表すことができる。つまり、奥行き範囲補正手段50は、式(4)〜式(6)を用いて、表示奥行き範囲βと基準奥行き範囲αとの比率Ωで、体積画素分布を奥行き方向に圧縮する。 Here, the ratio between the display depth range β and the reference depth range α is Ω (where Ω> 1). In this case, the relationship between the coordinates before correction (X r , Y r , Z ′ r ) and the coordinates after correction (X c , Y c , Z ′ c ) is expressed by the following equations (4) to (6). ). That is, the depth range correction unit 50 compresses the volume pixel distribution in the depth direction with the ratio Ω between the display depth range β and the reference depth range α using Expressions (4) to (6).

Figure 0006076083
Figure 0006076083

Figure 0006076083
Figure 0006076083

Figure 0006076083
Figure 0006076083

ここでは、奥行き範囲補正手段50は、体積画素分布の座標位置を補正した補正体積画素分布を体積画素分布記憶手段40に書き込み、補正が完了した旨を補正要素画像群生成手段60に通知する。   Here, the depth range correction unit 50 writes the corrected volume pixel distribution in which the coordinate position of the volume pixel distribution is corrected to the volume pixel distribution storage unit 40 and notifies the correction element image group generation unit 60 that the correction is completed.

補正要素画像群生成手段60は、奥行き範囲補正手段50で補正された補正体積画素分布を、表示装置情報で示される立体画像表示装置200の要素レンズのピッチ及び焦点距離が同じ仮想要素レンズ(仮想要素光学系)で構成される仮想要素レンズ群(仮想要素光学系群)を介して、光路追跡を行い、立体画像表示装置200の表示面に相当する位置における要素画像群を生成するものである。   The correction element image group generation unit 60 uses the virtual volume of the corrected volume pixel distribution corrected by the depth range correction unit 50 as a virtual element lens (virtual element lens having the same pitch and focal length of the element lens of the stereoscopic image display device 200 indicated by the display device information. Optical path tracking is performed via a virtual element lens group (virtual element optical system group) configured by an element optical system, and an element image group at a position corresponding to the display surface of the stereoscopic image display device 200 is generated. .

すなわち、補正要素画像群生成手段60は、図8に示すように、補正後の体積画素分布における各画素の画素値(例えば、点〔画素〕aの画素値)を、当該画素から仮想要素レンズ群Vの中心を通る直線と交わる画像上の画素(例えば、点〔画素〕a′)の画素値として割り当てる。なお、図8では、ある点の画素値のみについて画像上に割り当てているが、補正後の体積画素分布全体に亘って割り当てを行う。これによって、補正された要素画像群(補正要素画像群G′)が生成されることになる。   That is, as shown in FIG. 8, the correction element image group generation unit 60 calculates the pixel value of each pixel in the corrected volume pixel distribution (for example, the pixel value of the point [pixel] a) from the pixel to the virtual element lens. Assigned as the pixel value of a pixel (for example, a point [pixel] a ′) on the image that intersects a straight line passing through the center of the group V. In FIG. 8, only pixel values at a certain point are assigned on the image, but assignment is performed over the entire volume pixel distribution after correction. As a result, a corrected element image group (corrected element image group G ′) is generated.

ここで、図9を参照(適宜図2参照)して、補正要素画像群生成手段60の構成について説明する。図9に示すように、補正要素画像群生成手段60は、要素画像逆変換手段61と、連結手段63と、を備える。   Here, the configuration of the correction element image group generation means 60 will be described with reference to FIG. 9 (refer to FIG. 2 as appropriate). As shown in FIG. 9, the correction element image group generation unit 60 includes an element image reverse conversion unit 61 and a connection unit 63.

要素画像逆変換手段61は、補正後の体積画素分布から、表示装置情報で示される立体画像表示装置200の要素レンズの配置位置に対応する要素画像を生成するものである。
すなわち、要素画像逆変換手段61は、要素画像変換手段33とは逆方向に、図3で説明した要素画像の画像領域kの画素値を求める対象画素から、当該要素画像に対応する仮想要素レンズVの中心を通る直線が交わる平面画像tの画素の値を、要素画像の対象画素の画素値とする。なお、距離平面画像生成手段30においては、距離L,L,…,Lは予め定めたものであったが、要素画像逆変換手段61では、補正後の体積画素分布において、画素値が割り当てられた距離(z座標)が、逆変換を行うために対象とする距離平面となる。
ここで、要素画像逆変換手段61は、画素統合手段61aと、補間手段61bと、を備える。
The element image reverse conversion means 61 generates an element image corresponding to the arrangement position of the element lens of the stereoscopic image display device 200 indicated by the display device information from the corrected volume pixel distribution.
That is, the virtual Element image inverting means 61, the element image converting unit 33 in the reverse direction, from the target pixel to determine the pixel value of the image area k r elements image described in FIG. 3, corresponding to the element images The pixel value of the planar image t where the straight lines passing through the center of the lens V L intersect is set as the pixel value of the target pixel of the element image. In the distance plane image generation means 30, the distances L 1 , L 2 ,..., L n are predetermined, but in the element image inverse conversion means 61, the pixel values in the corrected volume pixel distribution The distance (z coordinate) to which is assigned becomes the distance plane that is the object for performing the inverse transformation.
Here, the element image reverse conversion unit 61 includes a pixel integration unit 61a and an interpolation unit 61b.

画素統合手段61aは、補正後の体積画素分布で示される距離毎の平面画像を、要素画像群の画像面(後側焦平面)において統合するものである。すなわち、画素統合手段61aは、補正後の体積画素分布で示される平面画像毎に、要素画像群の画像面において、要素画像の各画素の画素値を、当該画素から仮想要素レンズVの中心を通る直線が交わる平面画像上の画素の画素値として割り当てることで、要素画像を生成する。
なお、要素画像の各画素に対応する距離平面画像の画素は、複数の距離平面画像で複数存在する場合がある。その場合、画素統合手段61aは、対応する複数の距離平面画像の対応する画素の画素値の平均値を求め、要素画像の対応する画素値とする。
例えば、図3において、距離毎の平面画像tが、補正後の体積画素分布を構成する画像であるとすると、画素統合手段61aは、要素画像の画素gの画素値を、画素gから仮想要素レンズVの中心を通る直線が交わる複数の平面画像t,t,…,tの画素g,g,…,gの各画素値の平均値として算出する。
この画素統合手段61aは、生成した複数の要素画像を補間手段61bに出力する。
The pixel integration unit 61a integrates the planar images for each distance indicated by the corrected volume pixel distribution on the image plane (rear focal plane) of the element image group. That is, the pixel integration unit 61a calculates the pixel value of each pixel of the element image on the image plane of the element image group for each plane image indicated by the corrected volume pixel distribution from the pixel to the center of the virtual element lens VL . The element image is generated by assigning the pixel value of the pixel on the planar image where the straight lines passing through.
Note that there may be a plurality of distance plane images corresponding to each pixel of the element image. In that case, the pixel integration unit 61a calculates an average value of the pixel values of the corresponding pixels of the corresponding plurality of distance plane images, and sets the average value as the corresponding pixel value of the element image.
For example, in FIG. 3, when the planar image t for each distance is an image constituting the corrected volume pixel distribution, the pixel integration unit 61 a calculates the pixel value of the pixel g of the element image from the pixel g to the virtual element. Calculated as an average value of the pixel values of the pixels g 1 , g 2 ,..., G n of a plurality of planar images t 1 , t 2 ,..., T n where the straight lines passing through the center of the lens V L intersect.
The pixel integration unit 61a outputs the generated plurality of element images to the interpolation unit 61b.

補間手段61bは、画素統合手段61aにおいて生成された要素画像において、画素値が割り当てられていない画素の画素値を補間するものである。
この補間手段61bに入力される要素画像は、補正後の体積画素分布である距離平面毎の画素値を、要素画像の画素値に割り当てたものであるが、体積画素分布における画素の座標位置が補正されることで、必ずしも要素画像のすべての画素が割り当てられるとは限らない。
The interpolating unit 61b interpolates pixel values of pixels to which no pixel value is assigned in the element image generated by the pixel integrating unit 61a.
The element image input to the interpolating means 61b is obtained by assigning the pixel value for each distance plane, which is the corrected volume pixel distribution, to the pixel value of the element image, and the coordinate position of the pixel in the volume pixel distribution is By correcting, not all pixels of the element image are necessarily assigned.

そこで、補間手段61bは、画素統合手段61aで生成された要素画像において、画素値が割り当てられなかった画素について、隣接する画素の画素値から補間処理によって、画素値を補間する。なお、この補間処理は、一般的な手法を用いればよく、例えば、補間手段61bは、すでに画素値が割り当てられている画素から、内挿や外挿によって、画素値が割り当てられていない画素の画素値を算出する。
この補間手段61bは、補間によりすべての画素値を求めた要素画像を連結手段62に出力する。
Therefore, the interpolation unit 61b interpolates the pixel value of the pixel image to which the pixel value is not assigned in the element image generated by the pixel integration unit 61a from the pixel value of the adjacent pixel by interpolation processing. For this interpolation processing, a general method may be used. For example, the interpolation unit 61b performs interpolation of pixels that have not been assigned pixel values by interpolation or extrapolation from pixels that have already been assigned pixel values. Pixel value is calculated.
The interpolating unit 61 b outputs the element image obtained by calculating all the pixel values to the connecting unit 62.

連結手段63は、要素画像逆変換手段61で生成された個々の要素画像を連結し、要素画像群として構成するものである。
この連結手段63は、個々の要素画像を、光学素子情報のうちの要素レンズの配置位置に対応する位置に配列することで、補正後の要素画像群(補正要素画像群)を生成する。
The connecting means 63 connects the individual element images generated by the element image reverse converting means 61 and constitutes an element image group.
The connecting means 63 generates a corrected element image group (corrected element image group) by arranging the individual element images at positions corresponding to the arrangement positions of the element lenses in the optical element information.

以上説明したように、立体画像補正装置1は、要素画像群の奥行き範囲を補正するため、過度に眼の近い位置で立体像が表示されることがなく、眼精疲労を抑制することができる。
この立体画像補正装置1は、一般的なコンピュータを前記した各手段として機能させるプログラム(立体画像補正プログラム)により動作させることができる。
As described above, since the stereoscopic image correction apparatus 1 corrects the depth range of the element image group, a stereoscopic image is not displayed at an excessively close position of the eyes, and eye strain can be suppressed. .
The stereoscopic image correction apparatus 1 can be operated by a program (stereoscopic image correction program) that causes a general computer to function as each of the above-described means.

なお、要素光学系群は、要素レンズが配列されたレンズアレイとして説明したが、微小なピンホールが配列された開口アレイ(空間フィルタ)であってもよい。
また、立体画像補正装置1は、第2実施形態(図14)で説明するステップS2,S4〜S10を実行する動作を行うため、説明を省略する。
The element optical system group has been described as a lens array in which element lenses are arranged, but may be an aperture array (spatial filter) in which minute pinholes are arranged.
In addition, since the stereoscopic image correction apparatus 1 performs the operation of executing steps S2 and S4 to S10 described in the second embodiment (FIG. 14), description thereof is omitted.

(第2実施形態)
[立体画像補正装置の構成]
図10を参照して、本発明の第2実施形態に係る立体画像補正装置1Bについて、第1実施形態と異なる点を説明する(適宜図2参照)。
立体画像補正装置1Bは、奥行き範囲に加え、奥行き時間変化も補正する点が、第1実施形態と異なる。このため、立体画像補正装置1Bは、表示状態算出手段10Bと、立体画像処理手段20Bと、遅延手段70とを備える。
(Second Embodiment)
[Configuration of stereoscopic image correction apparatus]
With reference to FIG. 10, the difference from the first embodiment will be described for the stereoscopic image correction apparatus 1B according to the second embodiment of the present invention (see FIG. 2 as appropriate).
The stereoscopic image correction apparatus 1B is different from the first embodiment in that in addition to the depth range, the stereoscopic image correction apparatus 1B also corrects the depth time change. Therefore, the stereoscopic image correction apparatus 1B includes a display state calculation unit 10B, a stereoscopic image processing unit 20B, and a delay unit 70.

また、立体画像補正装置1Bは、立体画像撮影装置100から、遅延要素画像群の補正に必要な情報として、標準奥行き時間変化情報と、基準奥行き時間変化情報とが入力される。   The stereoscopic image correction apparatus 1B receives standard depth time change information and reference depth time change information as information necessary for correcting the delay element image group from the stereoscopic image capturing apparatus 100.

標準奥行き時間変化情報は、予め設定された、標準的な表示装置で立体像が表示された場合の奥行き時間変化(標準奥行き時間変化)を示す情報である。
基準奥行き時間変化情報は、予め設定された、観察者にとって適切な奥行き時間変化(基準奥行き時間変化)を示す情報である。本実施形態では、基準奥行き時間変化情報は、全ての観察者に共通する奥行き時間変化(共通奥行き時間変化)であることとする。
The standard depth time change information is information indicating a preset depth time change (standard depth time change) when a stereoscopic image is displayed on a standard display device.
The reference depth time change information is information indicating preset depth time change (reference depth time change) appropriate for the observer. In this embodiment, the reference depth time change information is assumed to be a depth time change common to all observers (common depth time change).

ここでは、遅延手段70から先に説明する。
遅延手段70は、立体画像撮影装置100から要素画像群が入力され、入力された要素画像群を遅延時間だけ遅延させて、遅延要素画像群を出力するものである。この遅延手段70は、例えば、要素画像群を記憶するフレームメモリ(不図示)と、このフレームメモリを制御する制御手段(不図示)とで構成される。
Here, the delay means 70 will be described first.
The delay means 70 receives an element image group from the stereoscopic image capturing apparatus 100, delays the input element image group by a delay time, and outputs a delay element image group. The delay means 70 is composed of, for example, a frame memory (not shown) that stores element image groups and a control means (not shown) that controls the frame memory.

以下の説明では、立体画像撮影装置100から要素画像群が入力された時刻をTとし、遅延手段70での遅延処理後の時刻をTとする。つまり、遅延時間Δ=T−Tとなり、遅延時間Δだけ遅延させた要素画像群を遅延要素画像群と呼ぶ。
なお、遅延時間Δは、例えば、微少時間を示すような、任意の値で予め設定される。
In the following description, the time at which the element images is input from the three-dimensional image photographing apparatus 100 and T 1, the time after the delay processing in the delay means 70 and T 2. That is, the delay time Δ = T 2 −T 1 and the element image group delayed by the delay time Δ is referred to as a delay element image group.
The delay time Δ is set in advance as an arbitrary value, for example, indicating a minute time.

表示状態算出手段10Bは、立体画像表示装置200において、要素画像群及び遅延要素画像群が表示される状態を算出するものであり、奥行き範囲算出手段11Bと、奥行き範囲判定手段13と、奥行き時間変化算出手段15と、奥行き時間変化判定手段17とを備える。   The display state calculation unit 10B calculates a state in which the element image group and the delay element image group are displayed in the stereoscopic image display apparatus 200, and includes a depth range calculation unit 11B, a depth range determination unit 13, and a depth time. A change calculating means 15 and a depth time change determining means 17 are provided.

奥行き範囲算出手段11Bは、表示奥行き範囲に加え、遅延要素画像群が立体画像表示装置200で表示された際の遅延表示奥行き範囲を、図1の奥行き範囲算出手段11と同様に算出するものである。   The depth range calculation unit 11B calculates a delay display depth range when the delay element image group is displayed on the stereoscopic image display device 200 in the same manner as the depth range calculation unit 11 of FIG. 1 in addition to the display depth range. is there.

奥行き時間変化算出手段15は、表示状態算出手段10Bで算出された表示奥行き範囲と遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出するものである。つまり、奥行き時間変化算出手段15は、表示奥行き範囲と遅延表示奥行き範囲との差分を、表示奥行き時間変化として算出する。
この表示奥行き時間変化は、遅延時間Δ(微小時間)における奥行きの変化を示す情報である。
The depth time change calculation unit 15 calculates a display depth time change which is a change amount between the display depth range and the delay display depth range calculated by the display state calculation unit 10B. That is, the depth time change calculation means 15 calculates the difference between the display depth range and the delay display depth range as the display depth time change.
This display depth time change is information indicating a change in depth in the delay time Δ (minute time).

奥行き時間変化判定手段17は、奥行き時間変化算出手段15で算出された表示奥行き時間変化が基準奥行き時間変化を超えるか否かを判定するものである。
表示奥行き範囲が基準奥行き範囲を超える場合、奥行き時間変化判定手段17は、遅延要素画像群を補正する旨の指令信号を生成する。
一方、表示奥行き範囲が基準奥行き範囲を超えない場合、奥行き時間変化判定手段17は、遅延要素画像群を補正しない旨の指令信号を生成する。
奥行き時間変化判定手段17で生成された指令信号は、標準奥行き時間変化情報と、基準奥行き時間変化情報と共に、立体画像処理手段20Bに出力される。
The depth time change determination means 17 determines whether or not the display depth time change calculated by the depth time change calculation means 15 exceeds the reference depth time change.
When the display depth range exceeds the reference depth range, the depth time change determination unit 17 generates a command signal for correcting the delay element image group.
On the other hand, when the display depth range does not exceed the reference depth range, the depth time change determination unit 17 generates a command signal indicating that the delay element image group is not corrected.
The command signal generated by the depth time change determination unit 17 is output to the stereoscopic image processing unit 20B together with the standard depth time change information and the reference depth time change information.

図11に示すように、表示奥行き時間変化ηは、時刻Tの要素画像群における立体像空間と、時刻Tの要素画像群における立体像空間との奥行き範囲の変化量を示す。そして、この例では、奥行き時間変化判定手段17は、表示奥行き時間変化ηが基準奥行き時間変化γを超えるので、遅延要素画像群を補正する旨の指令信号を生成する。
なお、図11では、時刻Tの要素画像群における立体像空間を2点鎖線で図示した。また、図11の符号εについては、説明を後記する。
As illustrated in FIG. 11, the display depth time change η indicates the amount of change in the depth range between the stereoscopic image space in the element image group at time T 1 and the stereoscopic image space in the element image group at time T 2 . In this example, the depth time change determination unit 17 generates a command signal for correcting the delay element image group because the display depth time change η exceeds the reference depth time change γ.
In FIG. 11, illustrating the three-dimensional image space in element image group of time T 1 by a two-dot chain line. Further, the description of the symbol ε in FIG. 11 will be described later.

図10に戻り、立体画像補正装置1Bの構成について、説明を続ける。
立体画像処理手段20Bは、図2の立体画像処理手段20と同様の構成であり、指令信号に基づいて、要素画像群に加え、遅延要素画像群を補正するものである。
遅延要素画像群を補正する旨の指令信号が入力された場合、立体画像処理手段20Bは、遅延要素画像群を補正する。
一方、遅延要素画像群を補正しない旨の指令信号が入力された場合、立体画像処理手段20Bは、遅延要素画像群を補正せず、そのまま立体画像表示装置200に出力する。
Returning to FIG. 10, the description of the configuration of the stereoscopic image correction apparatus 1B will be continued.
The stereoscopic image processing means 20B has the same configuration as that of the stereoscopic image processing means 20 in FIG. 2, and corrects the delay element image group in addition to the element image group based on the command signal.
When a command signal for correcting the delay element image group is input, the stereoscopic image processing unit 20B corrects the delay element image group.
On the other hand, when a command signal indicating that the delay element image group is not corrected is input, the stereoscopic image processing unit 20B outputs the signal to the stereoscopic image display apparatus 200 as it is without correcting the delay element image group.

距離平面画像生成手段30(図2)は、要素画像群と同様の手法により、遅延要素画像群から、距離平面毎に距離平面画像を生成し、距離に対応付けて体積画素分布記憶手段40に書き込むものである。
これによって、体積画素分布記憶手段40(図2)には、要素画像群における体積画素分布に加え、遅延要素画像群における体積画素分布が記憶される。
The distance plane image generation means 30 (FIG. 2) generates a distance plane image for each distance plane from the delay element image group by the same method as the element image group, and associates the distance plane image with the distance in the volume pixel distribution storage means 40. Write.
Thus, the volume pixel distribution storage means 40 (FIG. 2) stores the volume pixel distribution in the delay element image group in addition to the volume pixel distribution in the element image group.

奥行き範囲補正手段50(図2)は、表示奥行き時間変化情報と、基準奥行き時間変化情報とを用いて、遅延要素画像群における体積画素分布の座標を奥行き方向に補正するものである。つまり、奥行き範囲補正手段50は、要素画像群における体積画素分布と同様、表示奥行き時間変化と基準奥行き時間変化との差分で、遅延要素画像群における体積画素分布を補正する。   The depth range correction means 50 (FIG. 2) corrects the coordinates of the volume pixel distribution in the delay element image group in the depth direction using the display depth time change information and the reference depth time change information. That is, the depth range correction unit 50 corrects the volume pixel distribution in the delay element image group by the difference between the display depth time change and the reference depth time change, similarly to the volume pixel distribution in the element image group.

補正要素画像群生成手段60(図2)は、補正要素画像群と同様の手法により、遅延要素画像群における補正体積画素分布から、補正遅延要素画像群を生成するものである。   The correction element image group generation means 60 (FIG. 2) generates a correction delay element image group from the correction volume pixel distribution in the delay element image group by the same method as the correction element image group.

ここで、補正要素画像群生成手段60は、表示装置情報に基づいて、遅延要素画像群における補正体積光強度から仮想要素レンズ群までの距離が予め設定される。この仮想要素レンズ群の位置を、「基準光学素子アレイ位置」と呼ぶ。そして、補正要素画像群生成手段60は、図12に示すように、基準光学素子アレイ位置Sから距離補正値εだけずらした位置に仮想要素レンズ群Vを配置した状態で、補正遅延要素画像群G´´を生成する。
この距離補正値εは、図11に示すように、表示奥行き時間変化ηと基準奥行き時間変化γとの差を示す。
Here, the correction element image group generation unit 60 presets the distance from the corrected volume light intensity in the delay element image group to the virtual element lens group based on the display device information. This position of the virtual element lens group is referred to as “reference optical element array position”. Then, as shown in FIG. 12, the correction element image group generation means 60 corrects the delay element image group in a state where the virtual element lens group V is arranged at a position shifted from the reference optical element array position S by the distance correction value ε. G ″ is generated.
This distance correction value ε indicates the difference between the display depth time change η and the reference depth time change γ, as shown in FIG.

これによって、補正要素画像群生成手段60は、図13(a)の表示奥行き時間変化ηが図13(b)の基準奥行き時間変化γを超えないようにして、補正遅延要素画像群を生成することができる。
なお、図13では、時刻Tの要素画像群における立体像空間を2点鎖線で図示し、時刻Tの遅延要素画像群における立体像空間を実線で図示した。
Accordingly, the correction element image group generation unit 60 generates the correction delay element image group so that the display depth time change η in FIG. 13A does not exceed the reference depth time change γ in FIG. 13B. be able to.
In FIG. 13, the stereoscopic image space in the element image group at time T 1 is illustrated by a two-dot chain line, and the stereoscopic image space in the delay element image group at time T 2 is illustrated by a solid line.

[立体画像補正装置の動作]
図14,15を参照して、立体画像補正装置1Bの動作について、説明する。
立体画像補正装置1Bは、遅延手段70によって、要素画像群を遅延時間だけ遅延させた遅延要素画像群を出力する(ステップS1)。
[Operation of stereoscopic image correction device]
The operation of the stereoscopic image correction apparatus 1B will be described with reference to FIGS.
The stereoscopic image correction apparatus 1B outputs a delayed element image group obtained by delaying the element image group by the delay time by the delay unit 70 (step S1).

立体画像補正装置1Bは、奥行き範囲算出手段11Bによって、要素画像群から表示奥行き範囲を算出し、遅延要素画像群から遅延表示奥行き範囲を算出する(ステップS2)。
立体画像補正装置1Bは、奥行き時間変化算出手段15によって、表示奥行き範囲と遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出する(ステップS3)。
In the stereoscopic image correction apparatus 1B, the depth range calculation unit 11B calculates the display depth range from the element image group, and calculates the delay display depth range from the delay element image group (step S2).
In the stereoscopic image correction apparatus 1B, the depth time change calculation unit 15 calculates a display depth time change that is a change amount between the display depth range and the delayed display depth range (step S3).

立体画像補正装置1Bは、奥行き範囲判定手段13によって、表示奥行き範囲が基準奥行き範囲を超えるか否かを判定する(ステップS4)。
表示奥行き範囲が基準奥行き範囲を超える場合(ステップS4でYes)、立体画像補正装置1Bは、ステップS5の処理に進む。
立体画像補正装置1Bは、距離平面画像生成手段30によって、要素画像群に対し、仮想要素レンズ群からの距離が異なる距離平面を設定する(ステップS5)。
In the stereoscopic image correction apparatus 1B, the depth range determination unit 13 determines whether or not the display depth range exceeds the reference depth range (step S4).
When the display depth range exceeds the reference depth range (Yes in step S4), the stereoscopic image correction apparatus 1B proceeds to the process of step S5.
In the stereoscopic image correction apparatus 1B, the distance plane image generation unit 30 sets distance planes having different distances from the virtual element lens group for the element image group (step S5).

立体画像補正装置1Bは、距離平面画像生成手段30によって、要素画像群の各画素の画素値を、光路追跡により、ステップS5で設定した距離に対応する距離平面に割り当てて距離毎の平面座標(距離平面画像)を生成する。   The stereoscopic image correction apparatus 1B uses the distance plane image generation means 30 to assign the pixel value of each pixel of the element image group to the distance plane corresponding to the distance set in step S5 by optical path tracking, and to obtain a plane coordinate for each distance ( A distance plane image).

すなわち、立体画像補正装置1Bは、距離平面画像生成手段30の分割手段31によって、要素画像群を、表示装置情報で特定される要素画像毎に分割する。
立体画像補正装置1Bは、距離平面画像生成手段30の要素画像変換手段32によって、要素画像の各画素の画素値を、当該画素と、対応する仮想要素レンズの中心とを通る直線が、設定した距離の平面と交わる平面画像上の画素に当該画素値を割り当てる。
立体画像補正装置1Bは、距離平面画像生成手段30の結合手段35によって、要素画像変換手段32(画素割当手段32a)で生成された距離平面における要素画像毎の距離平面画像を当該距離平面において要素画像群の要素画像分だけ結合する(ステップS6)。
That is, in the stereoscopic image correction apparatus 1B, the dividing unit 31 of the distance plane image generating unit 30 divides the element image group for each element image specified by the display device information.
In the stereoscopic image correction apparatus 1B, the element image conversion unit 32 of the distance plane image generation unit 30 sets the pixel value of each pixel of the element image as a straight line passing through the pixel and the center of the corresponding virtual element lens. The pixel value is assigned to a pixel on a planar image that intersects the distance plane.
The stereoscopic image correction apparatus 1B uses the combination unit 35 of the distance plane image generation unit 30 to convert the distance plane image for each element image in the distance plane generated by the element image conversion unit 32 (pixel allocation unit 32a) in the distance plane. Only the element images of the image group are combined (step S6).

立体画像補正装置1Bは、距離平面画像生成手段30(結合手段35)によって、ステップS6で生成された距離毎の平面画像を、体積画素分布記憶手段40に書き込む(ステップS7)。この平面画像が、異なる距離平面毎に生成されることで、体積画素分布となる。   The stereoscopic image correction apparatus 1B writes the planar image for each distance generated in step S6 by the distance plane image generation unit 30 (combination unit 35) in the volume pixel distribution storage unit 40 (step S7). By generating this plane image for each different distance plane, a volume pixel distribution is obtained.

立体画像補正装置1Bは、奥行き範囲補正手段50によって、表示奥行き範囲情報と、基準奥行き範囲情報とを用いて、体積画素分布記憶手段40に記憶された体積画素分布の座標を奥行き方向に補正する。すなわち、奥行き範囲補正手段50は、表示奥行き範囲と基準奥行き範囲との比率で、要素画像群における体積画素分布を奥行き方向に圧縮する(ステップS8)。   In the stereoscopic image correction apparatus 1B, the depth range correction unit 50 corrects the coordinates of the volume pixel distribution stored in the volume pixel distribution storage unit 40 in the depth direction using the display depth range information and the reference depth range information. . That is, the depth range correction unit 50 compresses the volume pixel distribution in the element image group in the depth direction at the ratio of the display depth range and the reference depth range (step S8).

立体画像補正装置1Bは、要素画像逆変換手段61の要素画像逆変換手段61によって、光路追跡により、ステップS8で補正された体積画素分布から、要素画像群の画像面の画素値を算出する。   The stereoscopic image correction apparatus 1B calculates the pixel value of the image plane of the element image group from the volume pixel distribution corrected in step S8 by optical path tracking by the element image inverse conversion means 61 of the element image inverse conversion means 61.

すなわち、立体画像補正装置1Bは、要素画像逆変換手段61の画素統合手段61aによって、画素値を求める対象となる要素画像の画素毎に、当該画素から仮想要素レンズの中心を通る直線上に存在する補正後の体積画素分布の画素の画素値を割り当てる。なお、このとき、直線上に画素値が割り当てられた複数の画素が存在する場合、画素統合手段61aは、それらの平均値を要素画像の画素値とする。
立体画像補正装置1Bは、要素画像逆変換手段61の補間手段61bによって、画素統合手段61aにおいて生成された要素画像において、画素値が割り当てられていない画素の画素値を内挿等により補間する(ステップS9)。
That is, the stereoscopic image correction apparatus 1B exists on a straight line passing from the pixel to the center of the virtual element lens for each pixel of the element image for which the pixel value is obtained by the pixel integration unit 61a of the element image reverse conversion unit 61. A pixel value of a pixel having a corrected volume pixel distribution is assigned. At this time, when there are a plurality of pixels to which pixel values are assigned on a straight line, the pixel integration unit 61a sets the average value of the pixels as the pixel value of the element image.
In the stereoscopic image correction apparatus 1B, the interpolation unit 61b of the element image reverse conversion unit 61 interpolates the pixel value of the pixel to which no pixel value is assigned in the element image generated by the pixel integration unit 61a by interpolation or the like ( Step S9).

立体画像補正装置1Bは、連結手段63によって、要素画像逆変換手段61で生成された個々の要素画像を連結し、補正後の要素画像群を生成する(ステップS10)。   The stereoscopic image correction apparatus 1B connects the individual element images generated by the element image reverse conversion unit 61 by the connecting unit 63, and generates a corrected element image group (step S10).

表示奥行き範囲が基準奥行き範囲を超えない場合(ステップS4でNo)、又は、ステップS10の処理に続いて、立体画像補正装置1Bは、ステップS11の処理に進む。
立体画像補正装置1Bは、奥行き時間変化判定手段17によって、表示奥行き時間変化が基準奥行き時間変化を超えるか否かを判定する(ステップS11)。
When the display depth range does not exceed the reference depth range (No in step S4), or after the process of step S10, the stereoscopic image correction apparatus 1B proceeds to the process of step S11.
In the stereoscopic image correction device 1B, the depth time change determination unit 17 determines whether the display depth time change exceeds the reference depth time change (step S11).

表示奥行き時間変化が基準奥行き時間変化を超える場合(ステップS11でYes)、立体画像補正装置1Bは、ステップS12の処理に進む。
立体画像補正装置1Bは、距離平面画像生成手段30によって、遅延要素画像群に対し、仮想要素レンズ群からの距離が異なる距離平面を設定する(ステップS12)。
When the display depth time change exceeds the reference depth time change (Yes in step S11), the stereoscopic image correction apparatus 1B proceeds to the process of step S12.
In the stereoscopic image correction apparatus 1B, the distance plane image generation unit 30 sets distance planes having different distances from the virtual element lens group for the delay element image group (step S12).

立体画像補正装置1Bは、距離平面画像生成手段30によって、遅延要素画像群の各画素の画素値を、光路追跡により、ステップS12で設定した距離に対応する距離平面に割り当てて距離毎の平面座標(距離平面画像)を生成する。   The stereoscopic image correction apparatus 1B uses the distance plane image generation means 30 to assign the pixel value of each pixel of the delay element image group to the distance plane corresponding to the distance set in step S12 by optical path tracking, and to obtain plane coordinates for each distance. (Distance plane image) is generated.

すなわち、立体画像補正装置1Bは、距離平面画像生成手段30の分割手段31によって、遅延要素画像群を、表示装置情報で特定される要素画像毎に分割する。
立体画像補正装置1Bは、距離平面画像生成手段30の要素画像変換手段32によって、要素画像の各画素の画素値を、当該画素と、対応する仮想要素レンズの中心とを通る直線が、設定した距離の平面と交わる平面画像上の画素に当該画素値を割り当てる。
立体画像補正装置1Bは、距離平面画像生成手段30の結合手段35によって、要素画像変換手段32(画素割当手段32a)で生成された距離平面における要素画像毎の距離平面画像を当該距離平面において遅延要素画像群の要素画像分だけ結合する(ステップS13)。
That is, in the stereoscopic image correction apparatus 1B, the division element 31 of the distance plane image generation unit 30 divides the delay element image group for each element image specified by the display device information.
In the stereoscopic image correction apparatus 1B, the element image conversion unit 32 of the distance plane image generation unit 30 sets the pixel value of each pixel of the element image as a straight line passing through the pixel and the center of the corresponding virtual element lens. The pixel value is assigned to a pixel on a planar image that intersects the distance plane.
The stereoscopic image correction apparatus 1B delays the distance plane image for each element image in the distance plane generated by the element image conversion unit 32 (pixel allocation unit 32a) in the distance plane by the combining unit 35 of the distance plane image generation unit 30. Only the element images of the element image group are combined (step S13).

立体画像補正装置1Bは、距離平面画像生成手段30(結合手段35)によって、ステップS13で生成された距離毎の平面画像を、体積画素分布記憶手段40に書き込む(ステップS14)。   The stereoscopic image correction apparatus 1B writes the plane image for each distance generated in step S13 by the distance plane image generation unit 30 (combination unit 35) in the volume pixel distribution storage unit 40 (step S14).

立体画像補正装置1Bは、奥行き範囲補正手段50によって、表示奥行き時間変化情報と、基準奥行き時間変化情報とを用いて、体積画素分布記憶手段40に記憶された体積画素分布の座標を奥行き方向に補正する。すなわち、奥行き範囲補正手段50は、表示奥行き時間変化と基準奥行き時間変化との差分で、遅延要素画像群における体積画素分布を奥行き方向に圧縮する(ステップS15)。   The stereoscopic image correction apparatus 1B uses the depth range correction unit 50 to display the coordinates of the volume pixel distribution stored in the volume pixel distribution storage unit 40 in the depth direction using the display depth time change information and the reference depth time change information. to correct. In other words, the depth range correction unit 50 compresses the volume pixel distribution in the delay element image group in the depth direction based on the difference between the display depth time change and the reference depth time change (step S15).

立体画像補正装置1Bは、要素画像逆変換手段61の要素画像逆変換手段61によって、光路追跡により、ステップS15で補正された体積画素分布から、遅延要素画像群の画像面の画素値を算出する。   The stereoscopic image correction apparatus 1B calculates the pixel value of the image plane of the delay element image group from the volume pixel distribution corrected in step S15 by optical path tracking by the element image inverse conversion means 61 of the element image inverse conversion means 61. .

すなわち、立体画像補正装置1Bは、要素画像逆変換手段61の画素統合手段61aによって、画素値を求める対象となる要素画像の画素毎に、当該画素から仮想要素レンズの中心を通る直線上に存在する補正後の体積画素分布の画素の画素値を割り当てる。
立体画像補正装置1Bは、要素画像逆変換手段61の補間手段61bによって、画素統合手段61aにおいて生成された要素画像において、画素値が割り当てられていない画素の画素値を内挿等により補間する(ステップS16)。
That is, the stereoscopic image correction apparatus 1B exists on a straight line passing from the pixel to the center of the virtual element lens for each pixel of the element image for which the pixel value is obtained by the pixel integration unit 61a of the element image reverse conversion unit 61. A pixel value of a pixel having a corrected volume pixel distribution is assigned.
In the stereoscopic image correction apparatus 1B, the interpolation unit 61b of the element image reverse conversion unit 61 interpolates the pixel value of the pixel to which no pixel value is assigned in the element image generated by the pixel integration unit 61a by interpolation or the like ( Step S16).

立体画像補正装置1Bは、連結手段63によって、要素画像逆変換手段61で生成された個々の要素画像を連結し、補正後の遅延要素画像群を生成する(ステップS17)。
表示奥行き時間変化が基準奥行き時間変化を超えない場合(ステップS11でNo)、又は、ステップS17の後、立体画像補正装置1Bは、処理を終了する。
The stereoscopic image correction apparatus 1B connects the individual element images generated by the element image reverse conversion unit 61 by the connecting unit 63, and generates a corrected delayed element image group (step S17).
When the display depth time change does not exceed the reference depth time change (No in step S11), or after step S17, the stereoscopic image correction apparatus 1B ends the process.

以上説明したように、立体画像補正装置1Bは、要素画像群の奥行き範囲と遅延要素画像群の奥行き時間変化とを補正するため、過度に眼の近い位置で立体像が表示されることや、奥行き方向で立体像の位置が頻繁に変化することがないため、眼精疲労を抑制することができる。   As described above, since the stereoscopic image correction apparatus 1B corrects the depth range of the element image group and the depth time change of the delay element image group, the stereoscopic image is displayed at an excessively close position of the eye, Since the position of the stereoscopic image does not change frequently in the depth direction, it is possible to suppress eye strain.

なお、第2実施形態では、立体画像補正装置1Bが奥行き範囲及び奥行き時間変化の両方を補正することとして説明したが、奥行き時間変化のみを補正してもよい。この場合、立体画像補正装置1Bは、奥行き範囲判定手段13を備える必要がない。   In the second embodiment, the stereoscopic image correction apparatus 1B has been described as correcting both the depth range and the depth time change. However, only the depth time change may be corrected. In this case, the stereoscopic image correction apparatus 1B does not need to include the depth range determination unit 13.

(第3実施形態)
[立体画像補正装置の構成]
図16を参照して、本発明の第3実施形態に係る立体画像補正装置1Cについて、第2実施形態と異なる点を説明する。
立体画像補正装置1Cは、所定の条件により警告を行う点が、第2実施形態と異なる。このため、立体画像補正装置1Cは、表示状態算出手段10Cと、立体画像処理手段20Bと、遅延手段70と、パラメータ設定手段80と、警告手段90とを備える。
(Third embodiment)
[Configuration of stereoscopic image correction apparatus]
With reference to FIG. 16, a difference from the second embodiment will be described regarding a stereoscopic image correction apparatus 1 </ b> C according to the third embodiment of the present invention.
The stereoscopic image correction apparatus 1C is different from the second embodiment in that a warning is issued under a predetermined condition. Therefore, the stereoscopic image correction apparatus 1C includes a display state calculation unit 10C, a stereoscopic image processing unit 20B, a delay unit 70, a parameter setting unit 80, and a warning unit 90.

ここでは、パラメータ設定手段80から先に説明する。
パラメータ設定手段80は、観察者が各種パラメータ(個別奥行き範囲情報、個別奥行き時間変化情報、動作モード情報)を設定するものである。
このパラメータ設定手段80に設定されたパラメータは、表示状態算出手段10Cと、立体画像処理手段20Bと、警告手段90とで参照される。
Here, the parameter setting means 80 will be described first.
The parameter setting means 80 is for the observer to set various parameters (individual depth range information, individual depth time change information, operation mode information).
The parameters set in the parameter setting unit 80 are referred to by the display state calculation unit 10C, the stereoscopic image processing unit 20B, and the warning unit 90.

個別奥行き範囲情報は、予め設定された、観察者毎に固有の奥行き範囲(個別奥行き範囲)を示す情報である。
個別奥行き時間変化情報は、予め設定された、観察者毎に固有の奥行き時間変化(個別奥行き時間変化)を示す情報である。
動作モード情報は、基準設定モード又は視聴者設定モードの何れで立体画像補正装置1Cが動作するかを示す情報である。
The individual depth range information is information indicating a preset depth range (individual depth range) for each observer.
The individual depth time change information is information indicating a preset depth time change (individual depth time change) for each observer, which is set in advance.
The operation mode information is information indicating whether the stereoscopic image correction apparatus 1C operates in the reference setting mode or the viewer setting mode.

基準設定モードとは、基準奥行き範囲情報及び基準奥行き時間変化情報を用いて、立体画像補正装置1Cが動作することである。つまり、基準設定モードの場合、立体画像補正装置1Cは、全ての観察者に共通する共通奥行き範囲及び共通奥行き時間変化を用いることになる。   The reference setting mode is that the stereoscopic image correction apparatus 1C operates using the reference depth range information and the reference depth time change information. That is, in the case of the reference setting mode, the stereoscopic image correction apparatus 1C uses a common depth range and a common depth time change common to all viewers.

視聴者設定モードとは、個別奥行き範囲情報及び個別奥行き時間変化情報を用いて、立体画像補正装置1Cが動作することである。つまり、視聴者設定モードの場合、立体画像補正装置1Cは、観察者毎に固有の個別奥行き範囲及び個別奥行き時間変化を用いることになる。さらに、立体画像補正装置1Cは、補正要素画像群及び補正遅延要素画像群が眼精疲労を引き起こす可能性がある場合、警告を行う。   The viewer setting mode is the operation of the stereoscopic image correction apparatus 1C using the individual depth range information and the individual depth time change information. That is, in the case of the viewer setting mode, the stereoscopic image correction apparatus 1C uses the individual depth range and the individual depth time change unique to each viewer. Furthermore, the stereoscopic image correction apparatus 1C issues a warning when the correction element image group and the correction delay element image group may cause eye strain.

表示状態算出手段10Cは、奥行き範囲算出手段11Cと、奥行き範囲判定手段13Cと、奥行き時間変化算出手段15Cと、奥行き時間変化判定手段17Cとを備える。
また、表示状態算出手段10Cは、立体画像処理手段20Bから補正要素画像群及び補正遅延要素画像群が入力される。
The display state calculation unit 10C includes a depth range calculation unit 11C, a depth range determination unit 13C, a depth time change calculation unit 15C, and a depth time change determination unit 17C.
Further, the display state calculation unit 10C receives the correction element image group and the correction delay element image group from the stereoscopic image processing unit 20B.

奥行き範囲算出手段11Cは、視聴者設定モードの場合、補正要素画像群の奥行き範囲(補正奥行き範囲)と、補正遅延要素画像群の奥行き範囲とを、図10の奥行き範囲算出手段11Bと同様に算出するものである。
この奥行き範囲算出手段11Cで算出された補正奥行き範囲は、警告手段90に出力される。
In the viewer setting mode, the depth range calculation unit 11C determines the depth range (correction depth range) of the correction element image group and the depth range of the correction delay element image group in the same manner as the depth range calculation unit 11B of FIG. Is to be calculated.
The corrected depth range calculated by the depth range calculation unit 11C is output to the warning unit 90.

奥行き範囲判定手段13Cは、動作モード情報に基づいて、個別奥行き範囲情報又は基準奥行き範囲情報の何れか一方を選択して、図10の奥行き範囲判定手段13と同様に判定するものである。   The depth range determination unit 13C selects one of the individual depth range information and the reference depth range information based on the operation mode information, and makes the determination in the same manner as the depth range determination unit 13 in FIG.

奥行き時間変化算出手段15Cは、視聴者設定モードの場合、補正要素画像群と補正遅延要素画像群との奥行き時間変化(補正奥行き時間変化)を、図10の奥行き時間変化算出手段15と同様に算出するものである。
この奥行き時間変化算出手段15Cで算出された補正奥行き時間変化は、警告手段90に出力される。
In the viewer setting mode, the depth time change calculation means 15C changes the depth time change (correction depth time change) between the correction element image group and the correction delay element image group in the same manner as the depth time change calculation means 15 in FIG. Is to be calculated.
The corrected depth time change calculated by the depth time change calculation means 15C is output to the warning means 90.

奥行き時間変化判定手段17Cは、動作モード情報に基づいて、個別奥行き時間変化情報又は基準奥行き時間変化情報の何れか一方を選択して、図10の奥行き時間変化判定手段17と同様に判定するものである。   Depth time change determination means 17C selects either individual depth time change information or reference depth time change information based on the operation mode information, and makes the same determination as depth time change determination means 17 in FIG. It is.

警告手段90は、視聴者設定モードの場合、所定の条件により警告を行うものであり、奥行き範囲警告手段91と、奥行き時間変化警告手段93とを備えるものである。   In the viewer setting mode, the warning unit 90 issues a warning according to a predetermined condition, and includes a depth range warning unit 91 and a depth time change warning unit 93.

奥行き範囲警告手段91は、奥行き範囲算出手段11Cから入力された補正奥行き範囲が共通奥行き範囲を超えるか否かを判定し、補正奥行き範囲が共通奥行き範囲を超える場合に警告するものである。
ここで、奥行き範囲警告手段91は、警告方法が特に制限されず、奥行き範囲の警告メッセージを映像信号に付加してもよい。また、奥行き範囲警告手段91は、この警告メッセージを予め設定されたメールアドレスに送信してもよく、所定の警告音を鳴らしてもよい。
The depth range warning unit 91 determines whether or not the corrected depth range input from the depth range calculation unit 11C exceeds the common depth range, and warns when the corrected depth range exceeds the common depth range.
Here, the depth range warning means 91 may add a warning message for the depth range to the video signal without any particular limitation on the warning method. Further, the depth range warning means 91 may transmit this warning message to a preset mail address or may sound a predetermined warning sound.

奥行き時間変化警告手段93は、奥行き時間変化算出手段15Cから入力された補正奥行き時間変化が共通奥行き時間変化を超えるか否かを判定し、補正奥行き時間変化が共通奥行き時間変化を超える場合に警告するものである。
ここで、奥行き時間変化警告手段93は、奥行き範囲警告手段91と同様の手法で警告することができる。
The depth time change warning means 93 determines whether or not the corrected depth time change input from the depth time change calculation means 15C exceeds the common depth time change, and warns when the corrected depth time change exceeds the common depth time change. To do.
Here, the depth time change warning means 93 can give a warning in the same manner as the depth range warning means 91.

以上説明したように、立体画像補正装置1Cは、個々の観察者にとって最適な奥行き範囲及び奥行き時間変化に収まるように立体映像を再生できると共に、この立体映像の再生時に眼精疲労を引き起こす可能性がある場合、観察者に警告することができる。   As described above, the stereoscopic image correction apparatus 1 </ b> C can reproduce a stereoscopic image so as to be within a depth range and depth time change that are optimal for each observer, and may cause eye strain during reproduction of the stereoscopic image. If there is, it can alert the observer.

なお、立体画像補正装置1Cは、警告手段90を備えずに、個別奥行き範囲情報及び個別奥行き時間変化情報、又は、基準奥行き範囲情報及び基準奥行き時間変化情報の何れか一方のみを用いる構成としてもよい。   Note that the stereoscopic image correcting apparatus 1C may be configured to use only one of the individual depth range information and the individual depth time change information, or the reference depth range information and the reference depth time change information without including the warning unit 90. Good.

1,1B,1C 立体画像補正装置
10,10B,10C 表示状態算出手段
11,11B,11C 奥行き範囲算出手段
13,13C 奥行き範囲判定手段
15,15C 奥行き時間変化算出手段
17,17C 奥行き時間変化判定手段
20,20B 立体画像処理手段
30 距離平面画像生成手段
31 分割手段
33 要素画像変換手段
33a 画素割当手段
35 結合手段
40 体積画素分布記憶手段
50 奥行き範囲補正手段
60 補正要素画像群生成手段
61 要素画像逆変換手段
61a 画素統合手段
61b 補間手段
63 連結手段
70 遅延手段
80 パラメータ設定手段
90 警告手段
91 奥行き範囲警告手段
93 奥行き時間変化警告手段
1, 1B, 1C Stereoscopic image correction apparatus 10, 10B, 10C Display state calculation means 11, 11B, 11C Depth range calculation means 13, 13C Depth range determination means 15, 15C Depth time change calculation means 17, 17C Depth time change determination means 20, 20B Stereoscopic image processing means 30 Distance plane image generation means 31 Division means 33 Element image conversion means 33a Pixel allocation means 35 Combining means 40 Volume pixel distribution storage means 50 Depth range correction means 60 Correction element image group generation means 61 Element image reverse Conversion means 61a Pixel integration means 61b Interpolation means 63 Connection means 70 Delay means 80 Parameter setting means 90 Warning means 91 Depth range warning means 93 Depth time change warning means

Claims (6)

インテグラルフォトグラフィ方式により立体画像撮影装置で撮影された要素画像群が立体画像表示装置で表示された際の立体像の奥行き範囲と、前記奥行き範囲の変化量である奥行き時間変化とを補正する立体画像補正装置であって、
前記要素画像群が入力され、入力された前記要素画像群を予め設定された遅延時間だけ遅延させて、遅延要素画像群を出力する遅延手段と、
前記要素画像群及び前記遅延要素画像群がそれぞれ前記立体画像表示装置で表示された際の表示奥行き範囲及び遅延表示奥行き範囲を、所定の奥行き範囲算出法により算出する奥行き範囲算出手段と、
前記表示奥行き範囲が予め設定された基準奥行き範囲を超えるか否かを判定する奥行き範囲判定手段と、
前記表示奥行き範囲と前記遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出する奥行き時間変化算出手段と、
前記表示奥行き時間変化が予め設定された基準奥行き時間変化を超えるか否かを判定する奥行き時間変化判定手段と、
前記表示奥行き範囲が前記基準奥行き範囲を超える場合、前記要素画像群に対し、前記立体画像表示装置の要素光学系のピッチ及び焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介して、光線追跡を行うことで、当該仮想要素光学系群からの距離が異なる予め設定された距離平面毎の画素分布を示す距離平面画像を前記要素画像群から生成し、前記表示奥行き時間変化が前記基準奥行き時間変化を超える場合、前記遅延要素画像群に対し、前記仮想要素光学系群を介して、光線追跡を行うことで、前記遅延要素画像群から前記距離平面画像を生成する距離平面画像生成手段と、
前記距離平面画像生成手段で生成された距離平面毎の距離平面画像を、距離に対応付けて、前記立体像を表示する立体像空間上の体積画素分布として記憶する体積画素分布記憶手段と、
前記表示奥行き範囲が前記基準奥行き範囲を超える場合、前記表示奥行き範囲と前記基準奥行き範囲との比で、前記要素画像群における体積画素分布の座標を奥行き方向に補正し、前記表示奥行き時間変化が前記基準奥行き時間変化を超える場合、前記表示奥行き時間変化と前記基準奥行き時間変化との差分で、前記遅延要素画像群における体積画素分布の座標を奥行き方向に補正する奥行き範囲補正手段と、
前記奥行き範囲補正手段で補正された体積画素分布の距離平面毎に、前記仮想要素光学系群を介して、光線追跡を行うことで、補正後の要素画像群及び遅延要素画像群の少なくとも一方を生成する補正要素画像群生成手段と、
を備えることを特徴とする立体画像補正装置。
Corrects a depth range of a stereoscopic image when an elemental image group captured by a stereoscopic image capturing device using the integral photography method is displayed on a stereoscopic image display device, and a change in depth time that is a change amount of the depth range. A stereoscopic image correction device,
A delay means for inputting the element image group, delaying the input element image group by a preset delay time, and outputting a delay element image group;
A depth range calculating means for calculating a display depth range and a delayed display depth range when the element image group and the delay element image group are respectively displayed on the stereoscopic image display device by a predetermined depth range calculation method;
Depth range determining means for determining whether or not the display depth range exceeds a preset reference depth range;
A depth time change calculating means for calculating a display depth time change which is a change amount between the display depth range and the delay display depth range;
Depth time change determination means for determining whether or not the display depth time change exceeds a preset reference depth time change;
When the display depth range exceeds the reference depth range, virtual element optics in which virtual element optical systems having the same pitch and focal length of the element optical system of the stereoscopic image display device are arranged in a two-dimensional manner for the element image group By performing ray tracing through the system group, a distance plane image showing a pixel distribution for each preset distance plane having a different distance from the virtual element optical system group is generated from the element image group, and the display When the depth time change exceeds the reference depth time change, the distance plane image is generated from the delay element image group by performing ray tracing on the delay element image group via the virtual element optical system group. A distance plane image generating means for performing,
Volume pixel distribution storage means for storing a distance plane image for each distance plane generated by the distance plane image generation means as a volume pixel distribution on a stereoscopic image space for displaying the stereoscopic image in association with a distance;
When the display depth range exceeds the reference depth range, the coordinates of the volume pixel distribution in the element image group are corrected in the depth direction at a ratio between the display depth range and the reference depth range, and the display depth time change is When the reference depth time change is exceeded, a depth range correction unit that corrects the coordinates of the volume pixel distribution in the delay element image group in the depth direction by a difference between the display depth time change and the reference depth time change;
By performing ray tracing through the virtual element optical system group for each distance plane of the volume pixel distribution corrected by the depth range correction unit, at least one of the corrected element image group and the delayed element image group is obtained. Correction element image group generation means for generating;
A three-dimensional image correction apparatus comprising:
インテグラルフォトグラフィ方式により立体画像撮影装置で撮影された要素画像群が立体画像表示装置で表示された際の立体像の奥行き範囲を補正する立体画像補正装置であって、
前記要素画像群が前記立体画像表示装置で表示された際の表示奥行き範囲を、所定の奥行き範囲算出法により算出する奥行き範囲算出手段と、
前記表示奥行き範囲が予め設定された基準奥行き範囲を超えるか否かを判定する奥行き範囲判定手段と、
前記表示奥行き範囲が前記基準奥行き範囲を超える場合、前記要素画像群に対し、前記立体画像表示装置の要素光学系のピッチ及び焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介して、光線追跡を行うことで、当該仮想要素光学系群からの距離が異なる予め設定された距離平面毎の画素分布を示す距離平面画像を生成する距離平面画像生成手段と、
前記距離平面画像生成手段で生成された距離平面毎の距離平面画像を、距離に対応付けて、前記立体像を表示する立体像空間上の体積画素分布として記憶する体積画素分布記憶手段と、
前記表示奥行き範囲が前記基準奥行き範囲を超える場合、前記表示奥行き範囲と前記基準奥行き範囲との比で、前記要素画像群における体積画素分布の座標を奥行き方向に補正する奥行き範囲補正手段と、
前記奥行き範囲補正手段で補正された体積画素分布の距離平面毎に、前記仮想要素光学系群を介して、光線追跡を行うことで、補正後の要素画像群を生成する補正要素画像群生成手段と、
を備えることを特徴とする立体画像補正装置。
A stereoscopic image correction apparatus that corrects a depth range of a stereoscopic image when an elemental image group captured by a stereoscopic image capturing apparatus using an integral photography method is displayed on a stereoscopic image display apparatus,
Depth range calculation means for calculating a display depth range when the element image group is displayed on the stereoscopic image display device by a predetermined depth range calculation method;
Depth range determining means for determining whether or not the display depth range exceeds a preset reference depth range;
When the display depth range exceeds the reference depth range, virtual element optics in which virtual element optical systems having the same pitch and focal length of the element optical system of the stereoscopic image display device are arranged in a two-dimensional manner for the element image group A distance plane image generating means for generating a distance plane image indicating a pixel distribution for each preset distance plane having a different distance from the virtual element optical system group by performing ray tracing through the system group;
Volume pixel distribution storage means for storing a distance plane image for each distance plane generated by the distance plane image generation means as a volume pixel distribution on a stereoscopic image space for displaying the stereoscopic image in association with a distance;
When the display depth range exceeds the reference depth range, a depth range correction unit that corrects the coordinates of the volume pixel distribution in the element image group in the depth direction at a ratio between the display depth range and the reference depth range;
Correction element image group generation means for generating a corrected element image group by performing ray tracing through the virtual element optical system group for each distance plane of the volume pixel distribution corrected by the depth range correction means. When,
A three-dimensional image correction apparatus comprising:
インテグラルフォトグラフィ方式により立体画像撮影装置で撮影された要素画像群が立体画像表示装置で表示された際の立体像の奥行き範囲の変化量である奥行き時間変化を補正する立体画像補正装置であって、
前記要素画像群が入力され、入力された前記要素画像群を予め設定された遅延時間だけ遅延させて、遅延要素画像群を出力する遅延手段と、
前記要素画像群及び前記遅延要素画像群がそれぞれ前記立体画像表示装置で表示された際の表示奥行き範囲及び遅延表示奥行き範囲を、所定の奥行き範囲算出法により算出する奥行き範囲算出手段と、
前記表示奥行き範囲と前記遅延表示奥行き範囲との変化量である表示奥行き時間変化を算出する奥行き時間変化算出手段と、
前記表示奥行き時間変化が予め設定された基準奥行き時間変化を超えるか否かを判定する奥行き時間変化判定手段と、
前記表示奥行き時間変化が前記基準奥行き時間変化を超える場合、前記遅延要素画像群に対し、前記立体画像表示装置の要素光学系のピッチ及び焦点距離が同じ仮想要素光学系を2次元状に配列した仮想要素光学系群を介して、光線追跡を行うことで、当該仮想要素光学系群からの距離が異なる予め設定された距離平面毎の画素分布を示す距離平面画像を生成する距離平面画像生成手段と、
前記距離平面画像生成手段で生成された距離平面毎の距離平面画像を、距離に対応付けて、前記立体像を表示する立体像空間上の体積画素分布として記憶する体積画素分布記憶手段と、
前記表示奥行き時間変化が前記基準奥行き時間変化を超える場合、前記表示奥行き時間変化と前記基準奥行き時間変化との差分で、前記遅延要素画像群における体積画素分布の座標を奥行き方向に補正する奥行き範囲補正手段と、
前記奥行き範囲補正手段で補正された体積画素分布の距離平面毎に、前記仮想要素光学系群を介して、光線追跡を行うことで、補正後の要素画像群を生成する補正要素画像群生成手段と、
を備えることを特徴とする立体画像補正装置。
A stereoscopic image correction device that corrects a depth time change, which is a change amount of a depth range of a stereoscopic image when an element image group captured by a stereoscopic image capturing device by an integral photography method is displayed on a stereoscopic image display device. And
A delay means for inputting the element image group, delaying the input element image group by a preset delay time, and outputting a delay element image group;
A depth range calculating means for calculating a display depth range and a delayed display depth range when the element image group and the delay element image group are respectively displayed on the stereoscopic image display device by a predetermined depth range calculation method;
A depth time change calculating means for calculating a display depth time change which is a change amount between the display depth range and the delay display depth range;
Depth time change determination means for determining whether or not the display depth time change exceeds a preset reference depth time change;
When the display depth time change exceeds the reference depth time change, virtual element optical systems having the same pitch and focal length of the element optical system of the stereoscopic image display device are two-dimensionally arranged for the delay element image group. Distance plane image generation means for generating a distance plane image indicating a pixel distribution for each preset distance plane having a different distance from the virtual element optical system group by performing ray tracing through the virtual element optical system group When,
Volume pixel distribution storage means for storing a distance plane image for each distance plane generated by the distance plane image generation means as a volume pixel distribution on a stereoscopic image space for displaying the stereoscopic image in association with a distance;
When the display depth time change exceeds the reference depth time change, a depth range for correcting the coordinates of the volume pixel distribution in the delay element image group in the depth direction by a difference between the display depth time change and the reference depth time change Correction means;
Correction element image group generation means for generating a corrected element image group by performing ray tracing through the virtual element optical system group for each distance plane of the volume pixel distribution corrected by the depth range correction means. When,
A three-dimensional image correction apparatus comprising:
前記奥行き範囲判定手段は、前記基準奥行き範囲として、察者毎に固有の個別奥行き範囲が予め設定され、前記表示奥行き範囲が前記個別奥行き範囲を超えるか否かを判定し、
前記奥行き範囲算出手段は、前記補正後の要素画像群が前記立体画像表示装置で表示された際の奥行き範囲を、前記奥行き範囲算出法によりさらに算出し、
前記観察者に共通する共通奥行き範囲が予め設定され、前記補正後の要素画像群から算出された奥行き範囲が前記共通奥行き範囲を超えるか否かを判定し、当該奥行き範囲が前記共通奥行き範囲を超える場合に警告する奥行き範囲警告手段、
をさらに備えることを特徴とする請求項1又は請求項2に記載の立体画像補正装置。
The depth range determination means, as the reference depth range, is preset specific individual depth range for each observation's said display depth range is determined whether more than the individual depth range,
The depth range calculation means further calculates a depth range when the corrected elemental image group is displayed on the stereoscopic image display device by the depth range calculation method,
A common depth range common to the observer is set in advance, and it is determined whether or not a depth range calculated from the corrected element image group exceeds the common depth range, and the depth range corresponds to the common depth range. Depth range warning means to warn when exceeding,
The stereoscopic image correction apparatus according to claim 1, further comprising:
前記奥行き時間変化判定手段は、前記基準奥行き時間変化として、察者毎に固有の個別奥行き時間変化が予め設定され、前記表示奥行き時間変化が前記個別奥行き時間変化を超えるか否かを判定し、
前記奥行き範囲算出手段は、前記補正後の遅延要素画像群が前記立体画像表示装置で表示された際の奥行き範囲を、前記奥行き範囲算出法によりさらに算出し、
前記奥行き時間変化算出手段は、前記表示奥行き範囲と前記補正後の遅延要素画像群から算出された奥行き範囲との変化量である奥行き時間変化をさらに算出し、
前記観察者に共通する共通奥行き時間変化が予め設定され、前記補正後の遅延要素画像群から算出された奥行き時間変化が前記共通奥行き時間変化を超えるか否かを判定し、当該奥行き時間変化が前記共通奥行き時間変化を超える場合に警告する奥行き時間変化警告手段、
をさらに備えることを特徴とする請求項1又は請求項3に記載の立体画像補正装置。
The depth time change determination means, as the change the reference depth time is set separately depth time variation inherent to each observation's advance, the display depth time variation is determined whether more than the individual depth time change ,
The depth range calculation means further calculates a depth range when the corrected delay element image group is displayed on the stereoscopic image display device by the depth range calculation method,
The depth time change calculating means further calculates a depth time change which is a change amount between the display depth range and the corrected depth element image group,
A common depth time change common to the observer is preset, it is determined whether the depth time change calculated from the corrected delay element image group exceeds the common depth time change, and the depth time change Depth time change warning means for warning when the common depth time change is exceeded,
The stereoscopic image correction apparatus according to claim 1, further comprising:
コンピュータを、請求項1に記載の立体画像補正装置として機能させるための立体画像補正プログラム。   A stereoscopic image correction program for causing a computer to function as the stereoscopic image correction apparatus according to claim 1.
JP2012282070A 2012-12-26 2012-12-26 Stereoscopic image correction apparatus and program thereof Expired - Fee Related JP6076083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012282070A JP6076083B2 (en) 2012-12-26 2012-12-26 Stereoscopic image correction apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012282070A JP6076083B2 (en) 2012-12-26 2012-12-26 Stereoscopic image correction apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2014127789A JP2014127789A (en) 2014-07-07
JP6076083B2 true JP6076083B2 (en) 2017-02-08

Family

ID=51406996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012282070A Expired - Fee Related JP6076083B2 (en) 2012-12-26 2012-12-26 Stereoscopic image correction apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6076083B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160021355A1 (en) * 2014-07-15 2016-01-21 Ostendo Technologies, Inc. Preprocessor for Full Parallax Light Field Compression
JP7298809B2 (en) 2016-07-15 2023-06-27 ライト フィールド ラボ、インコーポレイテッド Energy propagation and lateral Anderson localization by two-dimensional, light-field and holographic relays
KR20200116942A (en) 2018-01-14 2020-10-13 라이트 필드 랩 인코포레이티드 Systems and methods for rendering data in a 3D environment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4875680B2 (en) * 2008-09-10 2012-02-15 日本放送協会 3D information integration apparatus and 3D information integration program
JP2013093638A (en) * 2010-03-03 2013-05-16 Panasonic Corp Stereoscopic video image reproducing device
JP2012083412A (en) * 2010-10-07 2012-04-26 Sony Corp Image processing device, image processing method, and program
KR20120133951A (en) * 2011-06-01 2012-12-11 삼성전자주식회사 3d image conversion apparatus, method for adjusting depth value thereof, and computer-readable storage medium thereof
JP6018468B2 (en) * 2012-09-21 2016-11-02 日本放送協会 Depth range calculation device and program thereof

Also Published As

Publication number Publication date
JP2014127789A (en) 2014-07-07

Similar Documents

Publication Publication Date Title
US7570280B2 (en) Image providing method and device
JP4995092B2 (en) Stereo camera image distortion correction apparatus and method
JP6018468B2 (en) Depth range calculation device and program thereof
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
WO2011118084A1 (en) Image processing device and image processing method
JP2011060216A (en) Device and method of processing image
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP2008085503A (en) Three-dimensional image processing apparatus, method and program, and three-dimensional image display device
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
CN110782507A (en) Texture mapping generation method and system based on face mesh model and electronic equipment
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP3032414B2 (en) Image processing method and image processing apparatus
WO2021104308A1 (en) Panoramic depth measurement method, four-eye fisheye camera, and binocular fisheye camera
JP2016225811A (en) Image processing apparatus, image processing method, and program
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
JP2017158153A (en) Image processing apparatus and image processing method
JP2006101224A (en) Image generating apparatus, method, and program
JP2011211551A (en) Image processor and image processing method
JP6118527B2 (en) Spatial distortion correction apparatus and program thereof
JP2009021708A (en) Element image group conversion device, stereoscopic image display device, and element image group conversion program
JP6076082B2 (en) Stereoscopic image correction apparatus and program thereof
JP2014060649A (en) Depth range calculation device and program of the same
JPH0749944A (en) Method and device for image processing
JPH07296195A (en) Device and method for image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170110

R150 Certificate of patent or registration of utility model

Ref document number: 6076083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees