JP2012028964A5 - - Google Patents

Download PDF

Info

Publication number
JP2012028964A5
JP2012028964A5 JP2010164600A JP2010164600A JP2012028964A5 JP 2012028964 A5 JP2012028964 A5 JP 2012028964A5 JP 2010164600 A JP2010164600 A JP 2010164600A JP 2010164600 A JP2010164600 A JP 2010164600A JP 2012028964 A5 JP2012028964 A5 JP 2012028964A5
Authority
JP
Japan
Prior art keywords
luminance
image data
value
peak value
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010164600A
Other languages
Japanese (ja)
Other versions
JP5585265B2 (en
JP2012028964A (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2010164600A priority Critical patent/JP5585265B2/en
Priority claimed from JP2010164600A external-priority patent/JP5585265B2/en
Priority to US13/187,122 priority patent/US9350982B2/en
Publication of JP2012028964A publication Critical patent/JP2012028964A/en
Publication of JP2012028964A5 publication Critical patent/JP2012028964A5/ja
Application granted granted Critical
Publication of JP5585265B2 publication Critical patent/JP5585265B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

光源装置110は、キセノンランプや、超高圧水銀ランプ、LED(Light Emitting Diode)等の光源を備えている。また、光源装置110は、光源が発した光をライトバルブ130に導くリフレクター及び補助リフレクターを備えていてもよく、光の光学特性を高めるためのレンズ群(図示略)や偏光板等を備えたものであってもよい。
光源装置110は、光源が発した光がライトバルブ130に至る経路上で、光量を減光させる調光素子120(調光部)を備えている。調光素子120は、例えば、光源装置110が発した光を遮る減光板と、この減光板の位置または角度を所定の減光率に合わせて調整する駆動回路とを備えて構成され、光を遮る位置に減光板を進出させることによって減光する。調光素子120は、減光板に代えて液晶シャッターで構成することも可能であり、この場合、液晶シャッターの全体または一部の透過率を調整することで減光する。
The light source device 110 includes a light source such as a xenon lamp, an ultra-high pressure mercury lamp, or an LED (Light Emitting Diode) . The light source device 110 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light valve 130, and includes a lens group (not shown), a polarizing plate, and the like for enhancing the optical characteristics of the light. It may be a thing.
The light source device 110 includes a light control element 120 (light control unit) that reduces the amount of light on a path through which light emitted from the light source reaches the light valve 130. The light control element 120 includes, for example, a light reduction plate that blocks light emitted from the light source device 110, and a drive circuit that adjusts the position or angle of the light reduction plate according to a predetermined light reduction rate. It is dimmed by advancing the light-reducing plate to the blocking position. The light control element 120 can also be constituted by a liquid crystal shutter instead of the light reducing plate, and in this case, the light is reduced by adjusting the transmittance of the whole or a part of the liquid crystal shutter.

制御部10は、画像入力部20から入力されるRL識別信号及び垂直同期信号VSyncに基づいて画像表示装置1の各部を制御する。
特徴量算出部30には、画像入力部20が出力する右目用画像データ及び左目用画像データと、RL識別信号と、垂直同期信号VSyncとが入力される。特徴量算出部30は、RL識別信号及び垂直同期信号VSyncに基づいて、画像入力部20から入力中の画像データが右目用画像データか左目用画像データかを識別し、右目用画像データと左目用画像データとをそれぞれ取得する。
そして、特徴量算出部30は、取得した画像データの各々に基づいて、画像特徴量を算出する(ステップS13)。特徴量算出部30が算出する画像特徴量は、画像データ全体の最大輝度値(白ピーク値)、輝度値の平均値であるAPL(Average Picture Level)、最小輝度値(黒ピーク値)、及び、輝度ヒストグラムである。特徴量算出部30による画像特徴量の算出方法については、後に詳述する。
次いで、特徴量算出部30は、算出した画像特徴量を輝度伸張率算出部40及び減光率算出部60に出力する(ステップ14)。
輝度伸張率算出部40は、特徴量算出部30から入力される画像特徴量に基づいて、輝度伸張率を算出する(ステップS15)。
The control unit 10 controls each unit of the image display device 1 based on the RL identification signal and the vertical synchronization signal VSync input from the image input unit 20.
The feature amount calculation unit 30 receives the right-eye image data and the left-eye image data output from the image input unit 20, the RL identification signal, and the vertical synchronization signal VSync. Based on the RL identification signal and the vertical synchronization signal VSync, the feature amount calculation unit 30 identifies whether the image data being input from the image input unit 20 is right-eye image data or left-eye image data, and right-eye image data and left-eye image data. Image data is obtained.
And the feature-value calculation part 30 calculates an image feature-value based on each acquired image data (step S13). The image feature amount calculated by the feature amount calculation unit 30 includes a maximum luminance value (white peak value) of the entire image data , an APL (Average Picture Level) that is an average value of luminance values, a minimum luminance value (black peak value), and This is a luminance histogram. A method for calculating the image feature amount by the feature amount calculation unit 30 will be described in detail later.
Then, the feature amount calculating section 30 outputs the calculated image characteristic amount to the luminance expansion rate calculating unit 40 and the light attenuation ratio calculating section 60 (step S 14).
The luminance expansion rate calculation unit 40 calculates the luminance expansion rate based on the image feature amount input from the feature amount calculation unit 30 (step S15).

図3は、輝度伸張率を求めるためのLUT210を模式的に示す図である。この図3に例示するLUT210では、白ピーク値WPとAPLに対応して輝度伸張率が定義されている。
輝度伸張率算出部40は、LUT210を参照し、特徴量算出部30から入力された白ピーク値WPとAPLの値に対応してLUT210に定義されている輝度伸張率を取得することで、輝度伸張率を求める。白ピーク値WPとAPLの値が、輝度伸張率が定義された格子点から外れている場合、輝度伸張率算出部40は、白ピーク値WPとAPLの値の周囲の3点または4点の格子点に定義された輝度伸張率をもとに、補間演算を行って、輝度伸張率を算出する。このようにして輝度伸張率算出部40は輝度伸張率を求め、求めた輝度伸張率を、輝度伸張処理部50に出力する。
なお、輝度伸張率算出部40は、図3に示すLUT210に限らず、白ピーク値、黒ピーク値、及びAPLに対応して輝度伸張率を定義した3次元のLUTを用いてもよいし、黒ピーク値と白ピーク値または黒ピーク値とAPLを用いた2次元LUTを用いてもよく、白ピーク値、黒ピーク値、APL、及び輝度ヒストグラムのうち1つ以上に基づく演算処理により、輝度伸張率を求めてもよい。
FIG. 3 is a diagram schematically showing an LUT 210 for obtaining the luminance expansion rate. In the LUT 210 illustrated in FIG. 3, the luminance expansion rate is defined corresponding to the white peak values WP and APL.
The luminance expansion rate calculation unit 40 refers to the LUT 210 and acquires the luminance expansion rate defined in the LUT 210 corresponding to the white peak value WP and the APL value input from the feature amount calculation unit 30, thereby Obtain the expansion rate. When the white peak values WP and APL are out of the lattice points where the luminance expansion rate is defined, the luminance expansion rate calculating unit 40 calculates the three or four points around the white peak value WP and the APL value. Based on the luminance expansion rate defined for the grid points, an interpolation operation is performed to calculate the luminance expansion rate. In this way, the luminance expansion rate calculation unit 40 calculates the luminance expansion rate and outputs the calculated luminance expansion rate to the luminance expansion processing unit 50.
The luminance expansion rate calculation unit 40 is not limited to the LUT 210 illustrated in FIG. 3, and may use a three-dimensional LUT that defines the luminance expansion rate corresponding to the white peak value, the black peak value, and the APL. A two-dimensional LUT using a black peak value and a white peak value or a black peak value and an APL may be used, and the luminance is obtained by an arithmetic process based on one or more of the white peak value, the black peak value, the APL, and the luminance histogram. The elongation rate may be obtained.

輝度伸張処理部50は、画像入力部20から入力される右目用画像データ及び左目用画像データの階調を、輝度伸張率算出部40によって求められた輝度伸張率で伸張する(ステップS16)。例えば、画像入力部20から輝度伸張処理部50に入力される画像データの色情報をR、G、B、輝度伸張後の色情報をR’、B’、G’、輝度伸張率をkgとすると、R’=kg×R、G’=kg×G、B’=kg×Bである。
輝度伸張処理部50は、1の立体画像データを構成する一組の右目用画像データと左目用画像データとの両方を、輝度伸張率算出部40が算出した共通の輝度伸張率に従って輝度伸張する。このため、一組の右目用画像データと左目用画像データの輝度やコントラスト感が揃って、ばらつきが無く、違和感ない立体画像データの適応調光を行うことができる。
The luminance expansion processing unit 50 expands the gradation of the right-eye image data and the left-eye image data input from the image input unit 20 at the luminance expansion rate obtained by the luminance expansion rate calculation unit 40 (step S16). For example, the color information of the image data input from the image input unit 20 to the luminance expansion processing unit 50 is R, G, B, the color information after luminance expansion is R ′, B ′, G ′, and the luminance expansion rate is kg. Then, R ′ = kg × R, G ′ = kg × G, and B ′ = kg × B.
The luminance expansion processing unit 50 expands the luminance of both a set of right-eye image data and left-eye image data constituting one stereoscopic image data according to the common luminance expansion rate calculated by the luminance expansion rate calculation unit 40. . For this reason, the brightness and contrast of the pair of right-eye image data and left-eye image data are uniform, and there is no variation, and adaptive dimming of stereoscopic image data with no sense of incongruity can be performed.

一方、減光率算出部60は、特徴量算出部30から入力される画像特徴量に基づいて、減光率を算出する(ステップS17)。減光率の算出は、例えば、図3を参照して説明した輝度伸張率と同様に、白ピーク値、APL、黒ピーク値のうちの2以上に対応して減光率が定義されたLUT(図示略)を用い、このLUTを参照することで減光率を算出できる。すなわち、減光率算出部60は、特徴量算出部30から入力された白ピーク値、APL、或いは黒ピーク値に対応してLUTに定義されている減光率を取得する。また、減光率算出部60は、特徴量算出部30から入力された白ピーク値、APL、或いは黒ピーク値が、減光率が定義された格子点から外れている場合、周囲の3点または4点の格子点に定義された減光率をもとに補間演算を行って、減光率を算出する。このようにして減光率算出部60は減光率を求め、求めた減光率を、減光処理部70に出力する。なお、減光率算出部60は、2次元LUTに限らず、3次元のLUTを用いてもよいし、白ピーク値、黒ピーク値、APL、及び輝度ヒストグラムのうち1つ以上に基づく演算処理により、減光率を求めてもよい。
そして、減光率算出部60は、算出した減光率kaとなるように調光素子120を駆動するための駆動信号を生成し、減光処理部70に出力する(ステップS18)。
On the other hand, the light attenuation rate calculation unit 60 calculates the light attenuation rate based on the image feature amount input from the feature amount calculation unit 30 (step S17). LUT calculation of extinction ratio, for example, similarly to the luminance expansion rate as described with reference to FIG. 3, the white peak value, APL, the dimming rate corresponding to 2 or more of the black peak value was defined By using (not shown) and referring to this LUT, the light attenuation rate can be calculated. That is, the light reduction rate calculation unit 60 acquires the light reduction rate defined in the LUT corresponding to the white peak value, APL, or black peak value input from the feature amount calculation unit 30. Further, when the white peak value, APL, or black peak value input from the feature amount calculating unit 30 is out of the lattice point where the dimming rate is defined, the dimming rate calculating unit 60 Alternatively, the light attenuation rate is calculated by performing an interpolation operation based on the light attenuation rates defined for the four lattice points. In this way, the light attenuation rate calculation unit 60 obtains the light attenuation rate and outputs the obtained light attenuation rate to the light attenuation processing unit 70. The light attenuation rate calculation unit 60 is not limited to a two-dimensional LUT, and may use a three-dimensional LUT, or an arithmetic process based on one or more of a white peak value, a black peak value, an APL, and a luminance histogram. Thus, the light attenuation rate may be obtained.
Then, the dimming rate calculation unit 60 generates a drive signal for driving the dimming element 120 so that the calculated dimming rate ka is obtained, and outputs the drive signal to the dimming processing unit 70 (step S18).

ここで、制御部10の制御により、輝度伸張処理部50によって輝度伸張の処理が施された画像データがライトバルブ130に入力され、垂直同期信号VSyncに同期して描画されるとともに、このタイミングに同期して、減光処理部70により、減光率算出部60から入力された駆動信号に従って調光素子120が制御され、調光が行われる(ステップS19)。
画像入力部20に入力される立体映像信号が60フレーム/秒である場合、画像入力部20は、120フレーム/秒で右目用画像データと左目用画像データとを交互に出力する。これら右目用画像データと左目用画像データとは対になって一フレームの立体画像データを構成する。このような高速で画像を投射する場合、調光処理に伴う演算によってライトバルブ130の描画を遅延させないため、輝度伸張率と減光率の算出と調光処理とがシフトすることがある。すなわち、第nフレームの立体画像データを構成する右目用画像データと左目用画像データについて、輝度伸張率算出部40により輝度伸張率が算出され、減光率算出部60により減光率が算出された場合、この輝度伸張率と減光率に基づく調光処理は、第n+1フレームから適用される。この場合には、輝度伸張率と減光率とを算出した対象の画像データと、この輝度伸張率と減光率に基づく調光処理が施される画像データとが異なるが、この画像データのずれは1フレームに留まっているため、このシフトに起因して違和感が生じる可能性は極めて低く、調光処理によるコントラスト感の向上、ダイナミックレンジの拡大による品位向上の効果が期待できる。
Here, under the control of the control unit 10, the image data subjected to the luminance expansion processing by the luminance expansion processing unit 50 is input to the light valve 130, drawn in synchronization with the vertical synchronization signal VSync, and at this timing. In synchronization, the dimming processing unit 70 controls the dimming element 120 according to the drive signal input from the dimming rate calculating unit 60, and dimming is performed (step S19).
When the stereoscopic video signal input to the image input unit 20 is 60 frames / second, the image input unit 20 alternately outputs right-eye image data and left-eye image data at 120 frames / second. These right-eye image data and left-eye image data are paired to form one frame of stereoscopic image data. When an image is projected at such a high speed, the calculation of the light valve 130 is not delayed by the calculation associated with the dimming process, so the calculation of the luminance expansion rate and the dimming rate and the dimming process may shift. That is, for the right-eye image data and the left-eye image data constituting the n-th frame stereoscopic image data, the luminance expansion rate is calculated by the luminance expansion rate calculation unit 40, and the dimming rate is calculated by the dimming rate calculation unit 60. In this case, the dimming process based on the luminance expansion rate and the dimming rate is applied from the (n + 1) th frame. In this case, the target image data for which the luminance expansion rate and the light reduction rate are calculated are different from the image data subjected to the light control processing based on the luminance expansion rate and the light attenuation rate. Since the shift is limited to one frame, the possibility of an uncomfortable feeling due to this shift is extremely low, and an effect of improving the contrast feeling by the dimming process and improving the quality by expanding the dynamic range can be expected.

図4に示すように、左目ポイントP1とオブジェクトM1とを結ぶ仮想直線SL1、及び、右目ポイントP2とオブジェクトM1とを結ぶ仮想直線SR1は、オブジェクトM1において角度αの視差対応角θ1をもって交わり、また、仮想直線SL1と基準面との交点KL1、及び、仮想直線SR1と基準面との交点KR1の間には、ギャップT1が形成される。
同様に、左目ポイントP1とオブジェクトM2とを結ぶ仮想直線SL2、及び、右目ポイントP2とオブジェクトM2とを結ぶ仮想直線SR2は、オブジェクトM2において角度βの視差対応角θ2をもって交わり、また、仮想直線SL2と基準面との交点KL2、及び、仮想直線SR2と基準面との交点KR2の間には、ギャップT2が形成される。
視差対応角θ1θ2、及び、ギャップT1、T2は、左目ポイントP1と、右目ポイントP2との位置的な相違に起因して現出する値であり、仮想空間内におけるオブジェクトの位置がより手前側であればあるほど、当該オブジェクトに係る視差対応角θ、及び、ギャップTが大きな値となり、逆に、仮想空間内におけるオブジェクトの位置がより奥側であればあるほど、当該オブジェクトに係る視差対応角θ、及び、ギャップTがより小さな値となる。
As shown in FIG. 4, a virtual straight line SL1 connecting the left eye point P1 and the object M1 and a virtual straight line SR1 connecting the right eye point P2 and the object M1 intersect with each other at a parallax corresponding angle θ1 of the angle α in the object M1. A gap T1 is formed between the intersection KL1 between the virtual straight line SL1 and the reference plane and the intersection KR1 between the virtual straight line SR1 and the reference plane.
Similarly, a virtual straight line SL2 connecting the left eye point P1 and the object M2 and a virtual straight line SR2 connecting the right eye point P2 and the object M2 intersect with each other at the parallax corresponding angle θ2 of the angle β in the object M2, and the virtual straight line SL2 A gap T2 is formed between the intersection KL2 between the reference plane and the intersection KR2 between the virtual straight line SR2 and the reference plane.
The parallax correspondence angles θ1 and θ2 and the gaps T1 and T2 are values that appear due to the positional difference between the left eye point P1 and the right eye point P2, and the position of the object in the virtual space is closer to the front. The closer to the side, the larger the parallax-corresponding angle θ 1 and the gap T related to the object, and conversely, the closer the position of the object in the virtual space is to the far side, the disparity related to the object The corresponding angle θ 1 and the gap T are smaller values.

そして、本実施形態では、これら視差対応角θや、ギャップTを概念的に表したものが「視差」に相当する。すなわち、本実施形態における視差とは、左目ポイントP1と右目ポイントP2との位置的な相違に起因して、仮想空間内において手前にあるオブジェクトほど相対的に大きく、一方、奥にあるオブジェクトほど相対的に小さくなる値を概念的に示す値である。
従って、以下の説明において、例えば、右目画像データに含まれる1のオブジェクトに係る画像と、他のオブジェクトに係る画像について、「1のオブジェクトに係る画像の方が、他のオブジェクトに係る画像よりも視差が大きい」と表現する場合、合成立体画像における仮想空間内で、1のオブジェクトの方が、他のオブジェクトよりも手前側に配置されていることを意味し、かつ、合成立体画像において、1のオブジェクトに係る画像の方が、他のオブジェクトに係る画像よりも手前に存在するように表現されることを意味する。
視差の大きさは、右目用画像データ、及び、左目用画像データに、以下のように反映される。
In the present embodiment, the parallax-corresponding angle θ and the conceptual representation of the gap T correspond to “parallax”. That is, the parallax in the present embodiment is relatively larger as the object located in the front in the virtual space due to the positional difference between the left eye point P1 and the right eye point P2, while the object located in the back is relatively larger. It is a value that conceptually indicates a value that becomes smaller.
Therefore, in the following description, for example, for an image related to one object and an image related to another object included in the right-eye image data, “the image related to one object is more than the image related to the other object. When the expression “parallax is large”, it means that one object is arranged in front of other objects in the virtual space in the composite stereoscopic image, and in the composite stereoscopic image, 1 This means that the image related to the object is expressed so as to exist in front of the image related to the other object.
The magnitude of the parallax is reflected in the right-eye image data and the left-eye image data as follows.

図8は、座標系に展開された右目用画像データの構成を模式的に示す図である。
ステップS22において、基準領域輝度情報算出部31は、処理対象の右目用画像データを、複数の基準領域(画素ブロック)200に区分する。基準領域輝度情報算出部31は、例えば1920画素×1080画素の処理対象の右目用画像データを、図8に示すように、横16個×縦9個の144個の基準領域200−1〜200−144に区分する。この場合、基準領域200−1〜200−144のそれぞれのサイズは縦120画素、横120画素である。
FIG. 8 is a diagram schematically showing the configuration of the right-eye image data developed in the coordinate system.
In step S <b> 22, the reference area luminance information calculation unit 31 divides the right-eye image data to be processed into a plurality of reference areas (pixel blocks) 200. The reference area luminance information calculation unit 31, for example, processes the right-eye image data to be processed of 1920 pixels × 1080 pixels, as shown in FIG. 8, 16 reference areas 200-1 to 200 vertical 144 reference areas 200-1 to 200. -144. In this case, the sizes of the reference areas 200-1 to 200-144 are 120 pixels vertically and 120 pixels horizontally.

図11は、出力特徴量算出部33の動作を示すフローチャートである。
出力特徴量算出部33は、視差値算出部32から入力された情報に基づいて、基準領域200のうち、視差値が所定の閾値を上回っている基準領域200を特定する(ステップS41)。以下、ステップS41で特定された基準領域200を「特定した基準領域200」という。
次いで、出力特徴量算出部33は、右目用画像データにおいて、特定した基準領域200に含まれる画像データに基づいて、画像特徴量として、出力白ピーク値、出力APL、出力黒ピーク値、及び、出力輝度ヒストグラムを算出する(ステップS42)。
具体的には、出力特徴量算出部33は、右目用画像データにおいて、特定した基準領域200のそれぞれの代表輝度値のうちの最大値を出力白ピーク値とし、特定した基準領域200のそれぞれの代表輝度値のうちの最小値を出力黒ピーク値とし、特定した基準領域200の代表輝度値のそれぞれの平均値を出力APLとする。また、出力特徴量算出部33は、特定した基準領域200の代表輝度値の分布から輝度ヒストグラムを生成する。
次いで、出力特徴量算出部33は、算出した各種の画像特徴量を輝度伸張率算出部40、及び、減光率算出部60に出力する。
FIG. 11 is a flowchart showing the operation of the output feature quantity calculation unit 33.
Based on the information input from the parallax value calculation unit 32, the output feature amount calculation unit 33 identifies the reference region 200 in which the parallax value exceeds a predetermined threshold among the reference regions 200 (step S41). Hereinafter, the reference area 200 specified in step S41 is referred to as “specified reference area 200” .
Next, the output feature amount calculation unit 33 uses the output white peak value, the output APL, the output black peak value, and the image feature amount based on the image data included in the specified reference region 200 in the right-eye image data. An output luminance histogram is calculated (step S42).
Specifically, the output feature amount calculation unit 33 sets the maximum value of the representative luminance values of the specified reference region 200 in the right-eye image data as the output white peak value, and sets each of the specified reference region 200. The minimum value of the representative luminance values is set as the output black peak value, and the average value of the representative luminance values in the specified reference region 200 is set as the output APL. Further, the output feature amount calculation unit 33 generates a luminance histogram from the distribution of the representative luminance values of the identified reference region 200.
Next, the output feature amount calculation unit 33 outputs the calculated various image feature amounts to the luminance expansion rate calculation unit 40 and the dimming rate calculation unit 60.

(A)出力白ピーク値
出力白ピーク値の代表値は、右白ピーク値と左白ピーク値のうち大きい方、すなわち明るい方の値とする。これを数式で表すと、下記式(1)のようになる。
WP0=Max(WPR、WPL)…(1)
ここで、WP0は出力白ピーク値、WPRは右白ピーク値、WPLは左白ピーク値である。
これは、調光処理においては、画像データ中で最も輝度の高い部分の輝度を基準とすることが適しているからである。例えば、出力白ピーク値を右白ピーク値と左白ピーク値のうち小さい方にした場合、右目用画像データ又は左目用画像データにおいて、最も高輝度の部分が輝度伸張により白飛びする可能性がある。
(A) Output white peak value The representative value of the output white peak value is the larger of the right white peak value and the left white peak value, that is, the brighter value. This can be expressed by the following equation (1).
WP 0 = Max (WP R , WP L ) (1)
Here, WP 0 is the output white peak value, WP R is the right white peak value, and WP L is the left white peak value.
This is because, in the light control processing, it is suitable to use the luminance of the highest luminance portion in the image data as a reference. For example, when the output white peak value is set to the smaller of the right white peak value and the left white peak value, in the image data for the right eye or the image data for the left eye, there is a possibility that the brightest part may be skipped by luminance expansion. is there.

(C)出力黒ピーク値
出力黒ピーク値の代表値は、右黒ピーク値と左黒ピーク値のうち小さい方、すなわち暗い方の値とする。これを数式で表すと、下記式(3)のようになる。
BP0=Min(BPR、BPL)…(3)
ここで、BP0は出力黒ピーク値、BPRは右黒ピーク値であり、BPLは左黒ピーク値である。
出力黒ピーク値は画像データにおいて最も輝度が小さい部分の輝度であるから、対象となる画像データが2つであれば、これら2つの画像で最も暗い部分の輝度を代表値として採用することが、画像データのコントラストに適した輝度伸張処理を行うことができるため、好適である。
(D)輝度ヒストグラム
出力輝度ヒストグラムは、右輝度ヒストグラムと左輝度ヒストグラムの平均とする。これを数式で表すと、下記式(4)のようになる。
Hist0(X)={HistR(X)+HistL(X)}/2…(4)
ここで、Hist0(X)は出力輝度ヒストグラム、HistR(X)は右輝度ヒストグラムを表し、HistL(X)は左輝度ヒストグラムを表す。階調値10bitの画像データの場合、X=0〜1023である。
この式(4)によれば、輝度の各階級の平均値が代表値となる。
(C) Output black peak value The representative value of the output black peak value is the smaller one of the right black peak value and the left black peak value, that is, the darker value . This is expressed by the following formula (3).
BP 0 = Min (BP R , BP L ) (3)
Here, BP 0 is the output black peak value, BP R is the right black peak value, and BP L is the left black peak value.
Since the output black peak value is the luminance of the portion with the lowest luminance in the image data, if there are two target image data, the luminance of the darkest portion of these two images can be adopted as a representative value. This is preferable because luminance expansion processing suitable for the contrast of image data can be performed.
(D) Luminance Histogram The output luminance histogram is the average of the right luminance histogram and the left luminance histogram. This is expressed by the following equation (4).
Hist 0 (X) = {Hist R (X) + Hist L (X)} / 2 (4)
Here, Hist 0 (X) represents an output luminance histogram, Hist R (X) represents a right luminance histogram, and Hist L (X) represents a left luminance histogram. In the case of image data having a gradation value of 10 bits, X = 0 to 1023.
According to this equation (4), the average value of each class of luminance is the representative value.

(B)出力APL
出力特徴量算出部33は、基準領域200のそれぞれの代表輝度値の相加平均を求めるのではなく、基準領域輝度情報算出部31から入力された基準領域200の代表輝度値、及び、視差値算出部32から入力された基準領域200の視差値に基づいて、右目用画像データを区分して形成された基準領域200のそれぞれにおける視差値の頻度に対応する値を「重み」とした代表輝度値の加重平均を算出し、算出した値を出力APLとする。より具体的には、基準領域200のそれぞれについて、代表輝度値と「視差値の頻度/基準領域200の総数」(=重み)とを乗算した上でこれらの総和を算出し、算出した総和を、「視差値の頻度/基準領域200の総数」の総和(=重みの総和)で割り、これにより出力APLを算出する。
このようにして、出力APLを算出することにより、以下の効果を奏する。
すなわち、「視差値の頻度/基準領域200の総数」を重みとした加重平均により出力APLを求めることにより、視差の頻度を適切に反映した上で、出力APLを算出できる。
ここで、右目用画像データ、及び、左目用画像データにより表現される合成立体画像では、奥行き方向における位置が同程度となるように表現されるオブジェクトが他により多く存在するオブジェクトに係る画像ほど、当該立体画像において重要な画像である傾向があり、出力APLの算出に際し、このようなオブジェクトに係る画像を示す基準領域200に係る情報ほど、算出される出力APLの値に反映するようにしたいとするニーズがある。ここで、上述したように、視差値は視差の大きさに対応した値であるため、奥行き方向における位置が同程度のオブジェクトに係る画像を示す基準領域200のそれぞれは、同程度の視差値を有することとなるため、上述した式によって求めた判断値を利用して、出力APLを算出することにより、当該ニーズに適切に応えることができる。

(B) Output APL
The output feature amount calculation unit 33 does not calculate the arithmetic mean of the representative luminance values of the reference region 200, but the representative luminance value and the parallax value of the reference region 200 input from the reference region luminance information calculation unit 31. Based on the parallax value of the reference area 200 input from the calculation unit 32, a representative luminance having a value corresponding to the frequency of the parallax value in each of the reference areas 200 formed by dividing the right-eye image data as “weight”. A weighted average of the values is calculated, and the calculated value is set as the output APL. More specifically, for each of the reference areas 200, the representative luminance value is multiplied by “frequency of parallax value / total number of reference areas 200” (= weight), and the sum of these is calculated. The sum of the “frequency of the parallax value / the total number of the reference areas 200” (= the sum of the weights) is divided, thereby calculating the output APL.
By calculating the output APL in this way, the following effects can be obtained.
In other words, the output APL can be calculated while appropriately reflecting the frequency of parallax by obtaining the output APL by a weighted average using “frequency of parallax value / total number of reference regions 200” as a weight.
Here, in the synthesized stereoscopic image expressed by the right-eye image data and the left-eye image data, the image related to the object in which there are more objects expressed so that the positions in the depth direction are the same, There is a tendency to be an important image in the stereoscopic image, and when calculating the output APL , it is desired to reflect the information related to the reference area 200 indicating the image related to such an object in the calculated value of the output APL. There is a need to do. Here, as described above, since the parallax value is a value corresponding to the magnitude of the parallax, each of the reference regions 200 indicating the images related to the objects having the same position in the depth direction has the same parallax value. Therefore, it is possible to appropriately meet the needs by calculating the output APL using the judgment value obtained by the above-described equation.

JP2010164600A 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method Expired - Fee Related JP5585265B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010164600A JP5585265B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method
US13/187,122 US9350982B2 (en) 2010-07-22 2011-07-20 Image display device, image supply device, and image processing method with brightness expanding processing for improved contrast sensitivity in a 3D image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010164600A JP5585265B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method

Publications (3)

Publication Number Publication Date
JP2012028964A JP2012028964A (en) 2012-02-09
JP2012028964A5 true JP2012028964A5 (en) 2013-08-15
JP5585265B2 JP5585265B2 (en) 2014-09-10

Family

ID=45781395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010164600A Expired - Fee Related JP5585265B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method

Country Status (1)

Country Link
JP (1) JP5585265B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5861324B2 (en) 2011-08-30 2016-02-16 セイコーエプソン株式会社 Projector and projector control method
JP2014003465A (en) 2012-06-19 2014-01-09 Seiko Epson Corp Image display device and control method therefor
JP6175810B2 (en) 2013-03-06 2017-08-09 セイコーエプソン株式会社 Image processing apparatus, projector, and image processing method
JP6201358B2 (en) 2013-03-22 2017-09-27 セイコーエプソン株式会社 Image processing apparatus, projector, and image processing method
JP6213211B2 (en) 2013-12-18 2017-10-18 セイコーエプソン株式会社 Projector and projector control method
CN110969581B (en) * 2018-09-30 2023-10-20 成都微晶景泰科技有限公司 Method, device, equipment and medium for imaging liquid crystal optical element without polaroid

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
JP2010020241A (en) * 2008-07-14 2010-01-28 Sony Corp Display apparatus, method of driving display apparatus, drive-use integrated circuit, driving method employed by drive-use integrated circuit, and signal processing method
JP2010152521A (en) * 2008-12-24 2010-07-08 Toshiba Corp Apparatus and method for performing stereographic processing to image
JP5540942B2 (en) * 2010-06-29 2014-07-02 富士通セミコンダクター株式会社 Processing equipment

Similar Documents

Publication Publication Date Title
US8520038B2 (en) Image display apparatus, image display method, and image supply apparatus
US9350982B2 (en) Image display device, image supply device, and image processing method with brightness expanding processing for improved contrast sensitivity in a 3D image
JP2012028964A5 (en)
JP5585265B2 (en) Image display device, image supply device, and image processing method
TW201215096A (en) Image display device, image display viewing system and image display method
US10547832B2 (en) Image processing apparatus, method, and storage medium for executing gradation on stereoscopic images
JP2012028963A5 (en)
JP5585266B2 (en) Image display device, image supply device, and image processing method
JP2012028965A5 (en)
JP2011186224A5 (en)
US9167237B2 (en) Method and apparatus for providing 3-dimensional image
US9412310B2 (en) Image processing apparatus, projector, and image processing method
US10992927B2 (en) Stereoscopic image display apparatus, display method of liquid crystal display, and non-transitory computer-readable recording medium storing program of liquid crystal display
US10368048B2 (en) Method for the representation of a three-dimensional scene on an auto-stereoscopic monitor
US20120113222A1 (en) Video signal processing apparatus, video signal processing method, and computer program
US20140104268A1 (en) Method and apparatus for correcting stereoscopic display edge violations
US20140028815A1 (en) Method and Apparatus for Flicker Reduction and Contrast Enhancement in 3D Displays
US20120081520A1 (en) Apparatus and method for attenuating stereoscopic sense of stereoscopic image
JP2013077863A (en) Stereoscopic display device and stereoscopic display method
JP5573426B2 (en) Audio processing apparatus, audio processing method, and program
US8913077B2 (en) Image processing apparatus and image processing method
WO2011013175A1 (en) 3d display apparatus and 3d display system
JP2014021276A (en) Image display system and brightness adjustment method
JP2015154213A (en) Projector device and projection method
JP7329794B2 (en) Image supply device, image supply method, display system and program