JP2012028965A5 - - Google Patents

Download PDF

Info

Publication number
JP2012028965A5
JP2012028965A5 JP2010164601A JP2010164601A JP2012028965A5 JP 2012028965 A5 JP2012028965 A5 JP 2012028965A5 JP 2010164601 A JP2010164601 A JP 2010164601A JP 2010164601 A JP2010164601 A JP 2010164601A JP 2012028965 A5 JP2012028965 A5 JP 2012028965A5
Authority
JP
Japan
Prior art keywords
image data
light
rate
dimming
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010164601A
Other languages
Japanese (ja)
Other versions
JP5585266B2 (en
JP2012028965A (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2010164601A priority Critical patent/JP5585266B2/en
Priority claimed from JP2010164601A external-priority patent/JP5585266B2/en
Priority to US13/187,122 priority patent/US9350982B2/en
Publication of JP2012028965A publication Critical patent/JP2012028965A/en
Publication of JP2012028965A5 publication Critical patent/JP2012028965A5/ja
Application granted granted Critical
Publication of JP5585266B2 publication Critical patent/JP5585266B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

光源装置110は、キセノンランプや、超高圧水銀ランプ、LED(Light Emitting Diode)等の光源を備えている。また、光源装置110は、光源が発した光をライトバルブ130に導くリフレクター及び補助リフレクターを備えていてもよく、光の光学特性を高めるためのレンズ群(図示略)や偏光板等を備えたものであってもよい。
光源装置110は、光源が発した光がライトバルブ130に至る経路上で、光量を減光させる調光素子120を備えている。調光素子120は、例えば、光源装置110が発した光を遮る減光板と、この減光板の位置または角度を所定の減光率に合わせて調整する駆動回路とを備えて構成され、光を遮る位置に減光板を進出させることによって減光する。調光素子120は、減光板に代えて液晶シャッターで構成することも可能であり、この場合、液晶シャッターの全体または一部の透過率を調整することで減光する。
The light source device 110 includes a light source such as a xenon lamp, an ultra-high pressure mercury lamp, or an LED (Light Emitting Diode) . The light source device 110 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light valve 130, and includes a lens group (not shown), a polarizing plate, and the like for enhancing the optical characteristics of the light. It may be a thing.
The light source device 110 includes a light control element 120 that reduces the amount of light on a path where light emitted from the light source reaches the light valve 130. The light control element 120 includes, for example, a light reduction plate that blocks light emitted from the light source device 110, and a drive circuit that adjusts the position or angle of the light reduction plate according to a predetermined light reduction rate. It is dimmed by advancing the light-reducing plate to the blocking position. The light control element 120 can also be constituted by a liquid crystal shutter instead of the light reducing plate, and in this case, the light is reduced by adjusting the transmittance of the whole or a part of the liquid crystal shutter.

制御部10は、画像入力部20から入力されるRL識別信号及び垂直同期信号VSyncに基づいて画像表示装置1の各部を制御する。
特徴量算出部30には、画像入力部20が出力する右目用画像データ及び左目用画像データと、RL識別信号と、垂直同期信号VSyncとが入力される。特徴量算出部30は、RL識別信号及び垂直同期信号VSyncに基づいて、画像入力部20から入力中の画像データが右目用画像データか左目用画像データかを識別し、右目用画像データと左目用画像データとをそれぞれ取得する。そして、特徴量算出部30は、取得した両方の画像データの各々について、画像特徴量を算出する(ステップS13)。特徴量算出部30が算出する画像特徴量は、例えば、画像データ全体の最大輝度値(白ピーク値WP)、輝度値の平均値であるAPL(Average Picture Level)、最小輝度値(黒ピーク値BP)、輝度ヒストグラムである。特徴量算出部30は、算出した画像特徴量を輝度伸張率算出部40及び減光率算出部60に出力する。
The control unit 10 controls each unit of the image display device 1 based on the RL identification signal and the vertical synchronization signal VSync input from the image input unit 20.
The feature amount calculation unit 30 receives the right-eye image data and the left-eye image data output from the image input unit 20, the RL identification signal, and the vertical synchronization signal VSync. Based on the RL identification signal and the vertical synchronization signal VSync, the feature amount calculation unit 30 identifies whether the image data being input from the image input unit 20 is right-eye image data or left-eye image data, and right-eye image data and left-eye image data. Image data is obtained. Then, the feature amount calculation unit 30 calculates an image feature amount for each of both acquired image data (step S13). The image feature amount calculated by the feature amount calculation unit 30 is, for example, the maximum luminance value (white peak value WP) of the entire image data , APL (Average Picture Level) that is an average value of luminance values, and minimum luminance value (black peak value). BP), a luminance histogram. The feature amount calculation unit 30 outputs the calculated image feature amount to the luminance expansion rate calculation unit 40 and the dimming rate calculation unit 60.

一方、減光率算出部60は、特徴量算出部30から入力される画像特徴量の代表値に基づいて、減光率を算出する(ステップS17)。減光率の算出は、例えば、図4を参照して説明した輝度伸張率と同様に、白ピーク値WP、APL、黒ピーク値BPのうちの2以上に対応して減光率が定義されたLUT(図示略)を用い、このLUTを参照することで減光率を算出できる。すなわち、減光率算出部60は、画像入力部20から入力された白ピーク値WP、APL、或いは黒ピーク値BPに対応してLUTに定義されている減光率を取得する。また、減光率算出部60は、画像入力部20から入力された白ピーク値WP、APL、或いは黒ピーク値BPが、減光率が定義された格子点から外れている場合、周囲の3点または4点の格子点に定義された減光率をもとに補間演算を行って、減光率を算出する。このようにして減光率算出部60は減光率を求め、求めた減光率を、減光処理部70に出力する。なお、減光率算出部60は、2次元LUTに限らず、3次元のLUTを用いても良いし、白ピーク値WP、黒ピーク値BP、APL、及び輝度ヒストグラムのうち1つ以上に基づく演算処理により、減光率を求めても良い。
そして、減光率算出部60は、算出した減光率kaとなるように調光素子120を駆動するための駆動信号を生成し、減光処理部70に出力する(ステップS18)。
On the other hand, the light attenuation rate calculation unit 60 calculates the light attenuation rate based on the representative value of the image feature amount input from the feature amount calculation unit 30 (step S17). Calculation of extinction ratio, for example, similarly to the luminance expansion rate as described with reference, white peak value WP, APL, the extinction ratio in response to two or more of the black peak value BP is defined to 4 The light attenuation rate can be calculated by using the LUT (not shown) and referring to this LUT. That is, the light attenuation rate calculation unit 60 acquires the light attenuation rate defined in the LUT corresponding to the white peak value WP, APL, or black peak value BP input from the image input unit 20. Further, when the white peak value WP, APL, or black peak value BP input from the image input unit 20 is out of the lattice point where the light attenuation rate is defined, the light attenuation rate calculation unit 60 The light attenuation rate is calculated by performing an interpolation operation based on the light attenuation rate defined for the point or the four lattice points. In this way, the light attenuation rate calculation unit 60 obtains the light attenuation rate and outputs the obtained light attenuation rate to the light attenuation processing unit 70. The light attenuation rate calculation unit 60 is not limited to a two-dimensional LUT, and may use a three-dimensional LUT, or may be based on one or more of a white peak value WP, a black peak value BP, an APL, and a luminance histogram. The dimming rate may be obtained by arithmetic processing.
Then, the dimming rate calculation unit 60 generates a drive signal for driving the dimming element 120 so that the calculated dimming rate ka is obtained, and outputs the drive signal to the dimming processing unit 70 (step S18).

ここで、制御部10の制御により、輝度伸張処理部50によって輝度伸張の処理が施された画像データがライトバルブ130に入力され、垂直同期信号VSyncに同期して描画されるとともに、このタイミングに同期して、減光処理部70により、減光率算出部60から入力された駆動信号に従って調光素子120が制御され、調光が行われる(ステップS19)。
画像入力部20に入力される立体映像信号が60フレーム/秒である場合、画像入力部20は、120フレーム/秒で右目用画像データと左目用画像データとを交互に出力する。これら右目用画像データと左目用画像データとは対になって一フレームの立体画像データを構成する。このような高速で画像を投射する場合、調光処理に伴う演算によってライトバルブ130の描画を遅延させないため、輝度伸張率と減光率の算出と調光処理とがシフトすることがある。すなわち、第nフレームの立体画像データを構成する右目用画像データと左目用画像データについて、輝度伸張率算出部40により輝度伸張率が算出され、減光率算出部60により減光率が算出された場合、この輝度伸張率と減光率に基づく調光処理は、第n+1フレームから適用される。この場合には、輝度伸張率と減光率とを算出した対象の画像データと、この輝度伸張率と減光率に基づく調光処理が施される画像データとが異なるが、この画像データのずれは1フレームに留まっているため、このシフトに起因して違和感が生じる可能性は極めて低く、調光処理によるコントラスト感の向上、ダイナミックレンジの拡大による品位向上の効果が期待できる。
Here, under the control of the control unit 10, the image data subjected to the luminance expansion processing by the luminance expansion processing unit 50 is input to the light valve 130, drawn in synchronization with the vertical synchronization signal VSync, and at this timing. In synchronization, the dimming processing unit 70 controls the dimming element 120 according to the drive signal input from the dimming rate calculating unit 60, and dimming is performed (step S19).
When the stereoscopic video signal input to the image input unit 20 is 60 frames / second, the image input unit 20 alternately outputs right-eye image data and left-eye image data at 120 frames / second. These right-eye image data and left-eye image data are paired to form one frame of stereoscopic image data. When an image is projected at such a high speed, the calculation of the light valve 130 is not delayed by the calculation associated with the dimming process, so the calculation of the luminance expansion rate and the dimming rate and the dimming process may shift. That is, for the right-eye image data and the left-eye image data constituting the n-th frame stereoscopic image data, the luminance expansion rate is calculated by the luminance expansion rate calculation unit 40, and the dimming rate is calculated by the dimming rate calculation unit 60. In this case, the dimming process based on the luminance expansion rate and the dimming rate is applied from the (n + 1) th frame. In this case, the target image data for which the luminance expansion rate and the light reduction rate are calculated are different from the image data subjected to the light control processing based on the luminance expansion rate and the light attenuation rate. Since the shift is limited to one frame, the possibility of an uncomfortable feeling due to this shift is extremely low, and an effect of improving the contrast feeling by the dimming process and improving the quality by expanding the dynamic range can be expected.

図5に示すように、左目ポイントP1とオブジェクトM1とを結ぶ仮想直線SL1、及び、右目ポイントP2とオブジェクトM1とを結ぶ仮想直線SR1は、オブジェクトM1において角度αの視差対応角θ1をもって交わり、また、仮想直線SL1と基準面との交点KL1、及び、仮想直線SR1と基準面との交点KR1の間には、ギャップT1が形成される。
同様に、左目ポイントP1とオブジェクトM2とを結ぶ仮想直線SL2、及び、右目ポイントP2とオブジェクトM2とを結ぶ仮想直線SR2は、オブジェクトM2において角度βの視差対応角θ2をもって交わり、また、仮想直線SL2と基準面との交点KL2、及び、仮想直線SR2と基準面との交点KR2の間には、ギャップT2が形成される。
視差対応角θ1θ2、及び、ギャップT1、T2は、左目ポイントP1と、右目ポイントP2との位置的な相違に起因して現出する値であり、仮想空間内におけるオブジェクトの位置がより手前側であればあるほど、当該オブジェクトに係る視差対応角θ、及び、ギャップTが大きな値となり、逆に、仮想空間内におけるオブジェクトの位置がより奥側であればあるほど、当該オブジェクトに係る視差対応角θ、及び、ギャップTがより小さな値となる。
As shown in FIG. 5, a virtual straight line SL1 connecting the left eye point P1 and the object M1 and a virtual straight line SR1 connecting the right eye point P2 and the object M1 intersect with each other at a parallax corresponding angle θ1 of the angle α in the object M1. A gap T1 is formed between the intersection KL1 between the virtual straight line SL1 and the reference plane and the intersection KR1 between the virtual straight line SR1 and the reference plane.
Similarly, a virtual straight line SL2 connecting the left eye point P1 and the object M2 and a virtual straight line SR2 connecting the right eye point P2 and the object M2 intersect with each other at the parallax corresponding angle θ2 of the angle β in the object M2, and the virtual straight line SL2 A gap T2 is formed between the intersection KL2 between the reference plane and the intersection KR2 between the virtual straight line SR2 and the reference plane.
The parallax correspondence angles θ1 and θ2 and the gaps T1 and T2 are values that appear due to the positional difference between the left eye point P1 and the right eye point P2, and the position of the object in the virtual space is closer to the front. The closer to the side, the larger the parallax-corresponding angle θ 1 and the gap T related to the object, and conversely, the closer the position of the object in the virtual space is to the far side, the disparity related to the object The corresponding angle θ 1 and the gap T are smaller values.

そして、本実施形態では、これら視差対応角θや、ギャップTを概念的に表したものが「視差」に相当する。すなわち、本実施形態における視差とは、左目ポイントP1と右目ポイントP2との位置的な相違に起因して、仮想空間内において手前にあるオブジェクトほど相対的に大きく、一方、奥にあるオブジェクトほど相対的に小さくなる値を概念的に示す値である。
従って、以下の説明において、例えば、右目画像データに含まれる1のオブジェクトに係る画像と、他のオブジェクトに係る画像について、「1のオブジェクトに係る画像の方が、他のオブジェクトに係る画像よりも視差が大きい」と表現する場合、合成立体画像における仮想空間内で、1のオブジェクトの方が、他のオブジェクトよりも手前側に配置されていることを意味し、かつ、合成立体画像において、1のオブジェクトに係る画像の方が、他のオブジェクトに係る画像よりも手前に存在するように表現されることを意味する。
視差の大きさは、右目用画像データ、及び、左目用画像データに、以下のように反映される。
In the present embodiment, the parallax-corresponding angle θ and the conceptual representation of the gap T correspond to “parallax”. That is, the parallax in the present embodiment is relatively larger as the object located in the front in the virtual space due to the positional difference between the left eye point P1 and the right eye point P2, while the object located in the back is relatively larger. It is a value that conceptually indicates a value that becomes smaller.
Therefore, in the following description, for example, for an image related to one object and an image related to another object included in the right-eye image data, “the image related to one object is more than the image related to the other object. When the expression “parallax is large”, it means that one object is arranged in front of other objects in the virtual space in the composite stereoscopic image, and in the composite stereoscopic image, 1 This means that the image related to the object is expressed so as to exist in front of the image related to the other object.
The magnitude of the parallax is reflected in the right-eye image data and the left-eye image data as follows.

以上説明したように、本実施形態では、輝度伸張処理部50は、輝度伸張処理の対象となる画像データの基準領域300のそれぞれについて、同程度の視差値を有する基準領域300の頻度を検出し、より頻度が高い基準領域300ほど、よりその値が高くなるように輝度伸張率を補正した上で、各基準領域300に対応する画像データに輝度伸張処理を施す。
これによれば、上述したように、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となり、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。

As described above, in this embodiment, the luminance expansion processing unit 50 detects the frequency of the reference region 300 having the same degree of parallax value for each of the reference regions 300 of the image data to be subjected to the luminance expansion processing. The luminance expansion rate is corrected so that the higher the frequency of the reference region 300 is, the higher the value is, and the luminance expansion processing is performed on the image data corresponding to each reference region 300.
According to this, as described above, the luminance expansion processing is performed on the image data of the image related to the object expressed so as to exist on the near side based on the expansion coefficient having a higher luminance expansion ratio. Thus, the luminance expansion processing unit can perform effective luminance expansion processing based on parallax.

JP2010164601A 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method Expired - Fee Related JP5585266B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010164601A JP5585266B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method
US13/187,122 US9350982B2 (en) 2010-07-22 2011-07-20 Image display device, image supply device, and image processing method with brightness expanding processing for improved contrast sensitivity in a 3D image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010164601A JP5585266B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method

Publications (3)

Publication Number Publication Date
JP2012028965A JP2012028965A (en) 2012-02-09
JP2012028965A5 true JP2012028965A5 (en) 2013-08-15
JP5585266B2 JP5585266B2 (en) 2014-09-10

Family

ID=45781396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010164601A Expired - Fee Related JP5585266B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method

Country Status (1)

Country Link
JP (1) JP5585266B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5861324B2 (en) 2011-08-30 2016-02-16 セイコーエプソン株式会社 Projector and projector control method
JP6014343B2 (en) * 2012-03-23 2016-10-25 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. Image processing apparatus and image processing method
JP2014003465A (en) 2012-06-19 2014-01-09 Seiko Epson Corp Image display device and control method therefor
JP6175810B2 (en) 2013-03-06 2017-08-09 セイコーエプソン株式会社 Image processing apparatus, projector, and image processing method
JP6201358B2 (en) 2013-03-22 2017-09-27 セイコーエプソン株式会社 Image processing apparatus, projector, and image processing method
JP6213211B2 (en) 2013-12-18 2017-10-18 セイコーエプソン株式会社 Projector and projector control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
JP2010020241A (en) * 2008-07-14 2010-01-28 Sony Corp Display apparatus, method of driving display apparatus, drive-use integrated circuit, driving method employed by drive-use integrated circuit, and signal processing method
JP2010152521A (en) * 2008-12-24 2010-07-08 Toshiba Corp Apparatus and method for performing stereographic processing to image
JP2011250229A (en) * 2010-05-28 2011-12-08 Sony Corp Video signal processing apparatus, video signal processing method, and computer program

Similar Documents

Publication Publication Date Title
US11051003B2 (en) Image processing method and apparatus for autostereoscopic three-dimensional display
US10319078B2 (en) Image signal processing apparatus and image signal processing method to suppress color shift caused by lens distortion
US9350982B2 (en) Image display device, image supply device, and image processing method with brightness expanding processing for improved contrast sensitivity in a 3D image
JP2012028965A5 (en)
US20120019568A1 (en) Image display apparatus, image display method, and image supply apparatus
TWI504232B (en) Apparatus for rendering 3d images
TW201215096A (en) Image display device, image display viewing system and image display method
JP2012028964A5 (en)
JP2012028963A5 (en)
JP5585265B2 (en) Image display device, image supply device, and image processing method
JP2011186224A5 (en)
JP5585266B2 (en) Image display device, image supply device, and image processing method
US9167237B2 (en) Method and apparatus for providing 3-dimensional image
JP2012142737A5 (en)
US20140104268A1 (en) Method and apparatus for correcting stereoscopic display edge violations
JP2019154008A (en) Stereoscopic image display device, method for displaying liquid crystal display, and program for liquid crystal display
JP6089383B2 (en) Image processing apparatus, image processing method, and program
JP2013174871A (en) Polarization control device, polarization control method and image display system
JP2013182192A5 (en)
JP5573426B2 (en) Audio processing apparatus, audio processing method, and program
JP6685241B2 (en) Stereoscopic video generation
JP6490107B2 (en) Stereoscopic video zooming
JP2015154213A (en) Projector device and projection method
US20160241846A1 (en) Method and device for processing image
TWI442097B (en) Polarization converting element group for projection apparatus and projection apparatus