JP2009212756A - Image processor, image display device, and image processing method - Google Patents

Image processor, image display device, and image processing method Download PDF

Info

Publication number
JP2009212756A
JP2009212756A JP2008052969A JP2008052969A JP2009212756A JP 2009212756 A JP2009212756 A JP 2009212756A JP 2008052969 A JP2008052969 A JP 2008052969A JP 2008052969 A JP2008052969 A JP 2008052969A JP 2009212756 A JP2009212756 A JP 2009212756A
Authority
JP
Japan
Prior art keywords
flare
lens
image
image signal
flare model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008052969A
Other languages
Japanese (ja)
Inventor
Hiroshi Hasegawa
浩 長谷川
Takumi Aragaki
匠 新垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008052969A priority Critical patent/JP2009212756A/en
Publication of JP2009212756A publication Critical patent/JP2009212756A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of improving image quality even if "flare" caused by a lens occurs, and to provide an image display device and an image processing method. <P>SOLUTION: The image processor corrects an image signal for determining the amount of modulation in the passing light of the lens. The image processor includes: a flare model calculation section for calculating a flare model corresponding to a position on the lens through which the passing light passes; and an image signal correction section for correcting the image signal based on the flare model obtained by the flare model calculation section. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置、画像表示装置及び画像処理方法に関する。   The present invention relates to an image processing device, an image display device, and an image processing method.

画像投影装置のように投射レンズ(広義にはレンズ)を用いて画像を投影した場合、投影画像を映し出すスクリーン上の画素の周囲に「フレア」と呼ばれる像のにじみが生ずることがある。「フレア」は、画像の解像感や色再現性を低下させ、画質を劣化させる要因の1つとなっている。このような「フレア」に関しては、例えば特許文献1に開示されているように、一定方向に隣接する画素を点灯するテストパターンを使用することで、隣接する画素の影響を加味したフレア測定を行う方法が開示されている。   When an image is projected using a projection lens (lens in a broad sense) as in an image projection apparatus, image blur called “flare” may occur around pixels on the screen on which the projected image is projected. "Flare" is one of the factors that degrade the image resolution and color reproducibility and degrade the image quality. For such “flares”, for example, as disclosed in Patent Document 1, flare measurement is performed by taking into account the influence of adjacent pixels by using a test pattern that lights adjacent pixels in a certain direction. A method is disclosed.

また、例えば特許文献2には、「フレア」の影響を低減して意図通りの色再現を行うようにした技術が開示されている。この場合、表示画像の画像データと該表示画像の表示色の空間分布とから表示特性を求め、該表示特性に基づいて画像データを補正する。   Further, for example, Patent Document 2 discloses a technique in which the effect of “flare” is reduced and color reproduction is performed as intended. In this case, display characteristics are obtained from the image data of the display image and the spatial distribution of the display color of the display image, and the image data is corrected based on the display characteristics.

特開2007−198849号公報JP 2007-198849 A 特開2005−189542号公報JP 2005-189542 A

しかしながら、上記の「フレア」は、投射レンズ系(投射光学系)に起因するものであるため、特許文献1や特許文献2に開示されているように「フレア」を測定しても、現実に即しておらず、測定結果の誤差が大きくなるという問題がある。   However, since the “flare” is caused by the projection lens system (projection optical system), even if the “flare” is measured as disclosed in Patent Document 1 and Patent Document 2, This is not true, and there is a problem that errors in measurement results increase.

本発明は、以上のような技術的課題に鑑みてなされたものであり、その目的の1つは、レンズに起因した「フレア」が発生しても画質を向上させることができる画像処理装置、画像表示装置及び画像処理方法を提供することにある。   The present invention has been made in view of the technical problems as described above, and one of the purposes thereof is an image processing apparatus capable of improving the image quality even when a “flare” caused by a lens occurs, An object is to provide an image display device and an image processing method.

上記課題を解決するために本発明は、レンズの通過光の変調量を定める画像信号を補正する画像処理装置であって、前記通過光が通過する前記レンズ上の位置に対応したフレアモデルを算出するフレアモデル算出部と、前記フレアモデル算出部によって求められた前記フレアモデルに基づいて、前記画像信号を補正する画像信号補正部とを含む画像処理装置に関係する。   In order to solve the above problems, the present invention is an image processing apparatus that corrects an image signal that determines a modulation amount of light passing through a lens, and calculates a flare model corresponding to a position on the lens through which the passing light passes. And an image signal correction unit that corrects the image signal based on the flare model obtained by the flare model calculation unit.

本発明によれば、レンズを用いて画像を表示する場合に、通過光が通過するレンズ上の位置に対応したフレアモデルを算出し、該フレアモデルに基づいて、該通過光の変調量を定める画像信号を補正するようにしたので、レンズに起因して「フレア」が発生した場合であっても、「フレア」を測定することなく画質を向上させることができるようになる。   According to the present invention, when an image is displayed using a lens, a flare model corresponding to the position on the lens through which the passing light passes is calculated, and the modulation amount of the passing light is determined based on the flare model. Since the image signal is corrected, the image quality can be improved without measuring “flare” even when “flare” occurs due to the lens.

また、本発明に係る画像処理装置では、前記画像信号補正部は、前記フレアモデルに基づいて、前記レンズ上の当該画素の周辺画素の画素値を用いて前記当該画素に対応した前記画像信号を補正することができる。   Further, in the image processing device according to the present invention, the image signal correction unit outputs the image signal corresponding to the pixel by using a pixel value of a peripheral pixel of the pixel on the lens based on the flare model. It can be corrected.

本発明によれば、レンズ上の位置で定義される当該画素の周辺画素の画素値を用いて、当該画素に対応した画像信号を補正するようにしたので、「フレア」の形状に応じた画質の向上を図ることができるようになる。   According to the present invention, since the image signal corresponding to the pixel is corrected using the pixel values of the peripheral pixels of the pixel defined by the position on the lens, the image quality corresponding to the shape of the “flare” Can be improved.

また、本発明に係る画像処理装置では、前記レンズ上の位置は、前記レンズの中心位置を原点とする極座標を用いて特定されてもよい。   In the image processing apparatus according to the present invention, the position on the lens may be specified using polar coordinates having a center position of the lens as an origin.

本発明によれば、レンズの中心位置を基準にレンズ上の位置を特定するようにしたので、レンズの中心位置が等しい画素同士については同様に補正することができ、画像信号の補正処理を簡素化できるようになる。   According to the present invention, since the position on the lens is specified based on the center position of the lens, pixels having the same lens center position can be corrected in the same manner, and the image signal correction process is simplified. It becomes possible to become.

また、本発明に係る画像処理装置では、前記フレアモデルは、前記レンズの中心位置を基準とするサジタル方向の長さ、及び前記レンズの中心位置を基準とするメリジオナル方向の長さを用いて特定されてもよい。   Further, in the image processing apparatus according to the present invention, the flare model is specified using a length in the sagittal direction based on the center position of the lens and a length in the meridional direction based on the center position of the lens. May be.

本発明によれば、フレアモデルの形状をより少ないパラメータ数で特定できるので、フレアモデルの容量を削減できるようになる。   According to the present invention, since the shape of the flare model can be specified with a smaller number of parameters, the capacity of the flare model can be reduced.

また、本発明に係る画像処理装置では、前記レンズのズーム位置を取得するズーム位置取得部を含み、前記フレアモデル算出部は、前記ズーム位置取得部によって取得された前記ズーム位置に応じたフレアモデルを算出することができる。   The image processing apparatus according to the present invention further includes a zoom position acquisition unit that acquires a zoom position of the lens, and the flare model calculation unit is a flare model corresponding to the zoom position acquired by the zoom position acquisition unit. Can be calculated.

本発明によれば、レンズのズーム位置に応じてその形状が変化する「フレア」が発生しても、画質を向上させることができるようになる。   According to the present invention, it is possible to improve the image quality even when a “flare” whose shape changes according to the zoom position of the lens occurs.

また、本発明に係る画像処理装置では、前記レンズのズーム量に対応した複数のフレアモデルデータを記憶するフレアモデルデータ記憶部を含み、前記フレアモデル算出部は、前記ズーム位置取得部によって取得された前記ズーム位置に基づいて、前記レンズのズーム量に対応したフレアモデルデータを読み出し、前記画像信号補正部は、前記フレアモデルデータに基づいて前記画像信号を補正することができる。   The image processing apparatus according to the present invention further includes a flare model data storage unit that stores a plurality of flare model data corresponding to the zoom amount of the lens, and the flare model calculation unit is acquired by the zoom position acquisition unit. The flare model data corresponding to the zoom amount of the lens is read based on the zoom position, and the image signal correction unit can correct the image signal based on the flare model data.

本発明によれば、ズーム位置に応じてその形状が変化する「フレア」が発生しても、「フレア」の出方に応じたフレアモデルを算出でき、「フレア」の形状に応じて画質を向上させることができるようになる。   According to the present invention, even when a “flare” whose shape changes according to the zoom position occurs, a flare model corresponding to the appearance of the “flare” can be calculated, and the image quality can be improved according to the shape of the “flare”. Can be improved.

また本発明は、前記画像信号に基づいて前記通過光を変調する光変調素子と、前記通過光が通過するレンズと、前記画像信号を出力する上記のいずれか記載の画像処理装置とを含む画像表示装置に関係する。   Further, the present invention provides an image including a light modulation element that modulates the passing light based on the image signal, a lens through which the passing light passes, and the image processing device according to any one of the above that outputs the image signal. Related to display device.

本発明によれば、レンズに起因した「フレア」が発生しても画質を向上させることができる画像表示装置を提供できるようになる。   According to the present invention, it is possible to provide an image display device capable of improving the image quality even when “flare” due to a lens occurs.

また本発明は、レンズの通過光の変調量を定める画像信号を補正する画像処理方法であって、前記通過光が通過する前記レンズ上の位置に対応したフレアモデルを算出するフレアモデル算出ステップと、前記フレアモデル算出ステップにおいて求められた前記フレアモデルに基づいて、前記画像信号を補正する画像信号補正ステップとを含む画像処理方法に関係する。   The present invention is also an image processing method for correcting an image signal that defines a modulation amount of light passing through a lens, and a flare model calculating step for calculating a flare model corresponding to a position on the lens through which the passing light passes. , And an image signal correction step of correcting the image signal based on the flare model obtained in the flare model calculation step.

本発明によれば、レンズを用いて画像を表示する場合に、通過光が通過するレンズ上の位置に対応したフレアモデルを算出し、該フレアモデルに基づいて、該通過光の変調量を定める画像信号を補正するようにしたので、レンズに起因して「フレア」が発生した場合であっても、「フレア」を測定することなく画質を向上させることができるようになる。   According to the present invention, when an image is displayed using a lens, a flare model corresponding to the position on the lens through which the passing light passes is calculated, and the modulation amount of the passing light is determined based on the flare model. Since the image signal is corrected, the image quality can be improved without measuring “flare” even when “flare” occurs due to the lens.

以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成のすべてが本発明の必須構成要件であるとは限らない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below do not unduly limit the contents of the present invention described in the claims. Also, not all of the configurations described below are essential constituent requirements of the present invention.

以下では、画像表示装置としてプロジェクタを例に説明するが、本発明がプロジェクタに限定されるものではなく、種々の画像表示装置に適用できることは言うまでもない。また、今日の多くのプロジェクタは、設置自由度を上げるために、プロジェクタとスクリーンとの距離を変えることなく投射画像の大きさを変える光学ズーム機能を備える。そこで、以下のプロジェクタは、投射レンズを搭載し、この投射レンズを用いた光学ズーム機能を実現するものとして説明する。   Hereinafter, a projector will be described as an example of the image display device. However, the present invention is not limited to the projector and can be applied to various image display devices. Many projectors today are equipped with an optical zoom function that changes the size of a projected image without changing the distance between the projector and the screen in order to increase the degree of freedom of installation. Therefore, the following projector will be described as having a projection lens and realizing an optical zoom function using the projection lens.

図1に、本発明に係る実施形態におけるプロジェクタが適用された表示システムの構成例のブロック図を示す。   FIG. 1 shows a block diagram of a configuration example of a display system to which a projector according to an embodiment of the present invention is applied.

表示システム2は、プロジェクタ(広義には画像表示装置)10と、スクリーンSCRとを含む。この表示システム2では、プロジェクタ10には入力画像信号が入力され、プロジェクタ10が有する投射レンズ(レンズ)を用いて投射された画像がスクリーンSCR上に表示される。このプロジェクタ10は、投射レンズのズーム位置を調節でき、スクリーンSCRに投影される画像を拡大したり縮小したりできるようになっている。   The display system 2 includes a projector (image display device in a broad sense) 10 and a screen SCR. In the display system 2, an input image signal is input to the projector 10, and an image projected using a projection lens (lens) included in the projector 10 is displayed on the screen SCR. The projector 10 can adjust the zoom position of the projection lens, and can enlarge or reduce the image projected on the screen SCR.

プロジェクタ10は、画像処理部(広義には画像処理装置)20と、投射制御部50と、投射部100とを含む。画像処理部20は、プロジェクタ10の投射レンズの通過光の変調量を定める画像信号を補正する。より具体的には、画像処理部20は、フレアモデルを作成し、該フレアモデルに応じて入力画像信号を補正することで、「フレア」が発生しても画質が劣化しない画像を表示させることができる。   The projector 10 includes an image processing unit (an image processing device in a broad sense) 20, a projection control unit 50, and a projection unit 100. The image processing unit 20 corrects the image signal that determines the modulation amount of the light passing through the projection lens of the projector 10. More specifically, the image processing unit 20 creates a flare model and corrects the input image signal according to the flare model, thereby displaying an image whose image quality does not deteriorate even if “flare” occurs. Can do.

ここで、本実施形態における画像処理部20の補正処理の原理を簡単に説明する。まず、入力画像の画像信号の配列をP、入力画素がその周辺にどのように「にじむ」かを示すフレア特性行列をM、「漏れ光」のレベルの配列をO、スクリーンSCRの表示画像の画素値の配列をGとすると、Gは、次式のように表される。
Here, the principle of the correction processing of the image processing unit 20 in the present embodiment will be briefly described. First, the arrangement of the image signal of the input image is P, the flare characteristic matrix indicating how the input pixel “blurs” in the vicinity thereof is M, the arrangement of the “leakage light” level is O, and the display image of the screen SCR Assuming that the array of pixel values is G, G is expressed by the following equation.

ここで、1画面分の画素数をNとすると、(1)式は次のように表すことができる。
Here, if the number of pixels for one screen is N, equation (1) can be expressed as follows.

(2)式において、行列Gは表示画像のN個の画素の画素値を1次元に配列した(g,g,・・・,g)で表され、行列Pは入力画像のN個の画素の画素値を1次元に配列した(p,p,・・・,p)で表され、行列Oは全画素で「黒」を表示したときの各画素の「漏れ光」のレベルを1次元に配列した(o,o,・・・,o)で表される。行列Mは、画像のN個の画素の各画素について、「フレア」に寄与する度合いを示す係数値を2次元に配列した(m11,m12,・・・,mNN)で表されるフレア特性行列である。 In the equation (2), the matrix G is represented by (g 1 , g 2 ,..., G N ) in which pixel values of N pixels of the display image are arranged one-dimensionally, and the matrix P is the N of the input image. The pixel value of each pixel is expressed by (p 1 , p 2 ,..., P N ) arranged in one dimension, and the matrix O is “leakage light” of each pixel when “black” is displayed for all pixels. ”Is represented in a one-dimensional array (o 1 , o 2 ,..., O N ). The matrix M is represented by (m 11 , m 12 ,..., M NN ) in which coefficient values indicating the degree of contribution to “flare” are two-dimensionally arranged for each of N pixels of the image. It is a flare characteristic matrix.

従って、スクリーンSCR上に行列Pで表される画像を表示したい場合には、(1)式を変形すれば、次の式の行列P´で表される画像を入力させることで、原理的に「フレア」の影響がない画像を表示させることができる。
Accordingly, when it is desired to display an image represented by the matrix P on the screen SCR, if the equation (1) is modified, the image represented by the matrix P ′ of the following equation is input, so that in principle An image without the influence of “flare” can be displayed.

しかしながら、プロジェクタ10の投影画像の画素数が例えばXGAサイズ(1024画素×768画素)であると仮定すると、Nが約80万となり、行列Mは、80万×80万という規模の行列となってしまう。ただ、実際には、「フレア」の影響は当該画素の周辺画素に及ぶため、行列Mのほとんどの係数値(要素値)が「0」となる。そこで、特許文献1では、1画面をいくつかの領域に分割して、領域毎に測定された結果に基づいてフレアモデルを推定している。   However, assuming that the number of pixels of the projected image of the projector 10 is, for example, XGA size (1024 pixels × 768 pixels), N is about 800,000, and the matrix M is a matrix having a scale of 800,000 × 800,000. End up. However, since the influence of “flare” actually affects the peripheral pixels of the pixel, most coefficient values (element values) of the matrix M are “0”. Therefore, in Patent Document 1, one screen is divided into several areas, and a flare model is estimated based on a result measured for each area.

ところが、上述のように、「フレア」はプロジェクタ10の投射レンズに起因するものであり、たとえ領域毎に測定された結果に基づいてフレアモデルを推定したとしても、誤差が大きくなり、画質を十分に改善させることができない。そこで、本実施形態では、画像処理部20が、投射部100が有する投射レンズの特性に基づいてフレアモデルを生成し、該フレアモデルに基づいて画像信号を補正するようにしている。   However, as described above, the “flare” is caused by the projection lens of the projector 10, and even if the flare model is estimated based on the result measured for each region, the error becomes large and the image quality is sufficiently high. Cannot be improved. Therefore, in the present embodiment, the image processing unit 20 generates a flare model based on the characteristics of the projection lens included in the projection unit 100, and corrects the image signal based on the flare model.

このような画像処理部20は、入力信号処理部22、画像信号補正部24、出力信号処理部26、ズーム位置取得部28、フレアモデル算出部30を含む。   Such an image processing unit 20 includes an input signal processing unit 22, an image signal correction unit 24, an output signal processing unit 26, a zoom position acquisition unit 28, and a flare model calculation unit 30.

入力信号処理部22は、入力画像信号に対してA/D変換処理や、例えばインターレース形式の画像信号をプログレッシブ形式の画像信号に変換する処理などを行う。フレアモデル算出部30は、投射部100が有する投射レンズ(レンズ)の通過光が通過する投射レンズ上の位置に対応したフレアモデルを算出する。このようなフレアモデル算出部30は、フレアモデルデータ記憶部32と制御部34とを含む。フレアモデルデータ記憶部32は、後述するフレアモデルを規定するパラメータに対応したフレアモデルデータをテーブルとして記憶しており、制御部34に対してフレアモデルデータを出力して、フレアモデル算出部30はフレアモデルとして出力する。   The input signal processing unit 22 performs A / D conversion processing on the input image signal, for example, processing for converting an interlaced image signal into a progressive image signal, and the like. The flare model calculation unit 30 calculates a flare model corresponding to the position on the projection lens through which the light passing through the projection lens (lens) of the projection unit 100 passes. Such a flare model calculation unit 30 includes a flare model data storage unit 32 and a control unit 34. The flare model data storage unit 32 stores flare model data corresponding to parameters defining the flare model described later as a table, outputs the flare model data to the control unit 34, and the flare model calculation unit 30 Output as a flare model.

画像信号補正部24は、フレアモデル算出部30によって求められたフレアモデルに基づいて、画像信号を補正する。より具体的には、画像信号補正部24は、フレアモデル算出部30によって求められたフレアモデルに基づいて、投射レンズ上の当該画素の周辺画素の画素値を用いて当該画素に対応した画像信号を補正する。出力信号処理部26は、画像信号補正部24によって補正された画像信号を例えばラスタ変換する。出力信号処理部26による処理後の画像信号は、投射制御部50に入力される。   The image signal correction unit 24 corrects the image signal based on the flare model obtained by the flare model calculation unit 30. More specifically, the image signal correction unit 24 uses the pixel values of the peripheral pixels of the pixel on the projection lens based on the flare model obtained by the flare model calculation unit 30 to correspond to the image signal. Correct. The output signal processing unit 26 performs raster conversion, for example, on the image signal corrected by the image signal correction unit 24. The image signal processed by the output signal processing unit 26 is input to the projection control unit 50.

また、ズーム位置取得部28は、投射レンズのズーム位置を取得する。フレアモデル算出部30(より具体的には制御部34)は、ズーム位置取得部28によって取得された投射レンズのズーム位置に対応したフレアモデルデータを算出結果としてフレアモデルデータ記憶部32から読み出すことができる。画像信号補正部24は、このフレアモデルデータに基づいて画像信号を補正する。   The zoom position acquisition unit 28 acquires the zoom position of the projection lens. The flare model calculation unit 30 (more specifically, the control unit 34) reads the flare model data corresponding to the zoom position of the projection lens acquired by the zoom position acquisition unit 28 from the flare model data storage unit 32 as a calculation result. Can do. The image signal correction unit 24 corrects the image signal based on the flare model data.

投射制御部50は、光変調素子駆動部52と、ズーム調節部54とを含む。光変調素子駆動部52は、画像処理部20の出力信号処理部26の処理後の画像信号に基づいて、投射部100が有する光変調素子(ライトバルブ)を駆動する駆動信号を生成し、該光変調素子を駆動する。ズーム調節部54は、投射部100が有する投射レンズのズーム位置を調節する制御を行う。このようなズーム調節部54の機能は、プロジェクタ10のユーザが手動で投射レンズのズーム位置を調節したり、該ユーザの指示による電気的な制御でズーム位置を調節したりすることで実現される。ズーム調節部54によって調節された投射レンズのズーム位置は、ズーム位置取得部28によって取得される。   The projection control unit 50 includes a light modulation element driving unit 52 and a zoom adjustment unit 54. The light modulation element driving unit 52 generates a drive signal for driving the light modulation element (light valve) included in the projection unit 100 based on the image signal after processing by the output signal processing unit 26 of the image processing unit 20, The light modulation element is driven. The zoom adjustment unit 54 performs control to adjust the zoom position of the projection lens included in the projection unit 100. Such a function of the zoom adjustment unit 54 is realized by the user of the projector 10 manually adjusting the zoom position of the projection lens or adjusting the zoom position by electrical control according to the user's instruction. . The zoom position of the projection lens adjusted by the zoom adjustment unit 54 is acquired by the zoom position acquisition unit 28.

投射部100は、光源110と、光変調素子(ライトバルブ)130と、投射レンズ(レンズ)170とを含む。光源110は、投射する光を発生する。光変調素子130は、光変調素子駆動部52からの駆動信号に基づいて、光源110からの光を変調し、変調後の光を投射レンズ170に照射する。投射レンズ170は、光変調素子130による変調後の光を用いて、スクリーンSCRに投射する。このように、投射部100は、光変調素子駆動部52からの駆動信号が入力画像信号に基づいて生成されるため、画像信号に対応した画像をスクリーンSCRに投射表示することができる。   The projection unit 100 includes a light source 110, a light modulation element (light valve) 130, and a projection lens (lens) 170. The light source 110 generates light to be projected. The light modulation element 130 modulates the light from the light source 110 based on the drive signal from the light modulation element drive unit 52 and irradiates the projection lens 170 with the modulated light. The projection lens 170 projects light onto the screen SCR using the light modulated by the light modulation element 130. Thus, since the drive signal from the light modulation element drive unit 52 is generated based on the input image signal, the projection unit 100 can project and display an image corresponding to the image signal on the screen SCR.

図2に、図1の投射部の構成例を示す。図2において、図1と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 2 shows a configuration example of the projection unit in FIG. 2, the same parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

投射部100は、光源110、インテグレータレンズ112、114、偏光変換素子116、重畳レンズ118、R用ダイクロイックミラー120R、G用ダイクロイックミラー120G、反射ミラー122、R用フィールドレンズ124R、G用フィールドレンズ124G、R用液晶パネル130R(第1の光変調素子)、G用液晶パネル130G(第2の光変調素子)、B用液晶パネル130B(第3の光変調素子)、リレー光学系140、クロスダイクロイックプリズム160、投射レンズ170を含む。図2では、光変調素子130が、R用液晶パネル130R、G用液晶パネル130G、B用液晶パネル130Bにより構成される。R用液晶パネル130R、G用液晶パネル130G及びB用液晶パネル130Bとして用いられる液晶パネルは、透過型の液晶表示装置である。リレー光学系140は、リレーレンズ142、144、146、反射ミラー148、150を含む。   The projection unit 100 includes a light source 110, integrator lenses 112 and 114, a polarization conversion element 116, a superimposing lens 118, an R dichroic mirror 120R, a G dichroic mirror 120G, a reflection mirror 122, an R field lens 124R, and a G field lens 124G. , R liquid crystal panel 130R (first light modulation element), G liquid crystal panel 130G (second light modulation element), B liquid crystal panel 130B (third light modulation element), relay optical system 140, cross dichroic A prism 160 and a projection lens 170 are included. In FIG. 2, the light modulation element 130 includes an R liquid crystal panel 130R, a G liquid crystal panel 130G, and a B liquid crystal panel 130B. The liquid crystal panels used as the R liquid crystal panel 130R, the G liquid crystal panel 130G, and the B liquid crystal panel 130B are transmissive liquid crystal display devices. The relay optical system 140 includes relay lenses 142, 144, and 146 and reflection mirrors 148 and 150.

光源110は、例えば超高圧水銀ランプにより構成され、少なくともR成分の光、G成分の光、B成分の光を含む光を射出する。インテグレータレンズ112は、光源110からの光を複数の部分光に分割するための複数の小レンズを有する。インテグレータレンズ114は、インテグレータレンズ112の複数の小レンズに対応する複数の小レンズを有する。重畳レンズ118は、インテグレータレンズ112の複数の小レンズから射出される部分光を重畳する。   The light source 110 is composed of, for example, an ultra-high pressure mercury lamp, and emits light including at least R component light, G component light, and B component light. The integrator lens 112 has a plurality of small lenses for dividing the light from the light source 110 into a plurality of partial lights. The integrator lens 114 has a plurality of small lenses corresponding to the plurality of small lenses of the integrator lens 112. The superimposing lens 118 superimposes the partial light emitted from the plurality of small lenses of the integrator lens 112.

また偏光変換素子116は、偏光分離膜とλ/2板とを有し、p偏光を透過させると共にs偏光を反射させ、p偏光をs偏光に変換する。この偏光変換素子116からのs偏光が、重畳レンズ118に照射される。   The polarization conversion element 116 includes a polarization separation film and a λ / 2 plate, transmits p-polarized light, reflects s-polarized light, and converts p-polarized light to s-polarized light. The superimposing lens 118 is irradiated with the s-polarized light from the polarization conversion element 116.

重畳レンズ118によって重畳された光は、R用ダイクロイックミラー120Rに入射される。R用ダイクロイックミラー120Rは、R成分の光を反射して、G成分及びB成分の光を透過させる機能を有する。R用ダイクロイックミラー120Rを透過した光は、G用ダイクロイックミラー120Gに照射され、R用ダイクロイックミラー120Rにより反射した光は反射ミラー122により反射されてR用フィールドレンズ124Rに導かれる。   The light superimposed by the superimposing lens 118 is incident on the R dichroic mirror 120R. The R dichroic mirror 120R has a function of reflecting R component light and transmitting G component and B component light. The light transmitted through the R dichroic mirror 120R is applied to the G dichroic mirror 120G, and the light reflected by the R dichroic mirror 120R is reflected by the reflection mirror 122 and guided to the R field lens 124R.

G用ダイクロイックミラー120Gは、G成分の光を反射して、B成分の光を透過させる機能を有する。G用ダイクロイックミラー120Gを透過した光は、リレー光学系140に入射され、G用ダイクロイックミラー120Gにより反射した光はG用フィールドレンズ124Gに導かれる。   The dichroic mirror for G 120G has a function of reflecting G component light and transmitting B component light. The light transmitted through the G dichroic mirror 120G enters the relay optical system 140, and the light reflected by the G dichroic mirror 120G is guided to the G field lens 124G.

リレー光学系140では、G用ダイクロイックミラー120Gを透過したB成分の光の光路長と他のR成分及びG成分の光の光路長との違いをできるだけ小さくするために、リレーレンズ142、144、146を用いて光路長の違いを補正する。リレーレンズ142を透過した光は、反射ミラー148によりリレーレンズ144に導かれる。リレーレンズ144を透過した光は、反射ミラー150によりリレーレンズ146に導かれる。リレーレンズ146を透過した光は、B用液晶パネル130Bに照射される。   In the relay optical system 140, in order to minimize the difference between the optical path length of the B component light transmitted through the G dichroic mirror 120G and the optical path length of the other R component and G component light, the relay lenses 142, 144, 146 is used to correct the difference in optical path length. The light transmitted through the relay lens 142 is guided to the relay lens 144 by the reflection mirror 148. The light transmitted through the relay lens 144 is guided to the relay lens 146 by the reflection mirror 150. The light transmitted through the relay lens 146 is applied to the B liquid crystal panel 130B.

R用フィールドレンズ124Rに照射された光は、平行光に変換されてR用液晶パネル130Rに入射される。R用液晶パネル130Rは、光変調素子(光変調部)として機能し、R用画像信号に基づいて透過率(通過率、変調率)が変化するようになっている。従って、R用液晶パネル130Rに入射された光(第1の色成分の光)は、R用画像信号に基づいて変調され、変調後の光がクロスダイクロイックプリズム160に入射される。   The light applied to the R field lens 124R is converted into parallel light and is incident on the R liquid crystal panel 130R. The R liquid crystal panel 130R functions as a light modulation element (light modulation unit), and the transmittance (passage rate, modulation rate) changes based on the R image signal. Therefore, the light (first color component light) incident on the R liquid crystal panel 130R is modulated based on the R image signal, and the modulated light is incident on the cross dichroic prism 160.

G用フィールドレンズ124Gに照射された光は、平行光に変換されてG用液晶パネル130Gに入射される。G用液晶パネル130Gは、光変調素子(光変調部)として機能し、G用画像信号に基づいて透過率(通過率、変調率)が変化するようになっている。従って、G用液晶パネル130Gに入射された光(第2の色成分の光)は、G用画像信号に基づいて変調され、変調後の光がクロスダイクロイックプリズム160に入射される。   The light applied to the G field lens 124G is converted into parallel light and is incident on the G liquid crystal panel 130G. The G liquid crystal panel 130G functions as a light modulation element (light modulation unit), and the transmittance (passage rate, modulation rate) changes based on the G image signal. Therefore, the light (second color component light) incident on the G liquid crystal panel 130G is modulated based on the G image signal, and the modulated light is incident on the cross dichroic prism 160.

リレーレンズ142、144、146で平行光に変換された光が照射されるB用液晶パネル130Bは、光変調素子(光変調部)として機能し、B用画像信号に基づいて透過率(通過率、変調率)が変化するようになっている。従って、B用液晶パネル130Bに入射された光(第3の色成分の光)は、B用画像信号に基づいて変調され、変調後の光がクロスダイクロイックプリズム160に入射される。   The B liquid crystal panel 130B irradiated with the light converted into parallel light by the relay lenses 142, 144, and 146 functions as a light modulation element (light modulation unit), and has a transmittance (passage rate) based on the B image signal. , Modulation rate) is changed. Therefore, the light (third color component light) incident on the B liquid crystal panel 130B is modulated based on the B image signal, and the modulated light is incident on the cross dichroic prism 160.

R用液晶パネル130R、G用液晶パネル130G、B用液晶パネル130Bは、それぞれ同様の構成を有している。各液晶パネルは、電気光学物質である液晶を一対の透明なガラス基板に密閉封入したものであり、例えばポリシリコン薄膜トランジスタをスイッチング素子として、各画素の画像信号に対応して各色光の通過率を変調する。   The R liquid crystal panel 130R, the G liquid crystal panel 130G, and the B liquid crystal panel 130B have the same configuration. Each liquid crystal panel is a liquid crystal, which is an electro-optical material, sealed and encapsulated in a pair of transparent glass substrates. For example, a polysilicon thin film transistor is used as a switching element, and the transmittance of each color light is corresponding to the image signal of each pixel. Modulate.

本実施形態では、投射制御部50の光変調素子駆動部52によって生成された駆動信号が、それぞれR用液晶パネル130R、G用液晶パネル130G、B用液晶パネル130Bの透過率(通過率、変調率)の制御に用いられる。   In the present embodiment, the drive signals generated by the light modulation element driving unit 52 of the projection control unit 50 are transmitted through the R liquid crystal panel 130R, the G liquid crystal panel 130G, and the B liquid crystal panel 130B, respectively. Rate).

クロスダイクロイックプリズム160は、R用液晶パネル130R、G用液晶パネル130G及びB用液晶パネル130Bからの入射光を合成した合成光を出射光として出力する機能を有する。投射レンズ170は、出力画像をスクリーンSCR上に拡大して結像させるレンズであり、ズーム倍率に応じて画像を拡大又は縮小させる機能を有する。   The cross dichroic prism 160 has a function of outputting combined light obtained by combining incident light from the R liquid crystal panel 130R, the G liquid crystal panel 130G, and the B liquid crystal panel 130B as outgoing light. The projection lens 170 is a lens that enlarges and forms an output image on the screen SCR, and has a function of enlarging or reducing the image in accordance with the zoom magnification.

以下では、上記の構成を有するプロジェクタ10において、「フレア」が発生しても画質を向上させる画像処理部20の処理について詳細に説明する。   Hereinafter, in the projector 10 having the above-described configuration, the processing of the image processing unit 20 that improves the image quality even when “flare” occurs will be described in detail.

図3(A)、図3(B)に、本実施形態におけるフレアの説明図を示す。図3(A)は、投射レンズ170と光変調素子との位置関係を表す。図3(B)は、スクリーンSCR上の画素に注目したときのフレアを模式的に表す。
図4に、本実施形態におけるフレアの模式的な形状を示す。
3A and 3B are explanatory diagrams of flare in the present embodiment. FIG. 3A shows the positional relationship between the projection lens 170 and the light modulation element. FIG. 3B schematically shows the flare when attention is paid to the pixels on the screen SCR.
FIG. 4 shows a schematic shape of the flare in the present embodiment.

図3(A)に示すように、光源110からの光が照射される液晶パネルを通過する光の領域300の中心位置は、投射レンズ170の中心位置OCに対してずれる。従って、図3(B)に示すように、投射レンズ170を通過した光は、スクリーンSCR上の投射領域310内の投射画像IMGとして映し出されたとき、スクリーンSCR上では、図3(A)の領域300内の画素P1のフレアは、スクリーンSCR上で図3(B)に示す形状となる。即ち、光源110からの光が変調される液晶パネルの画素P1の形状に対し、投射レンズ170等の投射光学系の影響で、フレアF1の形状が図4のようになる。   As shown in FIG. 3A, the center position of the light region 300 that passes through the liquid crystal panel irradiated with the light from the light source 110 is shifted from the center position OC of the projection lens 170. Therefore, as shown in FIG. 3B, when the light that has passed through the projection lens 170 is projected as a projection image IMG in the projection area 310 on the screen SCR, the light shown in FIG. The flare of the pixel P1 in the region 300 has a shape shown in FIG. 3B on the screen SCR. In other words, the shape of the flare F1 is as shown in FIG. 4 due to the influence of the projection optical system such as the projection lens 170 on the shape of the pixel P1 of the liquid crystal panel in which light from the light source 110 is modulated.

図5(A)、図5(B)に、フレアに起因する画質劣化の説明図を示す。図5(A)は、液晶パネルの画素の配置例を模式的に表す。図5(B)は、フレアによって画像がにじむ様子を表す。   5A and 5B are explanatory diagrams of image quality deterioration caused by flare. FIG. 5A schematically illustrates an arrangement example of pixels of the liquid crystal panel. FIG. 5B illustrates a state in which an image blurs due to flare.

図5(A)に示すように、光変調素子としての液晶パネルの画素が、水平方向及び垂直方向に2次元配列されているため、理想的には、スクリーンSCR上にも、各画素の光が、その隣接する画素の光と干渉しない状態で画像として表示されることが望ましい。ところが、図4に示すように各画素にフレアが発生するため、図5(B)に示すように隣接する画素の光が干渉してスクリーンSCR上の画像がにじみ、画質の劣化を招く。   As shown in FIG. 5A, since the pixels of the liquid crystal panel as the light modulation elements are two-dimensionally arranged in the horizontal direction and the vertical direction, ideally, the light of each pixel is also displayed on the screen SCR. However, it is desirable to display as an image without interfering with the light of the adjacent pixels. However, since flare occurs in each pixel as shown in FIG. 4, the light on the adjacent pixels interferes with each other as shown in FIG. 5B, and the image on the screen SCR blurs, resulting in deterioration of image quality.

そこで、本実施形態では、画素毎に、フレアが発生しても所望の画素値が得られるように、入力画像信号を補正することで画質の劣化を抑える。即ち、本実施形態では、画素位置毎に、その周辺の画素の影響を考慮した補正を行う。本実施形態によれば、レンズを用いて画像を表示する場合に、通過光が通過するレンズ上の位置に対応したフレアモデルを算出し、該フレアモデルに基づいて、該通過光の変調量を定める画像信号を補正するようにしたので、レンズに起因して「フレア」が発生した場合であっても、「フレア」を測定することなく画質を向上させることができるようになる。更に、本実施形態によれば、レンズ上の位置で定義される当該画素の周辺画素の画素値を用いて、当該画素に対応した画像信号を補正するようにしたので、「フレア」の形状に応じた画質の向上を図ることができるようになる。   Therefore, in this embodiment, image quality deterioration is suppressed by correcting the input image signal so that a desired pixel value can be obtained for each pixel even if flare occurs. That is, in the present embodiment, correction is performed in consideration of the influence of surrounding pixels for each pixel position. According to this embodiment, when an image is displayed using a lens, a flare model corresponding to the position on the lens through which the passing light passes is calculated, and the modulation amount of the passing light is calculated based on the flare model. Since the predetermined image signal is corrected, even when “flare” occurs due to the lens, the image quality can be improved without measuring “flare”. Furthermore, according to this embodiment, the image signal corresponding to the pixel is corrected using the pixel value of the peripheral pixel of the pixel defined by the position on the lens, so that the “flare” shape is obtained. The image quality can be improved accordingly.

ここで、フレアの影響は、投射レンズの位置に起因するため、以下のように、投射レンズの中心位置を基準に特定される画素位置を用いることが望ましい。   Here, since the influence of flare is caused by the position of the projection lens, it is desirable to use a pixel position specified based on the center position of the projection lens as follows.

図6(A)、図6(B)に、本実施形態における表示システム2の模式図を示す。図6(A)は、表示システム2を横から見た図を表す。図6(B)は、表示システム2をスクリーンSCRに対して正面から見た図を表す。図6(A)、図6(B)において、図1と同一部分には同一符号を付し、適宜説明を省略する。   6A and 6B are schematic diagrams of the display system 2 in the present embodiment. FIG. 6A shows the display system 2 as viewed from the side. FIG. 6B illustrates the display system 2 as viewed from the front with respect to the screen SCR. 6A and 6B, the same portions as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

図6(A)に示すように、一般的に、プロジェクタ10の投射レンズ170の中心位置OCに対して、上側に投影画像が広がるようにプロジェクタ10は画像を投射する。こうすることで、スクリーンSCRからの位置が近くても、プロジェクタ10はスクリーンSCR上に大きな画像を表示させることができる。   As shown in FIG. 6A, generally, the projector 10 projects an image so that the projected image spreads upward with respect to the center position OC of the projection lens 170 of the projector 10. By doing so, the projector 10 can display a large image on the screen SCR even if the position from the screen SCR is close.

従って、図6(B)に示すように、スクリーンSCR上の投射画像の中心位置OCCと、プロジェクタ10の投射レンズ170の中心位置OCから投射される画素位置OCPとは異なる。そこで、本実施形態では、投射レンズ170上で定義されるレンズ座標系の画素に対し、その画素位置に対応した補正処理を行う。そのため、本実施形態では、レンズ座標系の画素に対してフレアモデルを算出するため、次に示すような用語を用いる。   Accordingly, as shown in FIG. 6B, the center position OCC of the projected image on the screen SCR and the pixel position OCP projected from the center position OC of the projection lens 170 of the projector 10 are different. Therefore, in the present embodiment, correction processing corresponding to the pixel position is performed on the pixels in the lens coordinate system defined on the projection lens 170. Therefore, in the present embodiment, the following terms are used to calculate the flare model for the pixels in the lens coordinate system.

図7に、本実施形態におけるフレアモデルを定義するための用語の説明図を示す。図7は、投射レンズ170の中心位置OCを中心とする同心円を表す。   In FIG. 7, the explanatory view of the term for defining the flare model in this embodiment is shown. FIG. 7 shows concentric circles centered on the center position OC of the projection lens 170.

本実施形態におけるフレアモデルは、投射レンズ170の中心位置OCを基準に、次の3要素を用いて表現される。第1の要素は、投射レンズ170の中心位置OCからの距離である像高hである。第2の要素は、投射レンズ170の中心位置OCを中心とした同心円方向であるサジタル(sagittal)方向Sである。第3の要素は、投射レンズ170の中心位置OCを基準として放射線方向であるメリジオナル(meridional)方向Mである。より具体的には、投射レンズ170の中心位置OCを中心とした同心円上に当該画素が位置する場合、像高hは、当該画素を通る同心円の半径となり、サジタル方向Sは、当該画素位置における同心円の接線方向であり、メリジオナル方向Mは、当該画素位置から中心位置OCに向かう方向又はその逆方向である。こうすることで、フレアモデルの形状をより少ないパラメータ数で特定(算出)できるので、フレアモデルを規定するフレアモデルデータの容量を削減できるようになる。   The flare model in the present embodiment is expressed using the following three elements with the center position OC of the projection lens 170 as a reference. The first element is an image height h that is a distance from the center position OC of the projection lens 170. The second element is a sagittal direction S that is a concentric direction around the center position OC of the projection lens 170. The third element is a meridional direction M that is a radiation direction with reference to the center position OC of the projection lens 170. More specifically, when the pixel is located on a concentric circle centered on the center position OC of the projection lens 170, the image height h is the radius of the concentric circle passing through the pixel, and the sagittal direction S is A tangential direction of concentric circles, and a meridional direction M is a direction from the pixel position toward the center position OC or the opposite direction. By doing this, the shape of the flare model can be specified (calculated) with a smaller number of parameters, so that the capacity of flare model data defining the flare model can be reduced.

本実施形態におけるフレアモデルは、以上のような3要素を用いて、次のようなフレアモデルのパラメータ(フレアモデルデータ)により特定される。   The flare model in the present embodiment is specified by the following flare model parameters (flare model data) using the above three elements.

図8に、本実施形態におけるフレアモデルの説明図を示す。   FIG. 8 is an explanatory diagram of the flare model in the present embodiment.

図8では、投射レンズ170上において、画像の水平方向にi番目、垂直方向にj番目の画素(i,j)のフレアを表現するフレアモデルを表している。ここでは、投射レンズ170の中心位置OCから投影画像の水平方向の第1の向きと、画素(i,j)と中心位置OCを結ぶ直線とのなす角度をθとし、画素(i,j)と中心位置OCとの距離(像高)をhとすると、投射レンズ170上の位置(当該画素の通過光が通る位置)は、投射レンズ170の中心位置OCを中心とする極座標を用いて画素(i,j)を特定することができる。こうすることで、投射レンズの中心位置を基準に投射レンズ上の位置を特定するようにしたので、レンズの中心位置が等しい画素同士については同様に補正することができ、画像信号の補正処理を簡素化できるようになる。   FIG. 8 shows a flare model that represents the flare of the i-th pixel (i, j) in the horizontal direction and the j-th pixel in the vertical direction on the projection lens 170. Here, the angle formed by the first horizontal direction of the projection image from the center position OC of the projection lens 170 and the straight line connecting the pixel (i, j) and the center position OC is θ, and the pixel (i, j) If the distance (image height) between the center position OC and the center position OC is h, the position on the projection lens 170 (the position where the light passing through the pixel passes) is a pixel using polar coordinates centered on the center position OC of the projection lens 170. (I, j) can be specified. In this way, since the position on the projection lens is specified based on the center position of the projection lens, pixels having the same lens center position can be similarly corrected, and image signal correction processing can be performed. It can be simplified.

そして、本実施形態では、このように特定される投射レンズ上の画素(i,j)におけるフレアモデルを、パラメータMo(θ,h)、Mi(θ,h)、S(θ,h)で表す。   In this embodiment, the flare model at the pixel (i, j) on the projection lens specified in this way is represented by parameters Mo (θ, h), Mi (θ, h), and S (θ, h). To express.

パラメータMo(θ,h)は、角度θ、像高hにおけるメリジオナル方向外側のフレアの長さを表す。即ち、パラメータMo(θ,h)は、当該画素(i,j)の位置を基準に、投射レンズ170の中心位置OCを中心とする同心円の外側に向かう放射線方向のフレアの長さを表す。   The parameter Mo (θ, h) represents the length of the flare outside the meridional direction at the angle θ and the image height h. That is, the parameter Mo (θ, h) represents the length of the flare in the radiation direction toward the outside of the concentric circle with the center position OC of the projection lens 170 as the center, based on the position of the pixel (i, j).

パラメータMi(θ,h)は、角度θ、像高hにおけるメリジオナル方向内側のフレアの長さを表す。即ち、パラメータMi(θ,h)は、当該画素(i,j)の位置を基準に、投射レンズ170の中心位置OCを中心とする同心円の内側に向かう放射線方向のフレアの長さを表す。   The parameter Mi (θ, h) represents the length of the flare inside the meridional direction at the angle θ and the image height h. That is, the parameter Mi (θ, h) represents the length of the flare in the radiation direction toward the inside of the concentric circle with the center position OC of the projection lens 170 as the center, with the position of the pixel (i, j) as a reference.

パラメータS(θ,h)は、角度θ、像高hにおけるサジタル方向のフレアの幅を表す。即ち、パラメータS(θ,h)は、当該画素(i,j)の位置を基準とする同心円方向のフレアの幅を表す。   The parameter S (θ, h) represents the width of the flare in the sagittal direction at the angle θ and the image height h. That is, the parameter S (θ, h) represents the width of the flare in the concentric direction with the position of the pixel (i, j) as a reference.

即ち、本実施形態では、フレアモデルが、投射レンズの中心位置OCを基準とするサジタル方向の長さ、及び投射レンズの中心位置を基準とするメリジオナル方向の長さを用いて特定される。そして、本実施形態では、図1のフレアモデルデータ記憶部32が記憶するフレアモデルデータは、上記のパラメータMo(θ,h)、Mi(θ,h)、S(θ,h)である。   That is, in the present embodiment, the flare model is specified using the length in the sagittal direction with respect to the center position OC of the projection lens and the length in the meridional direction with respect to the center position of the projection lens. In the present embodiment, the flare model data stored in the flare model data storage unit 32 in FIG. 1 is the parameters Mo (θ, h), Mi (θ, h), and S (θ, h).

ところで、このような「フレア」の形状を特定するためのフレアモデルデータは、一般に、投射レンズ170の特性上、角度θに依存しないことが多い。しかしながら、投射レンズ170のズーム位置に応じて「フレア」の出方が異なる。そのため、フレアモデルデータ記憶部32は、投射レンズ170のズーム位置(ズーム量)に対応したフレアモデルデータを記憶することが望ましい。   By the way, the flare model data for specifying such a “flare” shape generally does not depend on the angle θ due to the characteristics of the projection lens 170. However, the appearance of “flare” varies depending on the zoom position of the projection lens 170. Therefore, it is desirable that the flare model data storage unit 32 stores flare model data corresponding to the zoom position (zoom amount) of the projection lens 170.

図9(A)、図9(B)に、本実施形態におけるプロジェクタ10の投射レンズ170のズーム位置の説明図を示す。図9(A)は、ズーム倍率が小さい場合の投射レンズ170のズーム位置を表し、図9(B)は、ズーム倍率が大きい場合の投射レンズ170のズーム位置を表す。   9A and 9B are explanatory diagrams of the zoom position of the projection lens 170 of the projector 10 according to the present embodiment. FIG. 9A illustrates the zoom position of the projection lens 170 when the zoom magnification is small, and FIG. 9B illustrates the zoom position of the projection lens 170 when the zoom magnification is large.

このように、スクリーンSCRまでの距離を一定にした状態で、プロジェクタ10の投射レンズ170のズーム位置を変更したとき、投影画像の各画素において「フレア」の出方が異なる。   As described above, when the zoom position of the projection lens 170 of the projector 10 is changed in a state where the distance to the screen SCR is constant, the appearance of “flare” differs in each pixel of the projection image.

そこで、本実施形態では、フレアモデルデータ記憶部32は、投射レンズのズーム量に対応した複数のフレアモデルデータを記憶することができる。そして、フレアモデル算出部30は、ズーム位置取得部28によって取得された投射レンズのズーム位置に基づいて、投射レンズのズーム量に対応したフレアモデルデータを読み出し、画像信号が該フレアモデルデータに基づいて補正されることが望ましい。こうすることで、投射レンズ170のズーム位置が変化した場合であっても、正確に画像信号を補正することができ、ズーム量にかかわらず画質を向上させることができるようになる。   Therefore, in the present embodiment, the flare model data storage unit 32 can store a plurality of flare model data corresponding to the zoom amount of the projection lens. Then, the flare model calculation unit 30 reads flare model data corresponding to the zoom amount of the projection lens based on the zoom position of the projection lens acquired by the zoom position acquisition unit 28, and the image signal is based on the flare model data. It is desirable to be corrected. Thus, even when the zoom position of the projection lens 170 changes, the image signal can be corrected accurately, and the image quality can be improved regardless of the zoom amount.

次に、本実施形態における画像処理部20の処理例の詳細について説明する。   Next, details of a processing example of the image processing unit 20 in the present embodiment will be described.

図10に、本実施形態における画像処理部20のハードウェア構成例のブロック図を示す。   FIG. 10 shows a block diagram of a hardware configuration example of the image processing unit 20 in the present embodiment.

画像処理部20は、CPU400、I/F回路410、読み出し専用メモリ(Read Only Memory:ROM)420、ランダムアクセスメモリ(Random Access Memory:RAM)430、バス440を有し、バス440を介して、CPU400、I/F回路410、ROM420、RAM430は電気的に接続されている。   The image processing unit 20 includes a CPU 400, an I / F circuit 410, a read only memory (ROM) 420, a random access memory (RAM) 430, and a bus 440. The CPU 400, the I / F circuit 410, the ROM 420, and the RAM 430 are electrically connected.

例えばROM420には、画像処理部20の機能を実現するプログラムが記憶される。CPU400は、ROM420に記憶されたプログラムを読み出し、該プログラムに対応した処理を実行することで、上述の画像処理部20の機能をソフトウェア処理で実現できる。なお、RAM430は、フレアモデルデータ記憶部32の機能を実現すると共に、CPU400による処理の作業エリアとして用いられたり、I/F回路410やROM420のバッファエリアとして用いられたりする。I/F回路410は、図示しない画像信号生成装置からの画像信号の入力インタフェース処理や、ズーム調節部54からのズーム量の受信処理を行う。   For example, the ROM 420 stores a program that realizes the function of the image processing unit 20. The CPU 400 reads the program stored in the ROM 420 and executes processing corresponding to the program, whereby the functions of the image processing unit 20 described above can be realized by software processing. The RAM 430 realizes the function of the flare model data storage unit 32 and is used as a work area for processing by the CPU 400 or as a buffer area for the I / F circuit 410 or the ROM 420. The I / F circuit 410 performs input interface processing of an image signal from an image signal generation device (not shown) and reception processing of a zoom amount from the zoom adjustment unit 54.

図11に、本実施形態における画像処理部20の処理例のフロー図を示す。   FIG. 11 shows a flowchart of a processing example of the image processing unit 20 in the present embodiment.

図10のROM420において、予め図11に示す処理を実現するためのプログラムが格納されており、CPU400がROM420に格納されたプログラムを読み出して該プログラムに対応した処理を実行することで、図11に示す処理をソフトウェア処理により実現できる。   A program for realizing the processing shown in FIG. 11 is stored in the ROM 420 of FIG. 10 in advance, and the CPU 400 reads out the program stored in the ROM 420 and executes the processing corresponding to the program. The processing shown can be realized by software processing.

画像処理部20は、まず、ズーム位置取得部28の機能により、ズーム調節部54の調節結果であるズーム位置を取得する(ステップS10)。そして、画像処理部20は、投射レンズ170の中心位置OCに対応する光変調素子130としての液晶パネル130R、130G、130Bの位置を特定し、パネル座標系における投射レンズの中心位置として算出する(ステップS12)。   First, the image processing unit 20 acquires the zoom position, which is the adjustment result of the zoom adjustment unit 54, by the function of the zoom position acquisition unit 28 (step S10). Then, the image processing unit 20 specifies the positions of the liquid crystal panels 130R, 130G, and 130B as the light modulation elements 130 corresponding to the center position OC of the projection lens 170, and calculates the center position of the projection lens in the panel coordinate system ( Step S12).

その後、画像処理部20は、例えば1画面分の画像信号をバッファリングし(ステップS14)、図示しないフレームバッファ(図10のRAM430)に格納する。   Thereafter, the image processing unit 20 buffers, for example, an image signal for one screen (step S14) and stores it in a frame buffer (not shown) (RAM 430 in FIG. 10).

これ以降、画像処理部20は、1画素を構成する色成分毎に処理を行う。   Thereafter, the image processing unit 20 performs processing for each color component constituting one pixel.

即ち、画像処理部20は、画素(i,j)の色成分毎に、当該画素位置におけるフレアモデルデータを取得する(ステップS14)。より具体的には、ステップS12でパネル座標系における投射レンズの中心位置を算出すると、画素(i,j)における像高h、角度θがわかるので、フレアモデルデータ記憶部32に記憶されたフレアモデルデータの中からフレアパラメータMo(θ,h)、Mi(θ,h)、S(θ,h)の各値を取得する。   That is, the image processing unit 20 acquires flare model data at the pixel position for each color component of the pixel (i, j) (step S14). More specifically, when the center position of the projection lens in the panel coordinate system is calculated in step S12, the image height h and the angle θ at the pixel (i, j) can be obtained, so that the flare stored in the flare model data storage unit 32 is obtained. Each value of the flare parameters Mo (θ, h), Mi (θ, h), and S (θ, h) is acquired from the model data.

図12(A)、図12(B)に、フレアモデルデータ記憶部32に記憶されるフレアモデルデータの説明図を示す。   12A and 12B are explanatory diagrams of flare model data stored in the flare model data storage unit 32. FIG.

図12(A)に示すように、フレアモデルデータ記憶部32は、例えば像高hに対応して、フレアモデルデータとしてのフレアパラメータMo(h)、Mi(h)、S(h)の値を記憶する。これにより、投射レンズ170の特性上、角度θにかかわらずフレアパラメータMo(h)、Mi(h)、S(h)が同じであるため、フレアモデルデータ記憶部32が記憶すべきデータ容量を削減することができる。   As shown in FIG. 12A, the flare model data storage unit 32 corresponds to, for example, the image height h, and the values of flare parameters Mo (h), Mi (h), S (h) as flare model data. Remember. As a result, the flare parameters Mo (h), Mi (h), and S (h) are the same regardless of the angle θ due to the characteristics of the projection lens 170. Therefore, the data capacity to be stored by the flare model data storage unit 32 is reduced. Can be reduced.

また、フレアモデルデータ記憶部32は、図12(B)に示すように、ズーム位置取得部28によって取得されるズーム位置に応じたフレアモデルデータを記憶する。これは、投射レンズ170のズーム位置に応じて「フレア」の出方が異なるため、ズーム位置毎にフレアモデルデータを格納することで、より正確に画質を向上させることができるようになる。   Further, the flare model data storage unit 32 stores flare model data corresponding to the zoom position acquired by the zoom position acquisition unit 28, as shown in FIG. This is because the appearance of the “flare” varies depending on the zoom position of the projection lens 170, and the flare model data is stored for each zoom position, so that the image quality can be improved more accurately.

以上のように、フレアモデルデータ記憶部32及び制御部34はフレアモデル算出部30の機能を実現し、フレアモデル算出ステップとして、予めフレアモデルデータを記憶しておき、そのフレアモデルデータの中から、ズーム位置取得部28からのズーム位置に応じて、各画素位置のフレアモデルデータが出力される。こうして、図11のステップS16において、ズーム位置に応じたフレアモデルデータを取得すると、画像処理部20は、当該画素の「フレア」による周辺画素のカバー率を算出する(ステップS18)。そして、画像処理部20は、画像信号補正ステップとして、画像信号補正部24において、ステップS18で求められたカバー率を用いて当該画素の画像信号を補正する(ステップS20)。   As described above, the flare model data storage unit 32 and the control unit 34 realize the function of the flare model calculation unit 30, store flare model data in advance as a flare model calculation step, and select from the flare model data. The flare model data at each pixel position is output according to the zoom position from the zoom position acquisition unit 28. Thus, when the flare model data corresponding to the zoom position is acquired in step S16 of FIG. 11, the image processing unit 20 calculates the coverage ratio of the peripheral pixels by the “flare” of the pixel (step S18). Then, as the image signal correction step, the image processing unit 20 corrects the image signal of the pixel using the coverage obtained in step S18 in the image signal correction unit 24 (step S20).

図13(A)、図13(B)は、本実施形態における画像処理部20による当該画素の画像信号補正処理の説明図を示す。図13(A)は、パネル座標系における当該画素(i,j)を模式的に表し、図13(B)は、当該画素の周辺画素のカバー率を模式的表す。   FIG. 13A and FIG. 13B are explanatory diagrams of image signal correction processing of the pixel by the image processing unit 20 in the present embodiment. FIG. 13A schematically shows the pixel (i, j) in the panel coordinate system, and FIG. 13B schematically shows the coverage of the peripheral pixels of the pixel.

図11のステップS16においてフレアモデルデータが取得されると、当該画素(i,j)のフレアの形状が判別する。例えば図13(A)の画素(i,j)に注目したとき、当該画素の周辺画素のうち、当該画素(i,j)を含む例えば4画素のフレアのカバー率を算出する。フレアの面積をS、画素a(画素値a)のフレアのカバー率をSa、画素b(画素値b)のフレアのカバー率をSb、画素c(画素値c)のフレアのカバー率をSc、画素d(画素値d)のフレアのカバー率をSdとすると、画像信号補正部24は、当該画素(i,j)(画素d)の画素値(画像信号)sigを次式のように補正した補正後の画素値(画像信号)sigdを出力する。
When the flare model data is acquired in step S16 of FIG. 11, the flare shape of the pixel (i, j) is determined. For example, when attention is paid to the pixel (i, j) in FIG. 13A, the coverage of a flare of, for example, four pixels including the pixel (i, j) among the peripheral pixels of the pixel is calculated. The flare area is S, the flare coverage of pixel a (pixel value a) is Sa, the flare coverage of pixel b (pixel value b) is Sb, and the flare coverage of pixel c (pixel value c) is Sc. Assuming that the flare coverage of the pixel d (pixel value d) is Sd, the image signal correction unit 24 calculates the pixel value (image signal) sig of the pixel (i, j) (pixel d) as follows: The corrected pixel value (image signal) sigd after correction is output.

その後、図11において、次の色成分の画像信号の補正を行うとき(ステップS22:Y)、画像処理部20は、ステップS16に戻って処理を継続する。また、ステップS22において、次の色成分の画像信号の補正を行わないとき(ステップS22:N)、次の画素について画像信号を補正するとき(ステップS24:Y)、画素位置を更新して(ステップS26)、ステップS16に戻って処理を継続し、次の画素について画像信号を補正しないとき(ステップS24:N)、一連の処理を終了する(エンド)。   Thereafter, in FIG. 11, when the image signal of the next color component is corrected (step S22: Y), the image processing unit 20 returns to step S16 and continues the processing. In step S22, when the image signal of the next color component is not corrected (step S22: N), when the image signal is corrected for the next pixel (step S24: Y), the pixel position is updated ( In step S26), the process returns to step S16 to continue the process. When the image signal is not corrected for the next pixel (step S24: N), the series of processes is terminated (END).

図14に、図11のステップS18の詳細の処理例のフロー図を示す。
図15及び図16に、図14のステップS30の説明図を示す。
図17に、図14のステップS34、ステップS36の説明図を示す。
図18(A)、図18(B)に、図14のステップS36、ステップS38の説明図を示す。
FIG. 14 shows a flowchart of a detailed processing example of step S18 of FIG.
15 and 16 are explanatory diagrams of step S30 in FIG.
FIG. 17 is an explanatory diagram of steps S34 and S36 in FIG.
18A and 18B are explanatory diagrams of steps S36 and S38 in FIG.

当該画素の周辺画素のカバー率を算出するにあたって、画像処理部20は、まず、図11のステップS12以降で求められる角度θと、ステップS16で取得されるフレアモデルデータとに基づいて、画素(i,j)のフレアの外周4点の座標を算出する(ステップS30)。即ち、図15に示すように一辺が画素ピッチ分の長さを有する正方形の領域を画素領域とすると、画素(i,j)の中心位置を基準に、フレアのパラメータ(フレアモデルデータ)Mo(θ,h)、Mi(θ,h)、S(θ,h)を用いて、外周4点の座標を求める。なお、正方形の領域は、後述するように面積の算出に用いるため、図16に示すように例えば10×10の分解能で各座標位置を定める。   In calculating the coverage ratio of the peripheral pixels of the pixel, the image processing unit 20 first calculates a pixel (based on the angle θ obtained in step S12 and subsequent steps in FIG. 11 and the flare model data acquired in step S16. The coordinates of four points on the outer periphery of the flare of i, j) are calculated (step S30). In other words, as shown in FIG. 15, when a square region having a side corresponding to the pixel pitch is defined as a pixel region, the flare parameter (flare model data) Mo () is based on the center position of the pixel (i, j). The coordinates of the four outer peripheral points are obtained using θ, h), Mi (θ, h), and S (θ, h). Since the square area is used for calculating the area as described later, each coordinate position is determined with a resolution of 10 × 10, for example, as shown in FIG.

次に、画像処理部20は、ステップS30で求めた4点の外周を結線する処理を行う(ステップS32)。なお、ステップS32では、直線で結線する必要はなく、例えばスプライン曲線等の所与の線で結線してもよい。続いて、画像処理部20は、ステップS32の結線で囲まれた内部の面積を算出する(ステップS34)。ステップS34では、例えば結線で囲まれた領域を塗りつぶした個数を面積として算出することができる。   Next, the image processing unit 20 performs a process of connecting the outer circumferences of the four points obtained in step S30 (step S32). In step S32, it is not necessary to connect with a straight line, and it may be connected with a given line such as a spline curve. Subsequently, the image processing unit 20 calculates an internal area surrounded by the connection in step S32 (step S34). In step S34, for example, the number of areas filled with the connection can be calculated as the area.

そして、画像処理部20は、ステップS32で結線された領域のうち当該画素の周辺画素の領域の面積を算出し(ステップS36)、上式のようにカバー率を算出する(ステップS38)。例えば、図18(A)に示すように、当該画素の左上の周辺画素(画素値sig11)の面積は「38」、真上の周辺画素(画素値sig12)の面積は「23」、左の周辺画素(画素値sig21)の面積は「27」、当該画素(画素値sig)の面積は「96」となるため、結線内部の面積は「184」(=38+23+27+96)となり、当該画素を含む周辺画素のカバー率は図18(B)のようになる。   Then, the image processing unit 20 calculates the area of the area around the pixel among the areas connected in step S32 (step S36), and calculates the coverage as shown in the above equation (step S38). For example, as shown in FIG. 18A, the area of the upper left peripheral pixel (pixel value sig11) of the pixel is “38”, the area of the upper right peripheral pixel (pixel value sig12) is “23”, Since the area of the peripheral pixel (pixel value sig21) is “27” and the area of the pixel (pixel value sig) is “96”, the area inside the connection is “184” (= 38 + 23 + 27 + 96). The pixel coverage is as shown in FIG.

従って、この場合、当該画素の画素値(画像信号)sigを、下の式のように重み付け計算して求める。
Therefore, in this case, the pixel value (image signal) sig of the pixel is obtained by weighting calculation as in the following equation.

以上のように、本実施形態では、投射レンズのレンズ座標系で定義される画素毎にフレアモデルを算出し、該フレアモデルに基づいて、パネル座標系で定義される当該画素の周辺画素の画素値(画像信号)を用いて当該画素の画素値を補正する。こうすることで、投射レンズに起因した「フレア」が発生しても画質を向上させることができるようになる。   As described above, in the present embodiment, a flare model is calculated for each pixel defined in the lens coordinate system of the projection lens, and pixels around the pixel defined in the panel coordinate system are calculated based on the flare model. The pixel value of the pixel is corrected using the value (image signal). By doing so, the image quality can be improved even if “flare” due to the projection lens occurs.

以上、本発明に係る画像処理装置、画像表示装置及び画像処理方法を上記の実施形態に基づいて説明したが、本発明は上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。   The image processing apparatus, the image display apparatus, and the image processing method according to the present invention have been described based on the above embodiments. However, the present invention is not limited to the above embodiments, and does not depart from the spirit of the present invention. Can be implemented in various modes, and for example, the following modifications are possible.

(1)上記の実施形態では、画像表示装置としてプロジェクタを例に説明したが、本発明はこれに限定されるものではない。本発明は、レンズを用いて画像を表示する画像表示装置に適用できることは言うまでもない。   (1) In the above embodiment, the projector has been described as an example of the image display device, but the present invention is not limited to this. Needless to say, the present invention can be applied to an image display device that displays an image using a lens.

(2)上記の実施形態では、1画素を3つの色成分のサブ画素で構成されるものとして説明したが、本発明はこれに限定されるものではない。1画素を構成する色成分数が2、又は4以上であってもよい。   (2) In the above embodiment, one pixel is described as being composed of three color component sub-pixels, but the present invention is not limited to this. The number of color components constituting one pixel may be 2, or 4 or more.

(3)上記の実施形態では、光変調素子としてライトバルブを用いるものとして説明したが、本発明はこれに限定されるものではない。光変調部として、例えばDLP(Digital Light Processing)(登録商標)、LCOS(Liquid Crystal On Silicon)等を採用してもよい。   (3) In the above embodiment, the light valve is used as the light modulation element. However, the present invention is not limited to this. As the light modulation unit, for example, DLP (Digital Light Processing) (registered trademark), LCOS (Liquid Crystal On Silicon), or the like may be employed.

(4)上記の実施形態では、光変調素子として、いわゆる3板式の透過型の液晶パネルを用いたライトバルブを例に説明したが、4板式以上の透過型の液晶パネルを用いたライトバルブを採用してもよい。   (4) In the above embodiment, a light valve using a so-called three-plate transmissive liquid crystal panel as an example of the light modulation element has been described. However, a light valve using a transmissive liquid crystal panel of four or more plates is used. It may be adopted.

(5)上記の実施形態において、本発明を、画像処理装置、画像表示装置及び画像処理方法として説明したが、本発明はこれに限定されるものではない。例えば、本発明を実現するための画像処理方法の処理手順が記述されたプログラムや、該プログラムが記録された記録媒体であってもよい。   (5) In the above embodiment, the present invention has been described as an image processing apparatus, an image display apparatus, and an image processing method, but the present invention is not limited to this. For example, it may be a program in which a processing procedure of an image processing method for realizing the present invention is described, or a recording medium on which the program is recorded.

本発明に係る実施形態におけるプロジェクタが適用された表示システムの構成例のブロック図。1 is a block diagram of a configuration example of a display system to which a projector according to an embodiment of the present invention is applied. 図1の投射部の構成例を示す図。The figure which shows the structural example of the projection part of FIG. 図3(A)、図3(B)は本実施形態におけるフレアの説明図。3 (A) and 3 (B) are explanatory diagrams of flare in the present embodiment. 本実施形態におけるフレアの模式的な形状を示す図。The figure which shows the typical shape of the flare in this embodiment. 図5(A)、図5(B)はフレアに起因する画質劣化の説明図。5A and 5B are explanatory diagrams of image quality deterioration caused by flare. 図6(A)、図6(B)本実施形態における表示システムの模式図。6A and 6B are schematic views of the display system in the present embodiment. 本実施形態におけるフレアモデルを定義するための用語の説明図。Explanatory drawing of the term for defining the flare model in this embodiment. 本実施形態におけるフレアモデルの説明図。Explanatory drawing of the flare model in this embodiment. 図9(A)、図9(B)は本実施形態におけるプロジェクタの投射レンズのズーム位置の説明図。9A and 9B are explanatory diagrams of the zoom position of the projection lens of the projector according to the present embodiment. 本実施形態における画像処理部のハードウェア構成例のブロック図。The block diagram of the hardware structural example of the image process part in this embodiment. 本実施形態における画像処理部の処理例のフロー図。The flowchart of the example of a process of the image process part in this embodiment. 図12(A)、図12(B)はフレアモデルデータ記憶部に記憶されるフレアモデルデータの説明図。12A and 12B are explanatory diagrams of flare model data stored in the flare model data storage unit. 図13(A)、図13(B)は本実施形態における画像処理部による当該画素の画像信号補正処理の説明図。FIG. 13A and FIG. 13B are explanatory diagrams of image signal correction processing of the pixel by the image processing unit in the present embodiment. 図11のステップS18の詳細の処理例のフロー図。FIG. 12 is a flowchart of a detailed processing example of step S18 in FIG. 11. 図14のステップS30の説明図。Explanatory drawing of step S30 of FIG. 図14のステップS30の説明図。Explanatory drawing of step S30 of FIG. 図14のステップS34、ステップS36の説明図。Explanatory drawing of step S34 of FIG. 14, step S36. 図18(A)、図18(B)は図14のステップS36、ステップS38の説明図。18A and 18B are explanatory diagrams of step S36 and step S38 in FIG.

符号の説明Explanation of symbols

2…表示システム、 10…プロジェクタ、 20…画像処理部、
22…入力信号処理部、 24…画像信号補正部、 26…出力信号処理部、
28…ズーム位置取得部、 30…フレアモデル算出部、
32…フレアモデルデータ記憶部、 34…制御部、 50…投射制御部、
52…光変調素子駆動部、 54…ズーム調節部、 100…投射部、 110…光源、
112,114…インテグレータレンズ、 116…偏光変換素子、
118…重畳レンズ、 120R…R用ダイクロイックミラー、
120G…G用ダイクロイックミラー、 122,148,150…反射ミラー、
124R…R用フィールドレンズ、 124G…G用フィールドレンズ、
130…光変調素子 130R…R用液晶パネル、 130G…G用液晶パネル、
130B…B用液晶パネル、 140…リレー光学系、
142,144,146…リレーレンズ、 160…クロスダイクロイックプリズム、
170…投射レンズ、 SCR…スクリーン
2 ... Display system, 10 ... Projector, 20 ... Image processing unit,
22 ... an input signal processing unit, 24 ... an image signal correction unit, 26 ... an output signal processing unit,
28 ... zoom position acquisition unit, 30 ... flare model calculation unit,
32 ... Flare model data storage unit, 34 ... Control unit, 50 ... Projection control unit,
52 ... Light modulation element drive unit, 54 ... Zoom adjustment unit, 100 ... Projection unit, 110 ... Light source,
112, 114 ... integrator lens, 116 ... polarization conversion element,
118 ... Superimposing lens, 120R ... R dichroic mirror,
120G ... Dichroic mirror for G, 122,148,150 ... Reflective mirror,
124R ... R field lens, 124G ... G field lens,
130 ... Light modulation element 130R ... R liquid crystal panel, 130G ... G liquid crystal panel,
130B ... Liquid crystal panel for B, 140 ... Relay optical system,
142, 144, 146 ... relay lens, 160 ... cross dichroic prism,
170 ... Projection lens, SCR ... Screen

Claims (8)

レンズの通過光の変調量を定める画像信号を補正する画像処理装置であって、
前記通過光が通過する前記レンズ上の位置に対応したフレアモデルを算出するフレアモデル算出部と、
前記フレアモデル算出部によって求められた前記フレアモデルに基づいて、前記画像信号を補正する画像信号補正部とを含むことを特徴とする画像処理装置。
An image processing apparatus that corrects an image signal that determines a modulation amount of light passing through a lens,
A flare model calculation unit that calculates a flare model corresponding to a position on the lens through which the passing light passes;
An image processing apparatus comprising: an image signal correcting unit that corrects the image signal based on the flare model obtained by the flare model calculating unit.
請求項1において、
前記画像信号補正部は、
前記フレアモデルに基づいて、前記レンズ上の当該画素の周辺画素の画素値を用いて前記当該画素に対応した前記画像信号を補正することを特徴とする画像処理装置。
In claim 1,
The image signal correction unit
An image processing apparatus that corrects the image signal corresponding to the pixel by using pixel values of peripheral pixels of the pixel on the lens based on the flare model.
請求項1又は2において、
前記レンズ上の位置は、
前記レンズの中心位置を原点とする極座標を用いて特定されることを特徴とする画像処理装置。
In claim 1 or 2,
The position on the lens is
An image processing apparatus characterized by being specified using polar coordinates having a center position of the lens as an origin.
請求項1乃至3のいずれかにおいて、
前記フレアモデルは、
前記レンズの中心位置を基準とするサジタル方向の長さ、及び前記レンズの中心位置を基準とするメリジオナル方向の長さを用いて特定されることを特徴とする画像処理装置。
In any one of Claims 1 thru | or 3,
The flare model is
An image processing apparatus characterized by being specified using a length in a sagittal direction with respect to a center position of the lens and a length in a meridional direction with respect to the center position of the lens.
請求項1乃至4のいずれかにおいて、
前記レンズのズーム位置を取得するズーム位置取得部を含み、
前記フレアモデル算出部は、
前記ズーム位置取得部によって取得された前記ズーム位置に応じたフレアモデルを算出することを特徴とする画像処理装置。
In any one of Claims 1 thru | or 4,
A zoom position acquisition unit for acquiring a zoom position of the lens;
The flare model calculation unit
An image processing apparatus that calculates a flare model corresponding to the zoom position acquired by the zoom position acquisition unit.
請求項5において、
前記レンズのズーム量に対応した複数のフレアモデルデータを記憶するフレアモデルデータ記憶部を含み、
前記フレアモデル算出部は、
前記ズーム位置取得部によって取得された前記ズーム位置に基づいて、前記レンズのズーム量に対応したフレアモデルデータを読み出し、
前記画像信号補正部は、
前記フレアモデルデータに基づいて前記画像信号を補正することを特徴とする画像処理装置。
In claim 5,
A flare model data storage unit that stores a plurality of flare model data corresponding to the zoom amount of the lens;
The flare model calculation unit
Based on the zoom position acquired by the zoom position acquisition unit, reads flare model data corresponding to the zoom amount of the lens,
The image signal correction unit
An image processing apparatus, wherein the image signal is corrected based on the flare model data.
前記画像信号に基づいて前記通過光を変調する光変調素子と、
前記通過光が通過するレンズと、
前記画像信号を出力する請求項1乃至6のいずれか記載の画像処理装置とを含むことを特徴とする画像表示装置。
A light modulation element that modulates the passing light based on the image signal;
A lens through which the passing light passes;
An image display apparatus comprising: the image processing apparatus according to claim 1 that outputs the image signal.
レンズの通過光の変調量を定める画像信号を補正する画像処理方法であって、
前記通過光が通過する前記レンズ上の位置に対応したフレアモデルを算出するフレアモデル算出ステップと、
前記フレアモデル算出ステップにおいて求められた前記フレアモデルに基づいて、前記画像信号を補正する画像信号補正ステップとを含むことを特徴とする画像処理方法。
An image processing method for correcting an image signal that determines a modulation amount of light passing through a lens,
A flare model calculating step of calculating a flare model corresponding to a position on the lens through which the passing light passes;
An image signal correcting step of correcting the image signal based on the flare model obtained in the flare model calculating step.
JP2008052969A 2008-03-04 2008-03-04 Image processor, image display device, and image processing method Withdrawn JP2009212756A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008052969A JP2009212756A (en) 2008-03-04 2008-03-04 Image processor, image display device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008052969A JP2009212756A (en) 2008-03-04 2008-03-04 Image processor, image display device, and image processing method

Publications (1)

Publication Number Publication Date
JP2009212756A true JP2009212756A (en) 2009-09-17

Family

ID=41185489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008052969A Withdrawn JP2009212756A (en) 2008-03-04 2008-03-04 Image processor, image display device, and image processing method

Country Status (1)

Country Link
JP (1) JP2009212756A (en)

Similar Documents

Publication Publication Date Title
US7524070B2 (en) Projection control system, projector and projection control method
US8294740B2 (en) Image processor, image display device, image processing method, image display method, and program
JP5200743B2 (en) Image processing apparatus, image display apparatus, image processing method, image display method, and program
JP5251201B2 (en) Image processing apparatus, image display apparatus, and image processing method
JP5471830B2 (en) Light modulation device position adjustment method, light modulation device position adjustment amount calculation device, and projector
CN108376527B (en) Image display apparatus and control method thereof
US8297760B2 (en) Projector having corresponding lens shift and sub-pixel mapping elements
JP2005192188A (en) Projector
JP2010085563A (en) Image adjusting apparatus, image display system and image adjusting method
US8493401B2 (en) Image processing apparatus, image displaying apparatus, and image processing method
JP4973563B2 (en) Crosstalk measurement method, image processing apparatus, and crosstalk measurement system
JP6834543B2 (en) Image display device and its adjustment method
JP5298738B2 (en) Image display system and image adjustment method
JP5522241B2 (en) Image processing apparatus, image display apparatus, image processing method, image display method, and program
US20090122089A1 (en) Image display apparatus and image display method
JP2009194420A (en) Pixel shift measuring instrument, image display device, and pixel shift measurement method
JP2010087698A (en) Optical device and image display device
JP2009212756A (en) Image processor, image display device, and image processing method
JP2009212758A (en) Image processor, image display device, and image processing method
JP2018136399A (en) Image display device and method of adjusting the same
JP6056220B2 (en) Projector and control method thereof
JP2023096575A (en) Projection method and projector
JP2009253331A (en) Correction value table generating method, correction value table generating apparatus and image processing apparatus
JP2014161054A (en) Image processing device, image display device, image processing method, image display method and program
JP2010230801A (en) Projector, system and method for adjusting projector

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110510