JP2005012561A - Image processing apparatus, image processing method, and image projector - Google Patents

Image processing apparatus, image processing method, and image projector Download PDF

Info

Publication number
JP2005012561A
JP2005012561A JP2003175269A JP2003175269A JP2005012561A JP 2005012561 A JP2005012561 A JP 2005012561A JP 2003175269 A JP2003175269 A JP 2003175269A JP 2003175269 A JP2003175269 A JP 2003175269A JP 2005012561 A JP2005012561 A JP 2005012561A
Authority
JP
Japan
Prior art keywords
image
projection
filter
unit
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003175269A
Other languages
Japanese (ja)
Inventor
Akihiro Ota
章浩 太田
Hideo Morita
秀男 森田
Satoshi Tanaka
智 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003175269A priority Critical patent/JP2005012561A/en
Publication of JP2005012561A publication Critical patent/JP2005012561A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To eliminate a disadvantage that image quality deterioration is caused due partially to a reflexed component of a signal such as moire depending on a compression rate although the shape of an image part spread on a screen is corrected in a compressing or expanding direction while maintaining the linearity of the video image in the keystone distortion correction. <P>SOLUTION: A filter processing section 2a applies filter processing to pixel data by changing the pass band of the pixel data which are sequentially inputted as a video signal by each in-image position corresponding to the pixel data on the basis of a projection angle relative to an external screen 101 and in-image positional information when an image displayed on an LCD panel 3 is projected to the screen. Thus, the reflexed component is suppressed or eliminated depending on the in-image position. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、液晶パネルなどの画像表示部に表示する画像を生成する画像処理装置および画像処理方法、ならびに、画像投射装置に関する。
【0002】
【従来の技術】
いわゆるプロジェクターと称される画像投射装置は、画像表示部、たとえばLCD(Liquid Crystal Display)パネルを有している。画像表示部に画像を表示させ、その画像を外部のスクリーンなどの投射面に投影する。このとき、スクリーンに対するプロジェクターからの画像の投射角度が斜めであると、本来、矩形状であるはずの画像がスクリーン上で台形状に歪む。
このため、スクリーン上の画像の台形歪みを補正するいわゆるキーストン歪み補正機能を備えた液晶プロジェクターが知られている。
【0003】
鉛直または水平のキーストン歪み補正では、スクリーン上の投影画像と逆方向に意図的に歪ませた画像を液晶パネル上で生成する。正矩形の入力画像を意図的に歪ませる画像変換は、通常、プロジェクターが有する画素数変換機能を利用して行う。たとえば、鉛直のキーストン歪み補正では、元画像の1フレーム内の単数または複数の水平ラインデータに対して、補間処理や間引き処理をディジタル的に施すことにより台形歪みの逆変換を実行する。
【0004】
たとえば図12(A)に示すように、スクリーン101に向かって斜め左下にプロジェクター1を配置し、その位置からスクリーン101に画像を投射した場合、スクリーン101上では水平方向と鉛直方向の歪みが合成され投影画像が複雑に歪む。図12(A)では、この歪み画像の形状を、スクリーン101上の斜線を含む画像形状で表している。この歪み画像を正矩形の形状に補正するには、鉛直と水平の両方向でキーストン歪み補正を行う必要がある。このキーストン歪み補正では、歪みを表すアドレス群を生成し、生成したアドレス群にもとづいた位置に補間演算により新たな画素データを生成する処理を実行する方法がとられる。その結果、図12(B)に示す入力画像を元に、LCDパネル上で図12(C)に示すように変形された表示画像が生成される。
【0005】
このような画素の補間演算では、画素データを生成すべきアドレス点(以下、補間アドレス点という)の周囲に存在する元画像の画素データを水平と鉛直でそれぞれ複数個用いる必要があり、2次元の補間演算が必要となる。この演算には、2次元の補間フィルタを用いることもできるが、一般的には、演算規模、メモリのビット幅の制約、設定の自由度などの理由から鉛直、水平に独立な2つの1次元の補間フィルタを用いる。たとえば、最初に鉛直の1次元の補間フィルタに元画像データを通し、これにより生成された補間データを、さらに水平の1次元の補間フィルタに通すことにより、新たな画素データを生成する。
【0006】
図13に、4タップのフィルタによる畳み込み演算で1つの画素データを生成する1次元の補間演算例を示す。
補関係数は補間位置と画素データとの距離で決まるので、このときのx軸方向の距離の関数h(x)により、それぞれの位相に対する補間係数(フィルタ係数)を表すことができる。よって、このときの図示した補間点Qの画素データqは、元画素データA,B,C,Dを用いて式(1)に示す畳み込み演算で表すことができる。
【0007】
【数1】

Figure 2005012561
実際には補間関数h(x)については様々なものが考えられ、補間フィルタの特性を変えることで画質も変えることができる。
【0008】
ところで、このような補間処理によりキーストン歪み補正を行った画像に対し、プロジェクターの光学特性に起因した画質の部分的な品位低下を補償する技術として、キーストン歪み補正後の画像に、さらにフィルタ処理を施す技術が知られている(たとえば、特許文献1参照)。
【0009】
【特許文献1】
特開2003−32580号公報(第6頁、第6図など)
【0010】
【発明が解決しようとする課題】
一般に、画像データの補間処理を行う場合に、補間される画像データ信号が本来もっている信号帯域を考慮する必要がある。とくに画像表示部分の解像度が変わるような場合には、画像が本来もっている信号帯域を十分に表現できない場合がある。つまり、入出力の解像度の違いを考慮して補間フィルタの帯域制限を設定しなくては信号の折り返し成分が生じてしまう。これは画像上にジャギー(jaggy)やモアレ(moire)を生じさせる原因となり、画質の劣化をもたらすことになる。
【0011】
補間処理は通常、プロジェクターが本来もっている画素数変換機能を利用することは前にも述べたが、単に矩形画像の解像度を変換して新たな矩形画像を生成する解像度変換処理では、入出力の解像度が決まれば画像のどの部分でも縮小率や拡大率は一様なので、画像部位に関係なく画面全体に一定の帯域制限を行うだけでよかった。
【0012】
しかし、キーストン歪み補正を行うときの補間処理では、スクリーン上で歪む画像と逆の歪み画像を生成するものであり、本来矩形であった画像を意図的に歪ませる処理である。そのため、画像の一部が圧縮され、あるいは拡大される処理となることから、ジャギーやモアレの生じ方が画面の場所によって異なる。以下、このキーストン歪み補正後の画像におけるモアレを例として、この現象を、図面を参照しながら説明する。
【0013】
図14は、スクリーンに向かって左斜め下から投射する場合のキーストン歪み画像を補正するために、LCDパネル上で意図的に歪ませた画像(以下、歪み補正画像という)を示す。
前述した図12(A)のように画像を投射した場合、キーストン歪み補正を行わない場合、スクリーン101に投射された投影画像は、プロジェクター1からの距離にしたがって光が拡がっていくために、「補正前の投影画像範囲」に示すようにスクリーン上の位置によって映像の拡がり具合が異なっている。このようなキーストン歪みを補正するためのLCDパネル上の歪み補正画像は、図14に示すように逆に歪ませた画像となり、投射時にスクリーンまでの距離の違いによって補正する量も異なっている。このように変形されたキーストン歪み補正画像は、スクリーンに対して右上の向きに投射するものであるため、画像右上部がもっとも縮小され、左下部があまり縮小されないことになる。つまり画像内位置によって縮小率が異なっている。
【0014】
図15(C)に、図12(A)と同じようにスクリーンに向かって斜め左下の位置から投射した場合のスクリーン上の投影画像を示す。なお、ここでは図15(A)に示すような、水平方向の間隔が順次異なる縦のラインパターンを有する入力画像を用いている。
キーストン歪み補正処理は、補間関数を用いたフィルタ処理によって画像を変形し所望の形状を作り出す処理であるが、そこで用いるフィルタの帯域制限は一定であるために、このように画像位置の違いによって縮小率が異なるものに対しては、投影画像内で信号成分の周波数特性のバランスが崩れてしまう。
【0015】
一方、スクリーンに向かって斜め右下位置から同じ画像を投射した場合の投影画像を図15(B)に示す。この場合のLCDパネル上の表示画像はとくに図示しないが、左上の隅側がもっとも圧縮率が高い。
この図15(B)と図15(C)とを比較すると、映像信号の折り返し成分が異なって表れていることがわかる。つまり、左右対称で同じ角度の投射を行った場合では、それぞれでモアレの程度が異なっている。
【0016】
また、信号の折り返しがないようにすべての領域で一様に十分強いローパスフィルタをかけて帯域を落とすことも考えられるが、この場合、必要以上に帯域制限を行ってしまうことになり、画質という面から考えると好ましくない。
【0017】
なお、前記した特許文献1には、このようなモアレなどの信号の折り返し成分に起因した画質低下には言及されていない。特許文献1には、光学系の焦点ずれ量が異なることが原因でスクリーン上の位置によってピントボケが生じ、これを補正するためキーストン歪み補正後の画像信号をハイパスフィルタに通すことによってシャープネスの調整を行う技術が開示されている。
【0018】
本発明の目的は、モアレなどの信号の折り返し成分に起因した画質低下を防止するために、LCDパネルなどの画像表示部に表示する画像を補正することができる画像処理装置およびその方法、ならびに、画像投射装置を提供することにある。
【0019】
【課題を解決するための手段】
本発明に係る画像処理装置は、画像表示部に表示する画像を生成する画像処理装置であって、前記画像表示部に表示された画像を外部の投射面に投射するときの前記投射面に対する当該投射の角度と、画像内位置情報とにもとづいて、順次入力される画素データの通過帯域を当該画素データに対応する画像内位置ごとに変更し、フィルタ処理を行うフィルタ処理部を有する。
前記フィルタ処理部が、好適に、投射時に前記投射面上で画像が拡がる前記画像内位置ほど狭い通過帯域となるフィルタ係数を順次出力するフィルタ係数部と、順次入力されるフィルタ係数に応じた通過帯域で、入力される複数の画素データにフィルタ演算を施すフィルタ演算部と、を含む。
さらに好適に、前記フィルタ係数部は、通過帯域を変更するポイントとなる画素のフィルタ係数を画像の鉛直と水平の方向それぞれで所定の画素間隔で定め、当該画素間の他の画素に対応したフィルタ係数を鉛直と水平の方向それぞれで補間演算により求める。
【0020】
本発明に係る画像処理方法は、入力した画像に処理を施し、画像表示部に表示する画像を生成する画像処理方法であって、前記画像表示部に表示された画像を外部の投射面に投射するときの前記投射面に対する当該投射の角度と、画像内位置情報とにもとづいて、順次入力される画素データの通過帯域を当該画素データに対応する画像内位置ごとに変更し、フィルタ処理を行うフィルタ処理ステップを含む。
前記フィルタ処理ステップが、好適に、投射時に前記投射面上で画像が拡がる前記画像内位置ほど狭い通過帯域となるフィルタ係数を順次出力するステップと、順次入力されるフィルタ係数に応じた通過帯域で、入力される複数の画素データにフィルタ演算を施すステップと、を含む。
さらに好適に、前記フィルタ係数を出力するステップでは、通過帯域を変更するポイントとなる画素のフィルタ係数を画像の鉛直と水平の方向それぞれで所定の画素間隔で定め、当該画素間の他の画素に対応したフィルタ係数を鉛直と水平の方向それぞれで補間演算により求める。
【0021】
このように構成された画像処理装置および画像処理方法によれば、フィルタ処理部に(あるいは、フィルタ処理ステップで)、投射の角度と画像内位置情報とがあらかじめ入力され、あるいは、あらかじめ保持されている。画像表示部に出力すべき画像が当該フィルタ処理部に入力されると、この画像に対しフィルタ処理が実行される。このとき、上記投射の角度と画像内位置情報とにもとづいて、順次入力される画素データの通過帯域を当該画素データに対応する画像内位置ごとに変更する。通過帯域の変更は、投射時に前記投射面上で画像が拡がる前記画像内位置ほど狭い通過帯域となるフィルタ係数の選択により行う。この通過帯域を変更する画像内位置としては、すべての画素としてもよいが、より望ましい方法としては、画像の鉛直と水平の方向それぞれで所定の画素数の間隔でフィルタ係数を定め、その間の他の画素に対応したフィルタ係数を鉛直と水平のそれぞれで補間演算により求める。これにより、当該フィルタ処理部からは、投射時に前記投射面上で画像が拡がる前記画像内位置ほど狭い通過帯域となるようにフィルタリングされた画像が、画像表示部に表示されるべく出力される。この表示画像の投射時に余り拡がらず、圧縮などがほとんど施されない部分については、ほとんどフィルタリングされていない。また、投射時に大きく拡がり、たとえば圧縮が強くかけられる部分については帯域が狭くなるようなフィルタリングがかけられ、その結果、モアレまたはジャギーを起こすような高域の成分が除去されたものとなる。
【0022】
本発明に係る画像投射装置は、画像表示部と、前記画像表示部に表示された表示画像を、光を利用して外部の投射面に投射する投射手段と、を有する画像投射装置であって、前記画像表示部に表示された画像を前記投射手段によって外部の投射面に投射するときの前記投射面に対する当該投射の角度と、画像内位置情報とにもとづいて、順次入力される画素データの通過帯域を当該画素データに対応する画像内位置ごとに変更し、フィルタ処理を行うフィルタ処理部を有する。
【0023】
このように構成された画像投射装置では、上述した画像処理装置と同様にして部分的に帯域補正がされた画像が画像表示部に出力され、その表示面に表示される。その後、光を利用した投射によって、この表示画像が外部の投射面、たとえばスクリーンの面に投影される。上記帯域補正の結果、投射面上では輝度差がある細かなパターンが存在してもモアレやジャギーのない投影画像が表示される。
【0024】
【発明の実施の形態】
以下、本発明に係る画像処理装置、画像処理方法および画像投射装置の実施の形態を、フロントプロジェクション型の液晶プロジェクターを例に、図面を参照して説明する。
【0025】
図1に、プロジェクターの基本構成を示す。
プロジェクター1は、映像信号(入力画像信号)に種々の信号処理を施す回路および各種駆動系の回路を含む回路部2を有する。回路部2は、信号処理回路内の一部に、入力した映像信号の信号帯域を画像内位置に応じて補正するフィルタ処理部2aと、画素数変換の機能を利用した画素データの補間により投影画像の歪み補正を行う歪み補正回路2bとを有する。
プロジェクター1は、歪み補正回路2bから出力された表示画像3aを表示する画像表示部3、たとえばLCDパネルを有する。また、プロジェクター1は、表示画像3aを外部に投射するための光源を含む投光部4と、各種レンズを含む光学部5とを有する。LCDパネル3は透過型と反射型のいずれでもよいが、いずれにしても表示画像3aが、光学部5を通ってほぼ鉛直の投射面、たとえばスクリーン101に投影画像101aとして映し出される。LCDパネル3はRGBの色ごとに3つ設け、色ごとの画像が光学部5で合成される。
【0026】
プロジェクター1は、さらに、LCDパネル3とスクリーン101との相対的な関係を示す相対関係データを取得する手段(以下、相対関係取得部)6を有する。相対関係取得部6は、外部から相対関係データを入力する入力部、ボタンなどの外部操作手段、想定される相対関係データをあらかじめ記憶したROMなどの記憶手段、あるいは、相対関係を自ら検出する手段など、種々の形態がある。相対関係取得部6は、たとえば、少なくとも画像のスクリーン101までの距離、および、光学部5の光軸とスクリーン面とのなす角度を取得する。相対関係データは、フィルタ処理部2aのフィルタ係数部2dと、歪み補正回路2bとに供給される。
【0027】
歪み補正回路2bは、入力される相対関係データにもとづいて歪み画像のアドレス(補間アドレス)を生成し、この補間アドレスと所望の正矩形の画像のアドレスとの対応関係にもとづいて、補間処理により新たな画素データを生成する。このとき1つの画素データの生成に用いるべき元画像の複数N個の画素データが上記対応関係から求まり、また、フィルタ係数セットを生成して、これら元画像のN個の画素データとフィルタ係数セットを、Nタップのフィルタに入力する。これにより投射面上で歪みがキャンセルされるように逆方向に歪んだ画像が、当該歪み補正回路2bから出力される。
【0028】
本実施の形態では、歪み補正回路2bを行うフィルタのほかに、その前置フィルタ(後置フィルタでも可)としてフィルタ処理部2aが設けられている。フィルタ処理部2aは、投射時にスクリーン101上で投影画像が拡がる画像内位置ほど狭い通過帯域となるフィルタ係数を順次出力するフィルタ係数部2dと、順次入力されるフィルタ係数に応じた通過帯域で、入力される複数の画素データにフィルタ演算を施すフィルタ演算部2cとを有する。このフィルタ処理の目的は、画像の圧縮率または拡大率が大きな部分ほど映像信号の通過帯域を狭くすることにより、モアレあるいはジャギーなどの高周波の折り返し成分の影響を低減または防止することである。この帯域補正の詳細は後述する。
【0029】
上記フィルタ係数部2dとしては、CPUまたはマイクロコンピュータなどの手段によりその都度フィルタ係数を演算により求める手段であってもよい。また、フィルタ係数部2dとして、あらかじめ演算されたフィルタ係数を、相対関係データに対応させて保持した記憶手段であってもよい。フィルタ係数を求める際に画像の圧縮率または拡大率に比例または反比例したパラメータが必要になる。このパラメータとして、たとえば歪み補正まえの画像をLCDパネルに表示させて投射したときのスクリーン上での輝度値を用いることができる。歪み補正をしない場合にスクリーン上で拡がる画像部分ほど、歪み補正をする場合に画像が補正される程度(この場合、圧縮率)が高いことを勘案すると、このような輝度値を、画像の圧縮率に対応するパラメータとして用いることができる。
【0030】
輝度値は、実測により求めたものでもよいし、計算により求めたものでもよい。実測による場合、たとえば当該プロジェクターの出荷時に、スクリーンに対する投射方向の角度を種々変えながら、たとえば推奨の観賞位置(通常、スクリーンに向かって正面位置)から輝度を実測する。輝度測定は、輝度計を用いてもよいし、リファレンスとなる高精度カメラから画像を取り込んで、その撮像データの解析により行ってもよい。
計算による場合は、投射角度に対する輝度値(または輝度値をパラメータとして含む補正係数)を関数化してプログラム中の関数演算により、与えられた投射角度に対する輝度値(または補正係数)を逐次出力する形式でもよい。また、投影画像の所定の箇所ごとの画素における広がり面積を計算し、その逆数の相対値を輝度測定値の代わりに用いてもよい。
【0031】
前述したキーストン歪み補正時の画素数変換はスケーリングとも呼ばれるが、この処理では画素の補間演算が行われる。補間演算は、たとえば、イメージプロセッサと称される画像処理回路内に、スケーラと呼ばれる回路ブロックを内蔵させることにより実現される。したがって、スケーラを有する場合、画像の圧縮率または拡大率に応じたフィルタ処理の機能もスケーラ内にあらかじめもたせておくことが望ましい。
【0032】
図2は、回路部に含まれる画像処理回路、すなわちイメージプロセッサとその周辺の回路ブロックの一構成例を示す図である。
図解した画像処理回路は、コムフィルタ(Comb Filter)21、クロマデコーダ(Chroma Decoder)22、セレクトスイッチ(SW)23、アナログ−ディジタル・コンバータ(A/D)24、イメージプロセッサ(Image Processor)25、SDRAMなどからなる画像メモリ26、および、CPU27を有する。このうち、イメージプロセッサ25とCPU27が、画像変換の機能を実現するための具体的構成例に該当する。なお、これらの画像メモリ26やCPU27の機能をイメージプロセッサ25内に内蔵させてもよい。
【0033】
図解した画像処理回路は、コンポジットビデオ信号(以下、Video信号)、Y/C信号、RGB信号のいずれの映像信号にも対応している。Video信号はコムフィルタ21に、Y/C信号はクロマデコーダ22に、RGB信号はセレクトスイッチ23に、それぞれ入力される。いま、Video信号が入力されている場合を考えると、コムフィルタ21でY/C信号に変換され、続くクロマデコーダ22でYUV信号に変換される。セレクトスイッチ23によって選択された信号がA/D24により変換されてディジタル信号になる。この信号がイメージプロセッサ25に入力され、所望の信号処理が行われる。このとき、イメージプロセッサ25の処理がCPU27により制御され、処理中に、適宜画像メモリ26が使用される。所望の信号処理が行われたあとは、処理後の信号が画像表示部、たとえばLCDパネル3に送られ、この信号にもとづいてLCDパネル3に、投射する画像が表示される。
【0034】
図3に、イメージプロセッサ内部の回路ブロックの一構成例を示す。
イメージプロセッサ25は、前述したフィルタ処理部2a、IP(Interlace−Progressive)変換部251、スケーラ252、CPUインターフェース253、メモリ制御部254、および読み出し専用メモリ(ROM)255を有する。フィルタ処理部2aは、図1に示すフィルタ演算部2cを構成する水平方向(H)フィルタ2chと垂直方向(V)フィルタ2cv、ならびに、輝度値などの帯域の程度を表すパラメータを式内に含む所定の補正係数の設定値(および補間値)Lをもとにフィルタ係数を生成または保持するフィルタ係数部2dを有する。また、スケーラ252は、図1に示す歪み補正回路2bを構成するフィルタ演算部256、係数発生部257、および、アドレス発生部258を有する。
【0035】
なお、本構成例では、フィルタ処理部2aを歪み補正回路2bの前置フィルタとして配置しているが、フィルタ処理部2aとスケーラ252との位置を入れ替えて、後置フィルタとしてもよい。また、フィルタ演算部を水平と垂直の2つのフィルタ2ch,2cvで構成しているが、1つのフィルタから構成してもよい。また、フィルタ係数部2dをハードウエアとして用いているように図示しているが、フィルタ係数部2dをCPU27(図2)に格納されたプログラムによりソフトウエアとして実現することもできる。もちろん、水平と垂直の2つのフィルタ2ch,2cvを含めてフィルタ処理部2a全体をソフトウエアで実現することも可能である。なお、CPU27は、フィルタ処理部2aを含め当該イメージプロセッサ25内のすべての構成を制御するものとする。
【0036】
イメージプロセッサ25に入力された映像信号はIP変換部251に送られ、ここでインターレース信号がプログレッシブ化される。この処理では画像メモリ26を用いるが、メモリインターフェースとしてのメモリ制御部254にIP変換部251が接続されることによって、IP変換部251は画像メモリ26との間で画像データのやり取りを行う。
プログレッシブ化された信号は、まず、フィルタ処理部2aに送られ、ここで帯域補正が施されたのち、スケーリング処理を行うためにスケーラ252に送られる。スケーラ252の内部では、歪み補正に必要なアドレスをアドレス発生部258で生成する。フィルタ係数を係数発生部257で発生させ、発生させたフィルタ係数をフィルタ演算部256に供給する。フィルタ演算部256が、与えられたフィルタ係数を用いた補間演算を行い、入力した映像信号が示す元画像が、所定の大きさと形状を有したLCDパネルの画像に変換される。この変換後の画像の信号がLCDパネル3に送られ、スクリーンに投射される。
なお、ROM255は、この補間演算に用いるフィルタ係数などのデータを保持するが、前記した帯域補正のフィルタ係数を保持する手段として活用してもよい。この場合、フィルタ係数部2dは、フィルタ係数のパラメータ(たとえば補正係数の設定値L)を算出または照合する手段として機能する。なお、補正係数の設定値Lごとのフィルタ係数をテーブルでもつ場合は、このROM255でフィルタ係数部2dを置き換えることが可能である。
これら一連の処理を含むイメージプロセッシングを制御するCPU27のインターフェース253がIP変換部251、スケーラ252およびROM255に接続されている。
【0037】
つぎに、帯域補正の詳細を、図4に示すフローチャートに沿って説明する。
図3に示すフィルタ処理部2aに画素データが映像信号として入力されると(ステップST1)、つぎのステップST2で通過帯域の補正係数Lを設定する。このステップは説明の便宜上、この処理フロー内に記載しているが、実際は、処理フローが始まる前にあらかじめ行われる。すなわち、補正係数が参照テーブルに記憶されている場合、補正係数の書き込みが、この補正係数の設定に該当する。この場合、補正係数の書き込みは製品出荷時になされる。また、補正係数がプログラムの手順にしたがって関数パラメータから求められる場合、その算出処理が補正係数の設定に該当する。
【0038】
いずれの場合でも、補正係数の設定の仕方自体は共通する。この補正係数の設定方法を、つぎに説明する。
ここでは、画面内の部分によって異なる帯域制限を行うために、垂直方向、水平方向に対して任意の間隔で所望の帯域の程度を表す補正係数Lの設定を行う。この補正係数Lの設定では、帯域の程度とほぼ比例、あるいは、ほぼ反比例、または、多少なりとも相関があるパラメータを用いる。このパラメータは任意であるが、ここでは帯域の程度とほぼ反比例する輝度値を用いる。
ここで、もっとも簡単に、通過帯域の補正係数の設定値Lを画像の四隅に設定し、その設定ポイント間の補正係数を補間処理により求める。設定ポイントの間隔は後述しているように、より精密な帯域補正を行うためにもっと細かくしてもよい。
【0039】
図5に、補正係数の設定ポイントを示す。図5において符号「L00」、「L10」、「L01」および「L11」は、画像の四隅の画素での通過帯域の程度を表す補正係数である。これらの補正係数は、投射角度(鉛直方向α度、水平方向β度)に対応する固有の値を有し、投射角度の少なくとも一方の角度αまたはβが異なるたびに、新たな値が設定される。これらの補正係数は、測定により求める場合、たとえば、輝度の実測値「SL00」、「SL10」、「SL01」および「SL11」と、調整係数kとを用いてつぎの4つの式(2)で定義される。この補正係数の定義は、画素の圧縮率を大きくすべきスクリーン上で投影画像が拡がる画素ほどスクリーン面での面積が拡大し、その分、輝度が下がるという反比例の関係を利用したものである。
【0040】
【数2】
Figure 2005012561
【0041】
ここで、輝度の実測値「SL00」、「SL10」、「SL01」および「SL11」を求める輝度測定では、パネル上で均一の輝度を表示したプロジェクターを所定の角度で投射させる。
このときスクリーン上の投射映像イメージを図6に示す。設定する位置(通常、スクリーン正面の推奨の観賞位置)でスクリーン上の投射映像の輝度値を輝度計またはカメラで測定する。これにより、スクリーン上の投射映像の場所により輝度の相対値が大まかにわかる。上記したように、その輝度相対値の逆数比を各部位の補正係数とする。
【0042】
つぎに、4ポイントでの補正係数の設定値L00〜L11から、設定ポイント間の画素の通過帯域の補正係数を補間処理により算出する。この補間演算は、図2に示すフィルタ係数部2dまたはCPU27により実行され、必要に応じて、投射角度ごとにあらかじめROM255内に格納されるか、そのつど演算される。
【0043】
通過帯域の補正係数の補間演算方法を図7に示す。ここではもっとも単純に4点の設定値から目的の画素までの距離に応じて線形補間で通過帯域の補正係数を与えている。図7に記載したように、4点の通過帯域の補正係数の設定値を「L00」、「L10」、「L01」および「L11」とすると、所望位置での補間演算値L(x,z)は式(3)により与えられる。
【0044】
【数3】
Figure 2005012561
【0045】
ここで、符号Hdivは水平方向の設定値間隔、Vdivは垂直方向の設定値間隔、xはLCDパネルの水平座標、zはその垂直座標を示す。
【0046】
この補間値は、フィルタ処理部が水平と垂直の2方向に同時にフィルタ処理を行う前提であれば式(3)から求まる1種類でよいが、ここでは、フィルタ処理(ローパスフィルタリング)を水平方向と垂直方向について独立して行うことを前提としているため、通過帯域の補正係数の補間値を垂直方向用と水平方向用の2種類を用意する。水平方向の補間値を添え字に「h」をつけてLh00,Lh01,Lh10,Lh11で表すと、座標(x,z)での設定値Lh(x,z)は式(4)のようになる。また、垂直方向の補間値を添え字に「v」をつけてLv00,Lv01,Lv10,Lv11で表すと、座標(x,z)での設定値Lv(x,z)は式(5)のようになる。
【0047】
【数4】
Figure 2005012561
【0048】
【数5】
Figure 2005012561
【0049】
つぎに、これら補間演算による補正係数と前記設定による補正係数をもとにフィルタ係数を算出し、必要に応じて保存し(ステップST3)、算出したフィルタ係数を用いたフィルタ演算を実行する(ステップST4)。
【0050】
以下、フィルタ処理部の構成例とともに、その処理内容を説明する。
図8にHフィルタ2chの構成例を、図9にVフィルタ2cvの構成例を示す。ここで、通過帯域の補正を行う対象の画素データをData(x,z)で表記し、その画素データに対応した補正係数をL(x,z)で表記している。
Hフィルタ2chとVフィルタ2cvのそれぞれが、2つの画素データの遅延器201aおよび201bと、3つのフィルタ係数の乗算器202a〜202cと、乗算結果の加算器203とを有する。なお、図8に示す遅延器201aと201bは画素単位で入力データを遅延させるのに対し、図9に示す遅延器201aと201bはライン単位で入力データを遅延させることに注意を要する。
【0051】
まず、入力される映像信号に対し水平方向の帯域補正が施される。
Hフィルタ2chにおいて、補正対象の画素データData(x,z)が遅延器202aから出力されて乗算器202bに入力されるタイミングで、映像信号上での位相が水平方向(x方向)に1画素分遅れた隣接画素データData(x+1,z)が遅延器201aの入力側から乗算器202aに入力され、同じタイミングで、位相がx方向に1画素分進んだ隣接画素データData(x−1,z)が遅延器201bの出力側から乗算器202cに入力される。
ここで、符号xはスクリーンに向かって投影画像の左上側の隅を原点とした水平軸上の座標に対応したLCDパネル上の座標であり、符号zはスクリーンに向かって投影画像の左上側の隅を原点とした鉛直軸上の座標に対応したLCDパネル上の座標である。したがって、LCDパネルの表示面に左から右に画素データが順次表示される場合、1画素分位相が進んだLCDパネル上のx座標はスクリーン上の座標系では「x−1」と表記され、1画素分位相が遅れたLCDパネル上のx座標はスクリーン上の座標系では「x+1」と表記されることに注意を要する。
【0052】
乗算器202bにより、画素データData(x,z)にフィルタ係数「1−2*L(x,z)」がかけられる。乗算器202aにより画素データData(x+1,z)にフィルタ係数として補正係数L(x,z)がかけられ、同様に、乗算器202cにより画素データData(x−1,z)に補正係数L(x,z)がかけられる。これらの乗算結果は加算器203において加算され出力「Output」としてつぎのVフィルタ2cvに入力される。
このフィルタ処理は順次入力される画素データに対し順次実行され、これにより映像信号に水平方向の帯域補正が施される。
【0053】
Vフィルタ2cvにおいては、補正対象の画素データData(x,z)が遅延器202aから出力されて乗算器202bに入力されるタイミングで、映像信号上での位相が垂直方向(z方向)に1画素分遅れた隣接画素データData(x,z+1)が遅延器201aの入力側から乗算器202aに入力され、同じタイミングで、位相がz方向に1画素分進んだ隣接画素データData(x,z−1)が遅延器201bの出力側から乗算器202cに入力される。
前記したHフィルタの場合と同様、このVフィルタにおいても、乗算器202bにより画素データData(x,z)にフィルタ係数「1−2*L(x,z)」がかけられ、乗算器202aにより画素データData(x,z+1)にフィルタ係数「L(x,z)」がかけられ、乗算器202cにより画素データData(x,z−1)にフィルタ係数「L(x,z)」がかけられる。これらの乗算結果は加算器203により加算され、出力「Output」が得られる。このフィルタ処理は順次入力される画素データに対し順次実行され、その結果、加算器203の出力信号は、当該フィルタ処理部に入力された映像信号に水平と垂直の双方向で帯域補正が施されたものとなる。
【0054】
以上の帯域補正のためのフィルタ演算を式で表すと、水平方向のフィルタ演算が次式(6)、垂直方向のフィルタ演算が式(7)のようになる。ただし、水平と垂直のフィルタ演算は、その順序を入れ替えてもよい。そのため、式(6)と(7)では、それぞれのフィルタに入力される画素データは、画像入力データもしくは垂直フィルタ処理後の画素データ、水平フィルタ処理後の画素データのいずれでもよい。
【0055】
【数6】
Figure 2005012561
【0056】
つぎのステップST5で帯域補正後の画素データを、図1および図3に示す歪み補正回路2bに順次出力させる。
これら一連の処理ステップST1〜ST5は、プロジェクターが起動状態にあり映像信号の入力がある場合にステップST6の判断が「No」となっている限り、繰り返される。プロジェクターの起動が停止され、あるいは、処理すべき映像信号が入力されなくなると、ステップST6の判断が「Yes」となり当該処理全体が終了する。
【0057】
このような帯域補正を所定の間隔の画素ごとに実行させることによって、図6に示すように、歪み補正まえの投影画像で拡がりの程度が大きく画面が暗くなっている部分ほど、通過帯域を狭くしたローパスフィルタを通すことによって帯域を制限し、モアレやジャギーの原因となる高周波の折り返し成分を抑制または除去することができる。
言い換えると、これまで斜め投射時のキーストン歪み補正を行うと、画像のもつ信号帯域のバランスが不均一になってしまう問題が生じていたが、本実施の形態では、信号帯域バランスを取り戻すことができ、ひいては斜めから投射した投影画像の品位を従来よりも上げることができる。
また、従来では投射方向に依存して異なっていた信号の折り返し成分に起因した画質のアンバランスも適切に補正することができる。
さらに、補正値の設定を投射角度に依存させることによって、スクリーンとプロジェクターの距離という複雑な要素を含まず、簡単にキーストン歪み補正量に応じた信号帯域の補正が可能となる。
【0058】
以下、幾つかの変形例を説明する。
図4に示すステップST2において、設定ポイントを4点より増やすことができる。図10では、水平方向に6ポイントの補正係数を設定し、鉛直方向に3ポイントの補正係数を設定している。この場合、局所的に補正する量を変えることができる。また、設定ポイントを増やしただけ、より正確な帯域補正が可能になる。
【0059】
このような細かな帯域補正を行うと、たとえば図11(A)に示すように、筒型スクリーン102などのようにさまざまに変形した面に投射する場合、その投射面に対応した形状補正を行っている処理に対しても帯域補正が可能である。この場合のLCDパネル上の表示画像を図11(B)に示す。このほか、球状スクリーンへの投射も可能となる。
これらの平面でないスクリーンへの投射であっても、その投射角度およびスクリーンの非平面度に応じて補正係数を設定すれば、帯域の補正係数の精度がスクリーンの平面度に依存して画面内位置によって低下することを有効に防止できる。その結果、画面内位置ごとに適切な帯域制限を行うことができ、スクリーン上での画像信号の折り返し成分が原因で画質が低下することを、さらに有効に防止できる。
【0060】
なお、このようにスクリーンの特性や入射角度などのパラメータが増えると、用意する補正係数が多くなるが、そのような場合、画像投射装置に輝度測定手段を付属させ、所望のプロジェクター位置からの投射映像を所望の観賞位置で輝度測定して、その測定値に応じて補正係数を変える構成でもよい。
【0061】
【発明の効果】
本発明によれば、モアレなどの信号の折り返し成分に起因した画質低下を防止するために、LCDパネルなどの画像表示部に表示する画像を補正することができる画像処理装置およびその方法、ならびに、画像投射装置を提供することが可能となった。
【図面の簡単な説明】
【図1】本発明の実施の形態に係るプロジェクターの基本構成を示す図である。
【図2】回路部に含まれる、イメージプロセッサとその周辺の一構成例を示すブロック図である。
【図3】イメージプロセッサ内部の一構成例を示すブロック図である。
【図4】本発明の実施の形態に係る画像処理方法(帯域補正方法)の手順を示すフローチャートである。
【図5】補正係数の設定ポイントを示す図である。
【図6】スクリーン上の投射映像で輝度測定点を示す図である。
【図7】補正係数の補間演算方法を示す図である。
【図8】Hフィルタの構成例を示すブロック図である。
【図9】Vフィルタの構成例を示すブロック図である。
【図10】設定ポイントを細かくした変形例を示す図である。
【図11】(A)は斜め投射時の円筒型スクリーン上の投影画像を示す図、(B)はLCDのパネル面上での画像イメージを示す図である。
【図12】(A)は斜め投射時のスクリーン上の投影画像を示す図、(B)は入力画像イメージを示す図、(C)はLCDのパネル面上での画像イメージを示す図である。
【図13】4タップフィルタにより画素変換を示す図である。
【図14】スクリーンに向かって左斜め下から投射する場合のLCDパネル上の歪み補正画像を示す図である。
【図15】(A)は縦のラインパターンを有する入力画像を示す図、(B)は(A)に示す入力画像をキーストン歪み補正後にスクリーンに対し向かって右下から投射したときの投影画像を示す図、(C)は同じようにしてスクリーンに対し左下から投射したときの投影画像を示す図である。
【符号の説明】
1…画像投射装置(プロジェクター)、2…回路部、2a…フィルタ処理部、2b…歪み補正回路、2c…フィルタ演算部、2ch…Hフィルタ、2cv…Vフィルタ、2d…フィルタ係数部、3…画像表示部(LCDパネル)、3a…表示画像、4…投光部、5…光学部、6…相対関係取得部、21…コムフィルタ、22…クロマデコーダ、23…セレクトスイッチ、24…アナログ−ディジタル・コンバータ、25…イメージプロセッサ、26…画像メモリ、27…CPU、101…スクリーン、101a…投影画像、251…IP変換部、252…スケーラ、253…CPUインターフェース、254…メモリ制御部、255…ROM、256…フィルタ演算部、257…係数発生部、258…アドレス発生部、L…帯域の補正係数、SL…輝度の実測値、α,β…投射角度[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method for generating an image to be displayed on an image display unit such as a liquid crystal panel, and an image projection apparatus.
[0002]
[Prior art]
An image projection apparatus called a so-called projector has an image display unit, for example, an LCD (Liquid Crystal Display) panel. An image is displayed on the image display unit, and the image is projected onto a projection surface such as an external screen. At this time, if the projection angle of the image from the projector with respect to the screen is oblique, the image that should originally be rectangular is distorted into a trapezoid on the screen.
For this reason, a liquid crystal projector having a so-called keystone distortion correction function for correcting a trapezoidal distortion of an image on a screen is known.
[0003]
In the vertical or horizontal keystone distortion correction, an image that is intentionally distorted in the direction opposite to the projected image on the screen is generated on the liquid crystal panel. Image conversion that intentionally distorts a regular rectangular input image is usually performed using a pixel number conversion function of the projector. For example, in the vertical keystone distortion correction, inverse conversion of trapezoidal distortion is executed by digitally performing interpolation processing or thinning processing on one or more horizontal line data in one frame of the original image.
[0004]
For example, as shown in FIG. 12A, when the projector 1 is disposed obliquely lower left toward the screen 101 and an image is projected from the position onto the screen 101, the horizontal and vertical distortions are combined on the screen 101. The projected image is distorted in a complicated manner. In FIG. 12A, the shape of this distorted image is represented by an image shape including diagonal lines on the screen 101. In order to correct this distorted image into a regular rectangular shape, it is necessary to perform keystone distortion correction in both the vertical and horizontal directions. In this keystone distortion correction, an address group representing distortion is generated, and a process of generating new pixel data by interpolation calculation at a position based on the generated address group is used. As a result, a display image modified as shown in FIG. 12C is generated on the LCD panel based on the input image shown in FIG.
[0005]
In such a pixel interpolation operation, it is necessary to use a plurality of pixel data of the original image that exist around an address point where pixel data is to be generated (hereinafter referred to as an interpolation address point), both horizontally and vertically. Interpolation operation is required. For this calculation, a two-dimensional interpolation filter can be used, but generally two vertical ones are independent of the vertical and horizontal ones for reasons such as calculation scale, memory bit width restrictions, and freedom of setting. This interpolation filter is used. For example, first, original image data is passed through a vertical one-dimensional interpolation filter, and the generated interpolation data is further passed through a horizontal one-dimensional interpolation filter to generate new pixel data.
[0006]
FIG. 13 shows an example of a one-dimensional interpolation operation for generating one pixel data by a convolution operation using a 4-tap filter.
Since the number of complementary relations is determined by the distance between the interpolation position and the pixel data, the interpolation coefficient (filter coefficient) for each phase can be expressed by the function h (x) of the distance in the x-axis direction at this time. Therefore, the pixel data q of the interpolation point Q illustrated at this time can be expressed by a convolution operation shown in Expression (1) using the original pixel data A, B, C, and D.
[0007]
[Expression 1]
Figure 2005012561
Actually, various interpolation functions h (x) can be considered, and the image quality can be changed by changing the characteristics of the interpolation filter.
[0008]
By the way, as a technique for compensating for the partial deterioration in image quality due to the optical characteristics of the projector for the image subjected to the keystone distortion correction by such an interpolation process, the image after the keystone distortion correction is further filtered. The technique to apply is known (for example, refer patent document 1).
[0009]
[Patent Document 1]
JP 2003-32580 A (6th page, FIG. 6 etc.)
[0010]
[Problems to be solved by the invention]
In general, when performing interpolation processing of image data, it is necessary to consider the signal band that the image data signal to be interpolated originally has. In particular, when the resolution of the image display portion changes, the signal band that the image originally has may not be sufficiently expressed. In other words, a signal aliasing component occurs unless the band limitation of the interpolation filter is set in consideration of the difference in input / output resolution. This causes jaggy and moiré on the image, which leads to degradation of image quality.
[0011]
As described above, the interpolation processing normally uses the pixel number conversion function inherent in the projector, but in the resolution conversion processing that simply converts the resolution of the rectangular image to generate a new rectangular image, the input / output If the resolution is determined, the reduction ratio and the enlargement ratio are uniform in any part of the image, so it is only necessary to limit the bandwidth to the entire screen regardless of the image part.
[0012]
However, in the interpolation processing when performing keystone distortion correction, a distortion image opposite to the image distorted on the screen is generated, which is a process of intentionally distorting an image that was originally a rectangle. For this reason, since a part of the image is compressed or enlarged, how jaggy or moire occurs varies depending on the location of the screen. Hereinafter, this phenomenon will be described with reference to the drawings, taking as an example moire in the image after the keystone distortion correction.
[0013]
FIG. 14 shows an image intentionally distorted on the LCD panel (hereinafter referred to as a distortion corrected image) in order to correct a keystone distortion image when projected from the lower left oblique toward the screen.
When the image is projected as shown in FIG. 12A described above, when the keystone distortion correction is not performed, the projected image projected on the screen 101 spreads in accordance with the distance from the projector 1. As shown in the “projection image range before correction”, the degree of image expansion differs depending on the position on the screen. The distortion-corrected image on the LCD panel for correcting such keystone distortion is a reversely distorted image as shown in FIG. 14, and the amount to be corrected differs depending on the difference in distance to the screen during projection. Since the keystone distortion corrected image thus deformed is projected in the upper right direction with respect to the screen, the upper right part of the image is most reduced and the lower left part is not reduced much. That is, the reduction rate differs depending on the position in the image.
[0014]
FIG. 15C shows a projected image on the screen in the case of projecting obliquely from the lower left position toward the screen as in FIG. 12A. Here, as shown in FIG. 15A, an input image having vertical line patterns with different horizontal intervals is used.
Keystone distortion correction processing is processing that creates a desired shape by deforming an image by filter processing using an interpolation function. However, since the band limitation of the filter used there is constant, it is reduced by this difference in image position. For those with different rates, the balance of the frequency characteristics of the signal components in the projected image is lost.
[0015]
On the other hand, FIG. 15B shows a projected image when the same image is projected obliquely from the lower right position toward the screen. The display image on the LCD panel in this case is not particularly shown, but the upper left corner side has the highest compression rate.
Comparing FIG. 15B and FIG. 15C, it can be seen that the aliasing component of the video signal appears differently. That is, when the projection is performed at the same angle with left-right symmetry, the degree of moire is different for each.
[0016]
In addition, it is conceivable to reduce the bandwidth by applying a sufficiently strong low-pass filter in all regions so that the signal does not return, but in this case, the bandwidth is limited more than necessary, and the image quality is called It is not preferable from the viewpoint.
[0017]
Note that the above-described Patent Document 1 does not mention deterioration in image quality caused by such a signal folding component such as moire. Japanese Patent Laid-Open No. 2004-228688 adjusts the sharpness by passing the image signal after the keystone distortion correction through a high-pass filter to correct the out-of-focus due to the position on the screen due to the difference in the defocus amount of the optical system. Techniques to do are disclosed.
[0018]
An object of the present invention is to provide an image processing apparatus and method capable of correcting an image to be displayed on an image display unit such as an LCD panel, and a method thereof, in order to prevent deterioration in image quality due to a folded component of a signal such as moire. An object is to provide an image projection apparatus.
[0019]
[Means for Solving the Problems]
An image processing apparatus according to the present invention is an image processing apparatus that generates an image to be displayed on an image display unit, and the image display unit is configured to project the image displayed on the image display unit on an external projection surface. Based on the projection angle and the in-image position information, the filter processing unit performs a filtering process by changing the pass band of sequentially input pixel data for each in-image position corresponding to the pixel data.
The filter processing unit preferably outputs a filter coefficient unit that sequentially outputs a filter coefficient having a narrower pass band at a position in the image where the image expands on the projection surface at the time of projection, and a pass corresponding to the sequentially input filter coefficient And a filter operation unit that performs a filter operation on a plurality of input pixel data in a band.
More preferably, the filter coefficient unit determines a filter coefficient of a pixel serving as a point for changing a pass band at a predetermined pixel interval in each of a vertical direction and a horizontal direction of the image, and a filter corresponding to another pixel between the pixels. The coefficient is obtained by interpolation calculation in each of the vertical and horizontal directions.
[0020]
An image processing method according to the present invention is an image processing method for processing an input image and generating an image to be displayed on an image display unit, and projecting the image displayed on the image display unit onto an external projection surface Based on the angle of the projection with respect to the projection surface and the position information in the image, the pass band of the sequentially input pixel data is changed for each position in the image corresponding to the pixel data, and filter processing is performed. Including a filtering step.
Preferably, the filtering step includes a step of sequentially outputting a filter coefficient having a narrower pass band at a position in the image where the image expands on the projection surface during projection, and a pass band corresponding to the sequentially input filter coefficient. Applying a filter operation to a plurality of input pixel data.
More preferably, in the step of outputting the filter coefficient, a filter coefficient of a pixel that is a point for changing a pass band is determined at a predetermined pixel interval in each of a vertical direction and a horizontal direction of the image, and is transmitted to other pixels between the pixels. Corresponding filter coefficients are obtained by interpolation in the vertical and horizontal directions.
[0021]
According to the image processing device and the image processing method configured as described above, the projection angle and the in-image position information are input in advance or held in advance in the filter processing unit (or in the filter processing step). Yes. When an image to be output to the image display unit is input to the filter processing unit, filter processing is performed on the image. At this time, based on the projection angle and the in-image position information, the pass band of sequentially input pixel data is changed for each in-image position corresponding to the pixel data. The passband is changed by selecting a filter coefficient that has a narrower passband as the position in the image where the image expands on the projection surface during projection. The position in the image where the pass band is changed may be all pixels, but a more desirable method is to define filter coefficients at intervals of a predetermined number of pixels in the vertical and horizontal directions of the image, The filter coefficient corresponding to each pixel is obtained by interpolation calculation in the vertical and horizontal directions. Thereby, the filter processing unit outputs an image filtered so as to have a narrower pass band as the position in the image where the image expands on the projection surface during projection is displayed on the image display unit. The portion that does not expand much when this display image is projected and is hardly subjected to compression or the like is hardly filtered. In addition, filtering is performed such that a portion that is greatly expanded at the time of projection, for example, a region where compression is strongly applied, is narrowed, and as a result, high-frequency components that cause moire or jaggy are removed.
[0022]
An image projection apparatus according to the present invention is an image projection apparatus comprising: an image display unit; and a projection unit that projects a display image displayed on the image display unit onto an external projection surface using light. Based on the projection angle with respect to the projection surface when the image displayed on the image display unit is projected onto an external projection surface by the projection unit, and the position information in the image, A filter processing unit that changes the passband for each position in the image corresponding to the pixel data and performs a filter process is provided.
[0023]
In the image projection apparatus configured as described above, an image whose band has been partially corrected in the same manner as the image processing apparatus described above is output to the image display unit and displayed on the display surface. Thereafter, the display image is projected onto an external projection surface, for example, a screen surface, by projection using light. As a result of the band correction, even if there is a fine pattern with a luminance difference on the projection surface, a projected image without moire or jaggy is displayed.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of an image processing apparatus, an image processing method, and an image projection apparatus according to the present invention will be described below with reference to the drawings by taking a front projection type liquid crystal projector as an example.
[0025]
FIG. 1 shows a basic configuration of the projector.
The projector 1 includes a circuit unit 2 including a circuit that performs various signal processing on a video signal (input image signal) and a circuit of various drive systems. The circuit unit 2 projects on a part of the signal processing circuit by a filter processing unit 2a that corrects the signal band of the input video signal according to the position in the image, and by interpolation of pixel data using a pixel number conversion function. A distortion correction circuit 2b for correcting distortion of the image.
The projector 1 includes an image display unit 3, for example, an LCD panel, which displays the display image 3a output from the distortion correction circuit 2b. The projector 1 also includes a light projecting unit 4 including a light source for projecting the display image 3a to the outside, and an optical unit 5 including various lenses. The LCD panel 3 may be either a transmissive type or a reflective type, but in any case, the display image 3a is projected as a projected image 101a on a substantially vertical projection surface, for example, the screen 101, through the optical unit 5. Three LCD panels 3 are provided for each RGB color, and an image for each color is synthesized by the optical unit 5.
[0026]
The projector 1 further includes means (hereinafter referred to as a relative relationship acquisition unit) 6 that acquires relative relationship data indicating a relative relationship between the LCD panel 3 and the screen 101. The relative relationship acquisition unit 6 is an input unit for inputting relative relationship data from the outside, an external operation unit such as a button, a storage unit such as a ROM that stores presumed relative relationship data in advance, or a unit that detects the relative relationship itself There are various forms. The relative relationship acquisition unit 6 acquires, for example, at least the distance of the image to the screen 101 and the angle formed by the optical axis of the optical unit 5 and the screen surface. The relative relationship data is supplied to the filter coefficient unit 2d of the filter processing unit 2a and the distortion correction circuit 2b.
[0027]
The distortion correction circuit 2b generates a distortion image address (interpolation address) based on the input relative relationship data, and performs interpolation processing based on the correspondence between the interpolation address and a desired regular rectangular image address. New pixel data is generated. At this time, a plurality of N pieces of pixel data of the original image to be used for generating one pixel data are obtained from the above correspondence, and a filter coefficient set is generated, and the N pieces of pixel data and filter coefficient set of these original images are generated. Is input to an N-tap filter. As a result, an image distorted in the reverse direction so as to cancel the distortion on the projection surface is output from the distortion correction circuit 2b.
[0028]
In the present embodiment, in addition to the filter that performs the distortion correction circuit 2b, a filter processing unit 2a is provided as a pre-filter (or a post-filter). The filter processing unit 2a includes a filter coefficient unit 2d that sequentially outputs filter coefficients having a narrower pass band as the position in the image where the projected image expands on the screen 101 at the time of projection, and a pass band corresponding to the filter coefficients that are sequentially input, And a filter operation unit 2c that performs a filter operation on a plurality of input pixel data. The purpose of this filtering process is to reduce or prevent the influence of high-frequency aliasing components such as moire or jaggy by narrowing the passband of the video signal as the image compression rate or enlargement rate increases. Details of the band correction will be described later.
[0029]
The filter coefficient unit 2d may be a means for obtaining a filter coefficient by calculation each time by means such as a CPU or a microcomputer. The filter coefficient unit 2d may be a storage unit that holds filter coefficients calculated in advance in association with relative relationship data. When obtaining the filter coefficient, a parameter proportional to or inversely proportional to the compression ratio or enlargement ratio of the image is required. As this parameter, for example, the luminance value on the screen when an image before distortion correction is displayed on the LCD panel and projected can be used. Considering the fact that the portion of the image that expands on the screen without distortion correction has a higher degree of image correction (in this case, the compression ratio) when distortion correction is performed, such a luminance value is used to compress the image. It can be used as a parameter corresponding to the rate.
[0030]
The luminance value may be obtained by actual measurement or may be obtained by calculation. In the case of actual measurement, for example, when the projector is shipped, the luminance is actually measured from, for example, a recommended viewing position (usually the front position toward the screen) while changing the angle of the projection direction with respect to the screen. The luminance measurement may be performed using a luminance meter, or may be performed by capturing an image from a high-precision camera serving as a reference and analyzing the captured data.
In the case of calculation, the luminance value (or correction coefficient including the luminance value as a parameter) with respect to the projection angle is converted into a function, and the luminance value (or correction coefficient) with respect to the given projection angle is sequentially output by function calculation in the program. But you can. Further, the spread area in the pixel for each predetermined portion of the projection image may be calculated, and the relative value of the inverse may be used instead of the luminance measurement value.
[0031]
The above-described conversion of the number of pixels at the time of keystone distortion correction is also referred to as scaling. In this process, pixel interpolation is performed. The interpolation calculation is realized, for example, by incorporating a circuit block called a scaler in an image processing circuit called an image processor. Therefore, when a scaler is provided, it is desirable that a filter function corresponding to the image compression rate or enlargement rate is also provided in the scaler in advance.
[0032]
FIG. 2 is a diagram illustrating a configuration example of an image processing circuit included in the circuit unit, that is, an image processor and peripheral circuit blocks.
The illustrated image processing circuit includes a comb filter (21), a chroma decoder (22), a select switch (SW) 23, an analog-digital converter (A / D) 24, an image processor (Image Processor) 25, It has an image memory 26 made up of SDRAM and the like, and a CPU 27. Among these, the image processor 25 and the CPU 27 correspond to a specific configuration example for realizing an image conversion function. Note that the functions of the image memory 26 and the CPU 27 may be incorporated in the image processor 25.
[0033]
The illustrated image processing circuit supports any video signal of composite video signals (hereinafter referred to as Video signals), Y / C signals, and RGB signals. The Video signal is input to the comb filter 21, the Y / C signal is input to the chroma decoder 22, and the RGB signal is input to the select switch 23. Considering the case where a video signal is input, the comb filter 21 converts it into a Y / C signal, and the chroma decoder 22 converts it into a YUV signal. The signal selected by the select switch 23 is converted by the A / D 24 into a digital signal. This signal is input to the image processor 25 and desired signal processing is performed. At this time, the processing of the image processor 25 is controlled by the CPU 27, and the image memory 26 is appropriately used during the processing. After the desired signal processing is performed, the processed signal is sent to an image display unit, for example, the LCD panel 3, and an image to be projected is displayed on the LCD panel 3 based on this signal.
[0034]
FIG. 3 shows a configuration example of a circuit block inside the image processor.
The image processor 25 includes the above-described filter processing unit 2a, IP (Interlace-Progressive) conversion unit 251, scaler 252, CPU interface 253, memory control unit 254, and read-only memory (ROM) 255. The filter processing unit 2a includes a horizontal direction (H) filter 2ch and a vertical direction (V) filter 2cv constituting the filter calculation unit 2c shown in FIG. 1 and parameters indicating the degree of the band such as a luminance value in the equation. A filter coefficient unit 2d that generates or holds a filter coefficient based on a set value (and an interpolation value) L of a predetermined correction coefficient is provided. The scaler 252 includes a filter calculation unit 256, a coefficient generation unit 257, and an address generation unit 258 that constitute the distortion correction circuit 2b shown in FIG.
[0035]
In this configuration example, the filter processing unit 2a is arranged as a pre-filter of the distortion correction circuit 2b. However, the filter processing unit 2a and the scaler 252 may be replaced to form a post-filter. In addition, the filter calculation unit is configured by two horizontal and vertical filters 2ch and 2cv, but may be configured by one filter. Further, although the filter coefficient unit 2d is illustrated as being used as hardware, the filter coefficient unit 2d may be realized as software by a program stored in the CPU 27 (FIG. 2). Of course, the entire filter processing unit 2a including the two horizontal and vertical filters 2ch and 2cv can be realized by software. The CPU 27 controls all components in the image processor 25 including the filter processing unit 2a.
[0036]
The video signal input to the image processor 25 is sent to the IP conversion unit 251 where the interlace signal is made progressive. In this process, the image memory 26 is used. When the IP conversion unit 251 is connected to the memory control unit 254 serving as a memory interface, the IP conversion unit 251 exchanges image data with the image memory 26.
The progressive signal is first sent to the filter processing unit 2a, where band correction is performed, and then sent to the scaler 252 for scaling processing. Within the scaler 252, an address generation unit 258 generates an address necessary for distortion correction. The filter coefficient is generated by the coefficient generation unit 257, and the generated filter coefficient is supplied to the filter calculation unit 256. The filter calculation unit 256 performs an interpolation calculation using the given filter coefficient, and the original image indicated by the input video signal is converted into an image of the LCD panel having a predetermined size and shape. The converted image signal is sent to the LCD panel 3 and projected onto the screen.
The ROM 255 holds data such as filter coefficients used for this interpolation calculation, but may be used as means for holding the above-described band correction filter coefficients. In this case, the filter coefficient unit 2d functions as a means for calculating or collating a filter coefficient parameter (for example, a correction coefficient setting value L). When the filter coefficient for each set value L of the correction coefficient is stored in a table, the filter coefficient unit 2d can be replaced with this ROM 255.
An interface 253 of the CPU 27 that controls image processing including a series of processes is connected to the IP conversion unit 251, the scaler 252, and the ROM 255.
[0037]
Next, details of the band correction will be described with reference to the flowchart shown in FIG.
When pixel data is input as a video signal to the filter processing unit 2a shown in FIG. 3 (step ST1), a passband correction coefficient L is set in the next step ST2. Although this step is described in this processing flow for convenience of explanation, it is actually performed in advance before the processing flow starts. That is, when the correction coefficient is stored in the reference table, writing the correction coefficient corresponds to the setting of the correction coefficient. In this case, the correction coefficient is written at the time of product shipment. When the correction coefficient is obtained from the function parameter according to the program procedure, the calculation process corresponds to the setting of the correction coefficient.
[0038]
In any case, the correction coefficient setting method itself is common. A method for setting the correction coefficient will be described next.
Here, in order to perform band limitation that varies depending on the portion in the screen, a correction coefficient L that represents the degree of a desired band is set at arbitrary intervals in the vertical and horizontal directions. In the setting of the correction coefficient L, a parameter that is substantially proportional to the degree of the band, almost inversely proportional, or somewhat correlated is used. This parameter is arbitrary, but here, a luminance value almost inversely proportional to the band level is used.
Here, most simply, set values L of passband correction coefficients are set at the four corners of the image, and correction coefficients between the set points are obtained by interpolation processing. As will be described later, the interval between the set points may be made finer in order to perform more precise band correction.
[0039]
FIG. 5 shows correction coefficient setting points. In FIG. 5, symbols “L00”, “L10”, “L01”, and “L11” are correction coefficients that indicate the degree of passbands at the pixels at the four corners of the image. These correction coefficients have specific values corresponding to the projection angles (vertical direction α degrees, horizontal direction β degrees), and new values are set each time at least one of the projection angles α or β is different. The When these correction coefficients are obtained by measurement, for example, the following four formulas (2) are used by using the measured luminance values “SL00”, “SL10”, “SL01”, “SL11” and the adjustment coefficient k. Defined. This definition of the correction coefficient utilizes an inversely proportional relationship in which the area on the screen surface increases as the projected image expands on the screen where the pixel compression rate should be increased, and the luminance decreases accordingly.
[0040]
[Expression 2]
Figure 2005012561
[0041]
Here, in the luminance measurement for obtaining the actual luminance values “SL00”, “SL10”, “SL01”, and “SL11”, a projector that displays uniform luminance on the panel is projected at a predetermined angle.
FIG. 6 shows a projected video image on the screen at this time. The luminance value of the projected image on the screen is measured with a luminance meter or a camera at a set position (usually, a recommended viewing position in front of the screen). Thereby, the relative value of the brightness can be roughly determined by the location of the projected image on the screen. As described above, the reciprocal ratio of the relative luminance value is used as the correction coefficient for each part.
[0042]
Next, the correction coefficient of the pass band of the pixel between the set points is calculated by interpolation processing from the set values L00 to L11 of the correction coefficients at the four points. This interpolation calculation is executed by the filter coefficient unit 2d shown in FIG. 2 or the CPU 27, and is stored in the ROM 255 in advance for each projection angle or is calculated as needed.
[0043]
FIG. 7 shows an interpolation calculation method for the passband correction coefficient. Here, the passband correction coefficient is given by linear interpolation according to the distance from the four set values to the target pixel. As shown in FIG. 7, when the set values of the correction coefficients of the four pass bands are “L00”, “L10”, “L01”, and “L11”, the interpolation calculation value L (x, z at the desired position). ) Is given by equation (3).
[0044]
[Equation 3]
Figure 2005012561
[0045]
Here, symbol Hdiv represents a set value interval in the horizontal direction, Vdiv represents a set value interval in the vertical direction, x represents a horizontal coordinate of the LCD panel, and z represents a vertical coordinate thereof.
[0046]
This interpolation value may be one type obtained from the equation (3) if the filter processing unit performs filter processing simultaneously in two directions, horizontal and vertical, but here the filter processing (low-pass filtering) is defined as the horizontal direction. Since it is assumed that the vertical direction is performed independently, two types of interpolation values for the passband correction coefficient are prepared for the vertical direction and for the horizontal direction. When the interpolated value in the horizontal direction is represented by Lh00, Lh01, Lh10, and Lh11 with “h” appended to the subscript, the set value Lh (x, z) at the coordinates (x, z) is as shown in Equation (4). Become. Further, when the interpolation value in the vertical direction is represented by Lv00, Lv01, Lv10, and Lv11 with a suffix “v”, the set value Lv (x, z) at the coordinates (x, z) is expressed by the equation (5). It becomes like this.
[0047]
[Expression 4]
Figure 2005012561
[0048]
[Equation 5]
Figure 2005012561
[0049]
Next, a filter coefficient is calculated based on the correction coefficient by the interpolation calculation and the correction coefficient by the setting, and is stored as necessary (step ST3), and the filter calculation using the calculated filter coefficient is executed (step ST3). ST4).
[0050]
Hereinafter, the processing content will be described together with a configuration example of the filter processing unit.
FIG. 8 shows a configuration example of the H filter 2ch, and FIG. 9 shows a configuration example of the V filter 2cv. Here, pixel data to be subjected to passband correction is represented by Data (x, z), and a correction coefficient corresponding to the pixel data is represented by L (x, z).
Each of the H filter 2ch and the V filter 2cv includes two pixel data delay devices 201a and 201b, three filter coefficient multipliers 202a to 202c, and a multiplication result adder 203. Note that the delay units 201a and 201b shown in FIG. 8 delay input data in units of pixels, whereas the delay units 201a and 201b shown in FIG. 9 need to delay input data in units of lines.
[0051]
First, horizontal band correction is performed on the input video signal.
In the H filter 2ch, the pixel data Data (x, z) to be corrected is output from the delay unit 202a and input to the multiplier 202b, and the phase on the video signal is one pixel in the horizontal direction (x direction). The adjacent pixel data Data (x + 1, z) delayed by the minute is input to the multiplier 202a from the input side of the delay device 201a, and the adjacent pixel data Data (x-1, x) whose phase is advanced by one pixel in the x direction at the same timing. z) is input to the multiplier 202c from the output side of the delay device 201b.
Here, the symbol x is a coordinate on the LCD panel corresponding to the coordinate on the horizontal axis with the upper left corner of the projected image as the origin toward the screen, and the symbol z is the upper left corner of the projected image toward the screen. The coordinates on the LCD panel correspond to the coordinates on the vertical axis with the corner as the origin. Therefore, when the pixel data is sequentially displayed on the LCD panel display surface from left to right, the x coordinate on the LCD panel whose phase is advanced by one pixel is expressed as “x−1” in the coordinate system on the screen. Note that the x coordinate on the LCD panel whose phase is delayed by one pixel is expressed as “x + 1” in the coordinate system on the screen.
[0052]
The multiplier 202b multiplies the pixel data Data (x, z) by a filter coefficient “1-2 * L (x, z)”. The multiplier 202a multiplies the pixel data Data (x + 1, z) by a correction coefficient L (x, z) as a filter coefficient. Similarly, the multiplier 202c multiplies the pixel data Data (x-1, z) by a correction coefficient L ( x, z). These multiplication results are added by the adder 203 and input to the next V filter 2cv as an output “Output”.
This filtering process is sequentially performed on the pixel data that is sequentially input, and thereby the band correction in the horizontal direction is performed on the video signal.
[0053]
In the V filter 2cv, the phase on the video signal is 1 in the vertical direction (z direction) at the timing when the pixel data Data (x, z) to be corrected is output from the delay unit 202a and input to the multiplier 202b. The adjacent pixel data Data (x, z + 1) delayed by the pixel is input to the multiplier 202a from the input side of the delay device 201a, and the adjacent pixel data Data (x, z whose phase is advanced by one pixel in the z direction at the same timing. -1) is input to the multiplier 202c from the output side of the delay device 201b.
As in the case of the H filter described above, also in this V filter, the filter coefficient “1-2 * L (x, z)” is applied to the pixel data Data (x, z) by the multiplier 202b, and the multiplier 202a The pixel data Data (x, z + 1) is multiplied by the filter coefficient “L (x, z)”, and the multiplier 202 c multiplies the pixel data Data (x, z−1) by the filter coefficient “L (x, z)”. It is done. These multiplication results are added by the adder 203 to obtain an output “Output”. This filter processing is sequentially performed on the pixel data sequentially input. As a result, the output signal of the adder 203 is subjected to band correction in both horizontal and vertical directions on the video signal input to the filter processing unit. It will be.
[0054]
When the filter calculation for the above band correction is expressed by an equation, the horizontal filter operation is expressed by the following equation (6), and the vertical filter operation is expressed by equation (7). However, the order of the horizontal and vertical filter operations may be switched. Therefore, in Expressions (6) and (7), the pixel data input to each filter may be image input data, pixel data after vertical filter processing, or pixel data after horizontal filter processing.
[0055]
[Formula 6]
Figure 2005012561
[0056]
In the next step ST5, the pixel data after the band correction is sequentially output to the distortion correction circuit 2b shown in FIGS.
These series of processing steps ST1 to ST5 are repeated as long as the determination in step ST6 is “No” when the projector is in the activated state and there is an input of a video signal. When the activation of the projector is stopped or the video signal to be processed is not input, the determination in step ST6 is “Yes”, and the entire process ends.
[0057]
By performing such band correction for each pixel at a predetermined interval, as shown in FIG. 6, the pass band is narrowed in the projected image before distortion correction where the extent of expansion is large and the screen is dark. By passing the low-pass filter, the band can be limited, and high-frequency aliasing components that cause moire and jaggy can be suppressed or eliminated.
In other words, when the keystone distortion correction at the time of oblique projection has been performed so far, there has been a problem that the signal band balance of the image becomes non-uniform, but in this embodiment, the signal band balance can be restored. As a result, the quality of the projected image projected obliquely can be improved as compared with the prior art.
In addition, it is possible to appropriately correct the image quality imbalance caused by the aliasing component of the signal that has been different depending on the projection direction.
Furthermore, by making the correction value setting dependent on the projection angle, it is possible to easily correct the signal band according to the keystone distortion correction amount without including a complicated element such as the distance between the screen and the projector.
[0058]
Hereinafter, some modifications will be described.
In step ST2 shown in FIG. 4, the set points can be increased from four points. In FIG. 10, a 6-point correction coefficient is set in the horizontal direction, and a 3-point correction coefficient is set in the vertical direction. In this case, the amount to be locally corrected can be changed. In addition, more accurate band correction is possible by increasing the set point.
[0059]
When such a fine band correction is performed, as shown in FIG. 11A, for example, when projecting onto various deformed surfaces such as a cylindrical screen 102, the shape correction corresponding to the projection surface is performed. It is possible to perform band correction even for the current process. A display image on the LCD panel in this case is shown in FIG. In addition, projection onto a spherical screen is also possible.
Even if these projections are to a non-planar screen, if the correction coefficient is set according to the projection angle and the non-flatness of the screen, the accuracy of the band correction coefficient depends on the flatness of the screen and the position within the screen. It is possible to effectively prevent the deterioration. As a result, it is possible to appropriately limit the band for each position in the screen, and it is possible to more effectively prevent the image quality from being deteriorated due to the aliasing component of the image signal on the screen.
[0060]
If the parameters such as the screen characteristics and the incident angle increase as described above, the correction coefficient to be prepared increases. In such a case, the image projection apparatus is provided with a luminance measurement means, and projection from a desired projector position is performed. A configuration may be used in which luminance is measured at a desired viewing position, and the correction coefficient is changed according to the measured value.
[0061]
【The invention's effect】
According to the present invention, an image processing apparatus and method for correcting an image to be displayed on an image display unit such as an LCD panel in order to prevent deterioration in image quality due to a folded component of a signal such as moire, and the like, and An image projection apparatus can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram showing a basic configuration of a projector according to an embodiment of the invention.
FIG. 2 is a block diagram illustrating an example of a configuration of an image processor and its periphery included in a circuit unit.
FIG. 3 is a block diagram illustrating an example of a configuration inside an image processor.
FIG. 4 is a flowchart showing a procedure of an image processing method (band correction method) according to the embodiment of the present invention.
FIG. 5 is a diagram showing set points of correction coefficients.
FIG. 6 is a diagram showing luminance measurement points in a projected image on a screen.
FIG. 7 is a diagram illustrating a correction coefficient interpolation calculation method;
FIG. 8 is a block diagram illustrating a configuration example of an H filter.
FIG. 9 is a block diagram illustrating a configuration example of a V filter.
FIG. 10 is a diagram showing a modified example in which setting points are made fine.
11A is a diagram showing a projected image on a cylindrical screen during oblique projection, and FIG. 11B is a diagram showing an image image on the panel surface of the LCD.
12A is a diagram showing a projected image on a screen during oblique projection, FIG. 12B is a diagram showing an input image image, and FIG. 12C is a diagram showing an image image on the panel surface of the LCD. .
FIG. 13 is a diagram illustrating pixel conversion by a 4-tap filter.
FIG. 14 is a diagram showing a distortion-corrected image on the LCD panel in the case of projecting from the diagonally lower left toward the screen.
15A is a view showing an input image having a vertical line pattern, and FIG. 15B is a projection image when the input image shown in FIG. A is projected from the lower right toward the screen after correcting the keystone distortion. FIG. 4C is a diagram showing a projected image when projected onto the screen from the lower left in the same manner.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image projection apparatus (projector), 2 ... Circuit part, 2a ... Filter process part, 2b ... Distortion correction circuit, 2c ... Filter operation part, 2ch ... H filter, 2cv ... V filter, 2d ... Filter coefficient part, 3 ... Image display unit (LCD panel), 3a ... display image, 4 ... light projecting unit, 5 ... optical unit, 6 ... relative relationship acquisition unit, 21 ... comb filter, 22 ... chroma decoder, 23 ... select switch, 24 ... analog- Digital converter, 25 ... Image processor, 26 ... Image memory, 27 ... CPU, 101 ... Screen, 101a ... Projected image, 251 ... IP converter, 252 ... Scaler, 253 ... CPU interface, 254 ... Memory controller, 255 ... ROM, 256 ... filter operation unit, 257 ... coefficient generation unit, 258 ... address generation unit, L ... band correction coefficient, L ... measured value of luminance, alpha, beta ... projection angle

Claims (13)

画像表示部に表示する画像を生成する画像処理装置であって、
前記画像表示部に表示された画像を外部の投射面に投射するときの前記投射面に対する当該投射の角度と、画像内位置情報とにもとづいて、順次入力される画素データの通過帯域を当該画素データに対応する画像内位置ごとに変更し、フィルタ処理を行うフィルタ処理部を
有する画像処理装置。
An image processing apparatus for generating an image to be displayed on an image display unit,
Based on the projection angle with respect to the projection surface when the image displayed on the image display unit is projected onto an external projection surface and the position information in the image, the passband of the pixel data sequentially input is determined as the pixel. An image processing apparatus having a filter processing unit that changes and performs filter processing for each position in an image corresponding to data.
前記フィルタ処理部が、
投射時に前記投射面上で画像が拡がる前記画像内位置ほど狭い通過帯域となるフィルタ係数を順次出力するフィルタ係数部と、
順次入力されるフィルタ係数に応じた通過帯域で、入力される複数の画素データにフィルタ演算を施すフィルタ演算部と、
を含む請求項1に記載の画像処理装置。
The filter processing unit
A filter coefficient unit that sequentially outputs a filter coefficient having a narrower pass band as the position in the image where the image expands on the projection surface at the time of projection;
A filter operation unit that performs a filter operation on a plurality of input pixel data in a passband corresponding to sequentially input filter coefficients;
The image processing apparatus according to claim 1, comprising:
前記フィルタ係数部は、通過帯域を変更するポイントとなる画素のフィルタ係数を画像の鉛直と水平の方向それぞれで所定の画素間隔で定め、当該画素間の他の画素に対応したフィルタ係数を鉛直と水平の方向それぞれで補間演算により求める
請求項2に記載の画像処理装置。
The filter coefficient unit determines a filter coefficient of a pixel as a point for changing a pass band at predetermined pixel intervals in each of a vertical direction and a horizontal direction of an image, and sets a filter coefficient corresponding to another pixel between the pixels as a vertical. The image processing apparatus according to claim 2, wherein the image processing apparatus is obtained by interpolation calculation in each horizontal direction.
前記投射の角度と前記画像内位置情報に応じたパラメータとして前記投射面上の輝度値を用いる
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein a luminance value on the projection surface is used as a parameter corresponding to the projection angle and the position information in the image.
前記投射の角度と前記画像内位置情報に応じたパラメータの設定値と、前記投射の角度との関係を示すテーブルを有し、
前記フィルタ処理部は、前記投射の角度が設定されたときに、当該設定された投射の角度に対応した前記パラメータの設定値を前記テーブルから読み出し、読み出した前記パラメータの設定値に応じた通過帯域で前記フィルタ処理を行う
請求項1に記載の画像処理装置。
A table showing the relationship between the projection angle and the set value of the parameter according to the position information in the image, and the projection angle;
When the projection angle is set, the filter processing unit reads the parameter setting value corresponding to the set projection angle from the table, and passes the passband according to the read parameter setting value. The image processing apparatus according to claim 1, wherein the filtering process is performed.
前記フィルタ処理部は、前記投射の角度が設定されたときに、前記投射の角度と前記画像内位置情報に応じたパラメータの設定値と、前記投射の角度との関係を示す関数により前記パラメータの設定値を求め、求めた前記パラメータの設定値に応じた通過帯域で前記フィルタ処理を行う
請求項1に記載の画像処理装置。
When the projection angle is set, the filter processing unit sets the parameter according to a function indicating a relationship between the projection angle, a parameter setting value corresponding to the in-image position information, and the projection angle. The image processing apparatus according to claim 1, wherein a setting value is obtained and the filtering process is performed in a pass band corresponding to the obtained setting value of the parameter.
入力した画像に処理を施し、画像表示部に表示する画像を生成する画像処理方法であって、
前記画像表示部に表示された画像を外部の投射面に投射するときの前記投射面に対する当該投射の角度と、画像内位置情報とにもとづいて、順次入力される画素データの通過帯域を当該画素データに対応する画像内位置ごとに変更し、フィルタ処理を行うフィルタ処理ステップを
含む画像処理方法。
An image processing method for processing an input image and generating an image to be displayed on an image display unit,
Based on the projection angle with respect to the projection surface when the image displayed on the image display unit is projected onto an external projection surface and the position information in the image, the passband of the pixel data sequentially input is determined as the pixel. An image processing method including a filter processing step for performing a filter process by changing each position in an image corresponding to data.
前記フィルタ処理ステップが、
投射時に前記投射面上で画像が拡がる前記画像内位置ほど狭い通過帯域となるフィルタ係数を順次出力するステップと、
順次入力されるフィルタ係数に応じた通過帯域で、入力される複数の画素データにフィルタ演算を施すステップと、
を含む請求項7に記載の画像処理方法。
The filtering step includes
Sequentially outputting filter coefficients having a narrower pass band as the position in the image where the image expands on the projection surface during projection;
Applying a filter operation to a plurality of input pixel data in a passband corresponding to sequentially input filter coefficients;
The image processing method of Claim 7 containing these.
前記フィルタ係数を出力するステップでは、通過帯域を変更するポイントとなる画素のフィルタ係数を画像の鉛直と水平の方向それぞれで所定の画素間隔で定め、当該画素間の他の画素に対応したフィルタ係数を鉛直と水平の方向それぞれで補間演算により求める
請求項8に記載の画像処理方法。
In the step of outputting the filter coefficient, a filter coefficient of a pixel serving as a point for changing a pass band is determined at a predetermined pixel interval in each of the vertical and horizontal directions of the image, and a filter coefficient corresponding to another pixel between the pixels The image processing method according to claim 8, wherein an image is obtained by interpolation calculation in each of a vertical direction and a horizontal direction.
前記投射の角度と前記画像内位置情報に応じたパラメータとして前記投射面上の輝度値を用いる
請求項7に記載の画像処理方法。
The image processing method according to claim 7, wherein a luminance value on the projection surface is used as a parameter corresponding to the projection angle and the position information in the image.
前記投射の角度と前記画像内位置情報に応じたパラメータの設定値と、前記投射の角度との関係を示すテーブルを作成するステップと、
前記投射の角度を設定するステップと、をさらに含み、
前記フィルタ処理ステップでは、前記設定された投射の角度に対応した前記パラメータの設定値を前記テーブルから読み出し、読み出した前記パラメータの設定値に応じた通過帯域で前記フィルタ処理を行う
請求項7に記載の画像処理方法。
Creating a table indicating the relationship between the angle of projection and the setting value of the parameter according to the position information in the image, and the angle of projection;
Further comprising setting an angle of the projection,
8. The filter processing step according to claim 7, wherein the parameter setting value corresponding to the set projection angle is read from the table, and the filtering process is performed in a pass band corresponding to the read parameter setting value. Image processing method.
前記投射の角度を設定するステップをさらに含み、
前記フィルタ処理ステップでは、前記設定された投射の角度と前記画像内位置情報に応じたパラメータの設定値と、前記投射の角度との関係を示す関数により前記パラメータの設定値を求め、求めた前記パラメータの設定値に応じた通過帯域で前記フィルタ処理を行う
請求項7に記載の画像処理方法。
Further comprising setting an angle of the projection;
In the filtering step, the parameter setting value is determined by a function indicating a relationship between the set projection angle and the position information in the image according to the position information in the image, and the projection angle, The image processing method according to claim 7, wherein the filtering process is performed in a pass band corresponding to a parameter setting value.
画像表示部と、前記画像表示部に表示された表示画像を、光を利用して外部の投射面に投射する投射手段と、を有する画像投射装置であって、
前記画像表示部に表示された画像を前記投射手段によって外部の投射面に投射するときの前記投射面に対する当該投射の角度と、画像内位置情報とにもとづいて、順次入力される画素データの通過帯域を当該画素データに対応する画像内位置ごとに変更し、フィルタ処理を行うフィルタ処理部を
有する画像投射装置。
An image projection apparatus comprising: an image display unit; and a projection unit that projects a display image displayed on the image display unit onto an external projection surface using light,
Passing of pixel data that is sequentially input based on the angle of the projection with respect to the projection surface and the position information in the image when the image displayed on the image display unit is projected onto an external projection surface by the projection means An image projection apparatus including a filter processing unit that changes a band for each position in an image corresponding to the pixel data and performs filter processing.
JP2003175269A 2003-06-19 2003-06-19 Image processing apparatus, image processing method, and image projector Pending JP2005012561A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003175269A JP2005012561A (en) 2003-06-19 2003-06-19 Image processing apparatus, image processing method, and image projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003175269A JP2005012561A (en) 2003-06-19 2003-06-19 Image processing apparatus, image processing method, and image projector

Publications (1)

Publication Number Publication Date
JP2005012561A true JP2005012561A (en) 2005-01-13

Family

ID=34098520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003175269A Pending JP2005012561A (en) 2003-06-19 2003-06-19 Image processing apparatus, image processing method, and image projector

Country Status (1)

Country Link
JP (1) JP2005012561A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112006003735T5 (en) 2006-02-10 2009-04-09 Sharp K.K. Image projection method and projector
JP2009239638A (en) * 2008-03-27 2009-10-15 Seiko Epson Corp Method for correcting distortion of image projected by projector, and projector
JP2010026870A (en) * 2008-07-22 2010-02-04 Seiko Epson Corp Image processing apparatus, image display apparatus and image data generating method
JP2010039160A (en) * 2008-08-05 2010-02-18 Seiko Epson Corp Image processing device, image display, image processing method, image display method and program
JP2010252290A (en) * 2009-03-26 2010-11-04 Mitsubishi Electric Corp Image processing apparatus, image processing method and image display apparatus
JP2011199712A (en) * 2010-03-23 2011-10-06 Seiko Epson Corp Video processor and video display device
JP2012238171A (en) * 2011-05-11 2012-12-06 Canon Inc Image processing device, image processing method and program
WO2018011017A1 (en) 2016-07-11 2018-01-18 Bayer Pharma Aktiengesellschaft 7-substituted 1-pyridyl-naphthyridine-3-carboxylic acid amides and use thereof
EP3296298A1 (en) 2016-09-14 2018-03-21 Bayer Pharma Aktiengesellschaft 7-substituted 1-aryl-naphthyridin-3-carboxamides and their use
WO2018050510A1 (en) 2016-09-14 2018-03-22 Bayer Aktiengesellschaft 7-substituted 1-aryl-naphthyridine-3-carboxylic acid amides and use thereof
US10435403B2 (en) 2015-06-09 2019-10-08 Bayer Pharma Aktiengesellschaft Positive allosteric modulators of muscarinic M2 receptor

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112006003735T5 (en) 2006-02-10 2009-04-09 Sharp K.K. Image projection method and projector
DE112006003735B4 (en) * 2006-02-10 2020-03-26 Sharp K.K. Image projection method and projector
JP2009239638A (en) * 2008-03-27 2009-10-15 Seiko Epson Corp Method for correcting distortion of image projected by projector, and projector
JP2010026870A (en) * 2008-07-22 2010-02-04 Seiko Epson Corp Image processing apparatus, image display apparatus and image data generating method
US8577178B2 (en) 2008-07-22 2013-11-05 Seiko Epson Corporation Image processing device, image display device, and image data producing method
JP2010039160A (en) * 2008-08-05 2010-02-18 Seiko Epson Corp Image processing device, image display, image processing method, image display method and program
JP2010252290A (en) * 2009-03-26 2010-11-04 Mitsubishi Electric Corp Image processing apparatus, image processing method and image display apparatus
JP2011199712A (en) * 2010-03-23 2011-10-06 Seiko Epson Corp Video processor and video display device
JP2012238171A (en) * 2011-05-11 2012-12-06 Canon Inc Image processing device, image processing method and program
US10435403B2 (en) 2015-06-09 2019-10-08 Bayer Pharma Aktiengesellschaft Positive allosteric modulators of muscarinic M2 receptor
WO2018011017A1 (en) 2016-07-11 2018-01-18 Bayer Pharma Aktiengesellschaft 7-substituted 1-pyridyl-naphthyridine-3-carboxylic acid amides and use thereof
US10519154B2 (en) 2016-07-11 2019-12-31 Bayer Pharma Aktiengesellschaft 7-substituted 1-pyridyl-naphthyridine-3-carboxylic acid amides and use thereof
WO2018050510A1 (en) 2016-09-14 2018-03-22 Bayer Aktiengesellschaft 7-substituted 1-aryl-naphthyridine-3-carboxylic acid amides and use thereof
EP3296298A1 (en) 2016-09-14 2018-03-21 Bayer Pharma Aktiengesellschaft 7-substituted 1-aryl-naphthyridin-3-carboxamides and their use
US10927109B2 (en) 2016-09-14 2021-02-23 Bayer Aktiengesellschaft 7-substituted 1-aryl-naphthyridine-3-carboxylic acid amides and use thereof
US11472803B2 (en) 2016-09-14 2022-10-18 Bayer Aktiengesellschaft 7-substituted 1-aryl-naphthyridine-3-carboxylic acid amides and use thereof

Similar Documents

Publication Publication Date Title
US7529424B2 (en) Correction of optical distortion by image processing
US20050162620A1 (en) Image processing apparatus
JP5113971B2 (en) Processing technique and apparatus for superimposing images for projection
US7957611B2 (en) Image scaler with controllable sharpness
US8320703B2 (en) Image processing method and apparatus
JP2007143173A (en) Method and apparatus for preventing keystone distortion
JP5257108B2 (en) Projector, projection system, image display method, and image display program
KR102172965B1 (en) An image processing method and an image processing apparatus that executes the image processing method
JP5925579B2 (en) Semiconductor device, electronic device, and image processing method
JP2019185817A (en) Image processing device, image processing method, and computer program
JP4649171B2 (en) Magnification Chromatic Aberration Correction Device, Magnification Chromatic Aberration Correction Method, and Magnification Chromatic Aberration Correction Program
JP2004349979A (en) Image processing apparatus, image processing method, and image projector
JP2005012561A (en) Image processing apparatus, image processing method, and image projector
JP2009027604A (en) Noise reducer, and noise reducing method
JP4518392B2 (en) Method and apparatus for converting color images
JP5116740B2 (en) Image processing apparatus, image processing method, and image display apparatus
JP2011035514A (en) Image processing device and method, and program
US10068314B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP5455728B2 (en) Imaging apparatus, image processing apparatus, and image processing method
US9401010B2 (en) Enhancing perceived sharpness of images
JP2003069859A (en) Moving image processing adapting to motion
JP7183015B2 (en) Image processing device, image processing method, and program
JP4689243B2 (en) Image processing apparatus, image processing method, and digital camera
JP2009027608A (en) Noise reducer, and noise reducing method
JP2012129747A (en) Image projection apparatus, method for controlling the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090324