JP2013187764A - Image processing device, image processing method and projector - Google Patents
Image processing device, image processing method and projector Download PDFInfo
- Publication number
- JP2013187764A JP2013187764A JP2012051925A JP2012051925A JP2013187764A JP 2013187764 A JP2013187764 A JP 2013187764A JP 2012051925 A JP2012051925 A JP 2012051925A JP 2012051925 A JP2012051925 A JP 2012051925A JP 2013187764 A JP2013187764 A JP 2013187764A
- Authority
- JP
- Japan
- Prior art keywords
- straight line
- pattern
- image
- screen frame
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、およびプロジェクターに関する。 The present invention relates to an image processing apparatus, an image processing method, and a projector.
プロジェクターを用いてスクリーンに画像を表示させる場合に、プロジェクターとスクリーンとの相対的な位置関係によって、スクリーンに表示された画像(以下「表示画像」という)に台形状に歪みが生ずる場合がある。このような問題に関し、例えば特許文献1にはプロジェクターの備える撮像装置によりスクリーンを撮像し、撮像画像からスクリーン枠を検出し、検出したスクリーン枠の形状に基づいて台形状の歪みを補正する技術が記載されている。 When an image is displayed on a screen using a projector, an image displayed on the screen (hereinafter referred to as a “display image”) may be distorted in a trapezoidal shape depending on the relative positional relationship between the projector and the screen. Regarding such a problem, for example, Patent Document 1 discloses a technique in which a screen is imaged by an imaging device provided in a projector, a screen frame is detected from the captured image, and a trapezoidal distortion is corrected based on the detected shape of the screen frame. Have been described.
しかし、特許文献1の技術では、スクリーン枠を上下、左右それぞれの枠辺ごとに1本ずつ、合計4本の直線として検出している。一般的に、プロジェクターの備える撮像用のカメラレンズには歪みが存在するため、スクリーン枠を4本の直線として正確に検出することは困難であった。 However, in the technique of Patent Document 1, the screen frame is detected as a total of four straight lines, one for each of the upper and lower and left and right frame sides. In general, since there is distortion in an imaging camera lens provided in a projector, it is difficult to accurately detect a screen frame as four straight lines.
前述の問題を考慮し、本発明が解決しようとする課題は、スクリーン枠をより正確に検出して、台形歪み補正を行う技術を提供することである。 In view of the above-described problems, the problem to be solved by the present invention is to provide a technique for more accurately detecting a screen frame and correcting keystone distortion.
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[適用例1]画像処理装置であって、光変調装置を有する投写部から被投写面に投写された所定の形状を有するパターンが撮像されたパターン画像に基づいて前記パターンを検出するパターン検出部と、前記被投写面の枠の少なくとも一部が撮像された枠の画像に基づいて、前記被投写面の隅ごとに交差する関係にある2本の直線をそれぞれ検出する直線検出部と、前記光変調装置における前記パターンの座標と、前記パターン画像から検出された前記パターンの座標とに基づいて、撮像された画像における座標を前記光変調装置における座標に変換するための座標変換係数を算出する座標変換係数算出部と、前記隅ごとに前記検出された2本の直線と前記座標変換係数とに基づいて前記枠の頂点を求め、該頂点に基づき台形歪み補正を行うための補正値を算出する補正値算出部と、を備える、画像処理装置。 Application Example 1 An image processing apparatus that detects a pattern based on a pattern image in which a pattern having a predetermined shape projected on a projection surface is projected from a projection unit having a light modulation device. And a straight line detection unit that detects two straight lines that intersect each corner of the projection surface based on an image of a frame in which at least a part of the frame of the projection surface is captured, Based on the coordinates of the pattern in the light modulation device and the coordinates of the pattern detected from the pattern image, a coordinate conversion coefficient for converting the coordinates in the captured image into the coordinates in the light modulation device is calculated. A vertex of the frame is obtained based on the coordinate transformation coefficient calculation unit, the two detected straight lines for each corner and the coordinate transformation coefficient, and trapezoidal distortion correction is performed based on the vertex. And a correction value calculation unit for calculating a correction value of the fit, the image processing apparatus.
このような構成であれば、被投写面の隅ごとに交差する関係にある2本の直線をそれぞれ検出するので、撮像された画像において、カメラの備えるレンズ歪みの影響を受けやすい被投写面の隅部分の直線を、より正確に検出することができる。そのため、このような直線と座標変換係数とに基づいて補正値を算出して、より正確に台形歪み補正を行うことができる。 With such a configuration, two straight lines that intersect each other at each corner of the projection surface are detected, so that in the captured image, the projection surface that is susceptible to the lens distortion of the camera is detected. The straight line at the corner can be detected more accurately. Therefore, the correction value can be calculated based on such a straight line and the coordinate conversion coefficient, and the trapezoidal distortion correction can be performed more accurately.
[適用例2]適用例1記載の画像処理装置であって、前記パターンは前記光変調装置の隅ごとに位置し、前記座標変換係数算出部は、前記被投写面の隅ごとにそれぞれ前記座標変換係数を算出し、前記補正値算出部は、検出された前記被投写面の隅ごとに交差する関係にある2本の直線と、該隅に対応する前記座標変換係数とに基づいて、前記頂点を求める、画像処理装置。 Application Example 2 In the image processing apparatus according to Application Example 1, the pattern is positioned at each corner of the light modulation device, and the coordinate conversion coefficient calculation unit is configured to output the coordinates at each corner of the projection surface. The conversion value is calculated, and the correction value calculation unit is based on the detected two straight lines that intersect each corner of the projection surface and the coordinate conversion coefficient corresponding to the corner. An image processing apparatus for obtaining a vertex.
このような構成であれば、被投写面の隅ごとに座標変換係数を算出するので、カメラの備えるレンズの歪みと投写レンズの歪みとの影響を最小限に抑え、カメラの備えるレンズの歪みの影響を受けやすい被投写面の隅部分の直線を正確に検出して、その直線の光変調装置における交点を算出して頂点を求めることができる。したがって、より正確に台形歪み補正を行うことができる。 In such a configuration, since the coordinate conversion coefficient is calculated for each corner of the projection surface, the influence of the lens distortion of the camera and the distortion of the projection lens is minimized, and the distortion of the lens of the camera is reduced. It is possible to accurately detect the straight line at the corner of the projection surface that is easily affected, and calculate the intersection of the straight line in the light modulation device to obtain the vertex. Therefore, the trapezoidal distortion correction can be performed more accurately.
[適用例3]適用例1または適用例2に記載の画像処理装置であって、前記直線検出部は、前記被投写面の1つの枠辺上にある2本の直線のうち1の直線が検出されない場合には、他の1の直線に基づいて前記検出されない直線を推定する、画像処理装置。 [Application Example 3] In the image processing apparatus according to Application Example 1 or Application Example 2, the straight line detection unit is configured so that one of the two straight lines on one frame side of the projection surface has one straight line. When not detected, the image processing apparatus estimates the undetected straight line based on another straight line.
このような構成であれば、被投写面の隅ごとに2本ずつ直線を検出するので、被投写面の枠の一辺に対して2本ずつ直線が検出されることになる。そのため、検出されない直線を、被投写面の1つの枠辺上にあると推定される他の直線で補完をすることができる。よって、検出されない直線が存在しても、台形歪み補正を行うことができる。 With such a configuration, two straight lines are detected for each corner of the projection surface, so that two straight lines are detected for one side of the frame of the projection surface. For this reason, a straight line that is not detected can be supplemented with another straight line that is estimated to be on one frame side of the projection surface. Therefore, trapezoidal distortion correction can be performed even if a straight line that is not detected exists.
[適用例4]適用例1から適用例3までのいずれか一の適用例記載の画像処理装置であって、前記直線検出部は、前記被投写面の1つの枠辺上にあると推定される検出された2本の直線の位置の関係および傾きの関係の少なくとも一方の関係が所定の関係を満たさない場合には、検出された2本のうちの一方の直線を破棄し、他方の直線に基づいて一方の直線を推定する、画像処理装置。 [Application Example 4] The image processing apparatus according to any one of Application Examples 1 to 3, wherein the straight line detection unit is estimated to be on one frame side of the projection surface. If at least one of the relationship between the positions of two detected straight lines and the relationship of the inclination does not satisfy a predetermined relationship, one of the two detected straight lines is discarded and the other straight line is discarded. An image processing apparatus that estimates one straight line based on the above.
このような構成であれば、1つの被投写面の枠辺上にあると推定される2本の直線の位置の関係および傾きの関係に基づいて、誤検出された直線を判別することができる。したがって、誤検出された直線が存在しても、その直線を破棄して他の直線で補完することができるので、被投写面の枠辺ごとに2本の直線が算出される場合と同様に、台形歪み補正を行うことができる。 With such a configuration, an erroneously detected straight line can be determined based on the relationship between the positions of two straight lines estimated to be on the frame side of one projection surface and the relationship between the inclinations. . Therefore, even if an erroneously detected straight line exists, the straight line can be discarded and complemented with another straight line, so that two straight lines are calculated for each frame side of the projection surface. , Trapezoidal distortion correction can be performed.
[適用例5]適用例4記載の画像処理装置であって、前記直線検出部は、前記位置の関係が前記所定の関係を満たさない場合には、前記検出された2本の直線のうち前記パターンとの距離が遠い直線を破棄し、前記パターンとの距離が近い直線に基づいて前記一方の直線を推定する、画像処理装置。 Application Example 5 In the image processing apparatus according to Application Example 4, in the case where the positional relationship does not satisfy the predetermined relationship, the straight line detection unit includes the detected straight line out of the two detected straight lines. An image processing apparatus that discards a straight line that is far from a pattern and estimates the one straight line based on a straight line that is close to the pattern.
このような構成であれば、位置の関係が所定の関係を満たさない場合には、パターンとの距離が遠い直線を誤検出された直線と判別して破棄し、パターンとの距離がより近い直線で補完することができる。よって、より正確に台形歪み補正を行うことができる。 With such a configuration, when the positional relationship does not satisfy the predetermined relationship, a straight line that is far from the pattern is determined to be a falsely detected straight line and discarded, and a straight line that is closer to the pattern It can be complemented with. Therefore, the trapezoidal distortion correction can be performed more accurately.
[適用例6]適用例4または適用例5に記載の画像処理装置であって、前記直線検出部は、前記傾きの関係が所定の関係を満たさない場合には、前記検出された2本の直線のうち前記検出された2本の直線が存在すると推定される枠辺との傾きがより異なる直線を破棄し、前記枠辺との傾きがより近い直線に基づいて前記一方の直線を推定する、画像処理装置。 [Application Example 6] In the image processing apparatus according to Application Example 4 or Application Example 5, the straight line detection unit may detect the two detected lines when the relationship between the tilts does not satisfy a predetermined relationship. Of the straight lines, the straight line having a different inclination from the frame side estimated to have the two detected straight lines is discarded, and the one straight line is estimated based on the straight line having a closer inclination to the frame side. , Image processing device.
このような構成であれば、傾きの関係が所定の関係を満たさない場合には、枠辺との傾きがより異なる直線を誤検出された直線と判別して破棄し、枠辺との傾きがより近い直線で補完することができる。よって、より正確に台形歪み補正を行うことができる。 With such a configuration, when the relationship between the inclinations does not satisfy the predetermined relationship, a straight line with a different inclination from the frame side is determined to be a falsely detected straight line and discarded. It can be complemented with a closer straight line. Therefore, the trapezoidal distortion correction can be performed more accurately.
[適用例7]適用例1から適用例6までのいずれか一の適用例記載の画像処理装置であって、前記補正値算出部は、前記直線検出部が前記隅ごとに前記検出された2本の直線を前記光変調装置における座標に変換した後に、前記枠の頂点を求める、画像処理装置。 [Application Example 7] The image processing apparatus according to any one of Application Examples 1 to 6, wherein the correction value calculation unit is configured such that the straight line detection unit is detected for each corner 2 An image processing apparatus for obtaining a vertex of the frame after converting a straight line of a book into coordinates in the light modulation device.
このような構成であれば、隅ごとに検出された2本の直線を、光変調装置における座標に変換した後に、2本の直線の交点を算出して枠の頂点を求めるため、スクリーンの形状を精度良く検出することができる。よって、より精度良く台形歪み補正を行うことができる。 With such a configuration, the two straight lines detected at each corner are converted into coordinates in the light modulation device, and then the intersection of the two straight lines is calculated to obtain the vertex of the frame. Can be detected with high accuracy. Therefore, the trapezoidal distortion correction can be performed with higher accuracy.
本発明は、上述した画像処理装置としての構成のほか、画像処理方法や、画像処理装置を備えるプロジェクター、コンピュータープログラムとしても構成することができる。かかるコンピュータープログラムは、コンピューターが読取可能な記録媒体に記録されていてもよい。記録媒体としては、例えば、フレキシブルディスクやCD−ROM、DVD−ROM、光磁気ディスク、メモリーカード、ハードディスク等の種々の媒体を利用することができる。 In addition to the configuration as the image processing apparatus described above, the present invention can also be configured as an image processing method, a projector including the image processing apparatus, and a computer program. Such a computer program may be recorded on a computer-readable recording medium. As the recording medium, various media such as a flexible disk, a CD-ROM, a DVD-ROM, a magneto-optical disk, a memory card, and a hard disk can be used.
A.プロジェクターの構成:
図1は、本発明の画像処理装置の実施形態としてのプロジェクター10のハードウェア構成を示す説明図である。プロジェクター10は、画像を表す画像光を投写して、スクリーン30などの被投写面上に画像を表示させる。
A. Projector configuration:
FIG. 1 is an explanatory diagram showing a hardware configuration of a
プロジェクター10は、A/D(アナログ/デジタル)変換部110と、画像処理回路120と、液晶パネル130と、液晶パネル駆動部132と、照明光学系140と、投写レンズ152を有する投写光学系150と、レンズ駆動部154と、CPU160と、RAM175と、測定用パターン記憶部171を有するROM170と、リモコン制御部180と、リモコン181と、撮像部190と、振動検知部129と、を備えている。プロジェクター10の各構成要素は、バス102を介して互いに接続されている。
The
A/D変換部110は、図示しないDVDプレーヤーやPC(パーソナルコンピューター)などの画像供給装置からケーブル200を介して入力された入力画像信号に対して、A/D変換を行い、デジタル画像信号を出力する。
The A /
画像処理回路120は、画像処理を実行する種々の機能部を備えている。画像処理回路120は、A/D変換部110から出力されたデジタル画像信号(以下、「入力画像」という)に対して、スクリーン枠補正処理や画像の表示状態(例えば、輝度、コントラスト、同期、トラッキング、色の濃さ、色合い等)の調整などを行い、液晶パネル駆動部132へと出力する。スクリーン枠補正処理および画像処理回路120の機能部については後述する。
The
液晶パネル駆動部132は、画像処理回路120を介して入力されたデジタル画像信号に基づいて、液晶パネル130を駆動する。
The liquid crystal
照明光学系140は、光を射出する光源、及び光源から射出された光の照度分布を均一化する均一化光学系等を含む。照明光学系140から射出された光は、液晶パネル130に入射する。
The illumination
液晶パネル130は、照明光学系140から射出された光を画像データに基づいて変調する光変調装置である。液晶パネル130は、照明光学系140から照射された照明光を、画像を表す有効な画像光へと変調するための画像(以下「パネル画像」ともいう)を、液晶パネル130に形成する。
The
投写光学系150は、プロジェクター10の筐体の前面に取り付けられており、液晶パネル130によって画像光へと変調された光を拡大して投写する。レンズ駆動部154は、投写光学系150が備える投写レンズ152を駆動して、スクリーン30上に表示させる表示画像の大きさを変化させる。液晶パネル130、照明光学系140及び投写光学系150は、画像を投写する投写部を構成する。
The projection
リモコン制御部180は、ユーザーからのリモコン181による指示を受信し、バス102を介してその指示をCPU160に伝える。なお、本実施形態では、プロジェクター10は、ユーザーからの指示を、リモコン181およびリモコン制御部180を通じて受け取るものとしているが、ユーザーからの指示を例えば操作パネルなどの他の構成を通じて受け取ることとしてもよい。
The remote
撮像部190は、CCDカメラを備えており、種々の画像を撮像して取得する。以下、撮像部190により撮像された画像を、「撮像画像」ともいう。撮像画像のうち、スクリーン30の枠(以降、「スクリーン枠SCF」ともいう)の少なくとも一部が撮像されたものを「枠画像」と、スクリーン30に投写された測定用パターン(詳細は後述)が撮像されたものを「パターン画像」ともいう。撮像部190により取得された撮像画像は、RAM175内に格納される。なお、撮像部190は、CCDカメラに代えて他の撮像可能なデバイスを備えていてもよい。
The
振動検知部129は、プロジェクター10の動きや静止を監視する。振動検知部129は、本実施形態ではジャイロセンサー(図示せず)を備えており、このジャイロセンサーによりプロジェクター10の動きを検知する。
The
CPU160は、リモコン制御部180からの指示や振動検知部129による検知結果に応じて、画像処理回路120に、スクリーン枠補正処理を実行させる。このスクリーン枠補正処理については後述する。
The
B.画像処理回路の構成:
図2は、図1に示した画像処理回路120の具体的な構成を示すブロック図である。図示するように、画像処理回路120は、パターン出力部121と、パターン検出部122と、直線検出部123と、座標変換部124と、補正値算出部125と、歪み補正部126と、を備えている。
B. Image processing circuit configuration:
FIG. 2 is a block diagram showing a specific configuration of the
パターン検出部122は、撮像部190により撮像されたパターン画像に基づいて、後述するスクリーン枠補正処理を行うための測定点を検出する。測定点については後述する。
The
直線検出部123は、撮像部190により撮像された枠画像に基づいて、交差する関係にある2本の直線を、スクリーン30の隅ごとに検出する。そのため直線検出部123は、4つの隅を有するスクリーン30に対して、合計で8本の直線を検出する。
The straight
座標変換部124は、液晶パネル130における測定用パターンの測定点の座標値と、パターン検出部122により検出された撮像画像における測定点の座標値と、に基づいて、座標変換係数を算出する。なお、以降の説明では、液晶パネル130における座標系を「パネル座標」と、撮像画像における座標系を「カメラ座標」ともいう。座標変換係数は、カメラ座標値をパネル座標値へと変換するための係数である。
The coordinate
補正値算出部125は、座標変換部124により算出された座標変換係数と、直線検出部123により検出された直線と、に基づいて、台形歪み補正を行うための補正値を算出する。
The correction
歪み補正部126は、補正値算出部125によって算出された補正値を用いて、A/D変換部110から取得した入力画像に対して、台形歪み補正を行う。
The
パターン出力部121は、後述するスクリーン枠補正時に、入力画像や、台形歪み補正がされた入力画像に対して測定パターンを重畳させる。
The
C.初期スクリーン枠補正処理:
図3は、プロジェクター10による初期スクリーン枠補正処理の流れを示すフローチャートである。スクリーン枠補正処理は、表示画像の外周の各辺がスクリーン枠に一致するように、入力画像に対して台形歪み補正を行う一連の処理である。初期スクリーン枠補正処理は、例えば、プロジェクター10の設置後に、ユーザーからのリモコン181を通じた指示に応じて実行される。なお、初期スクリーン枠補正処理は、例えば電源オンや画像信号の入力などに応じて自動的に実行されるものとしてもよい。
C. Initial screen frame correction processing:
FIG. 3 is a flowchart showing a flow of initial screen frame correction processing by the
初期スクリーン枠補正処理が開始されると、パターン出力部121は、測定用パターンをスクリーン30に投写する(ステップS110)。具体的には、パターン出力部121が、ROM170の測定用パターン記憶部171に格納されている測定用パターンを表す画像データを読み出して、入力画像に重畳させ、液晶パネル駆動部132へと出力することで、測定用パターンが投写される。この測定用パターンはパネル座標値で表されている。測定用パターンの有する測定点のパネル座標値は、パターン出力部121により取得される。
When the initial screen frame correction process is started, the
図4は、液晶パネル130に形成される測定用パターンPT1の一例を示す図である。図4に示す測定用パターンPT1は、4点の白色円状の測定点とその周囲の略正方形の黒領域とで形成されるパターン領域A、B、C、D、を含んでいる。パターン領域Aは液晶パネル130内の左上隅近傍に、パターン領域Bは液晶パネル130の右上隅近傍に、パターン領域Cは液晶パネル130の右下隅近傍に、パターン領域Dは液晶パネル130の左下隅近傍にそれぞれ位置している。測定用パターンPT1の外枠(測定用パターン枠PF)は、液晶パネル130の画像形成枠と、一致している。図4に斜線で示した領域は、ケーブル200からA/D変換部110を介して液晶パネル駆動部132へ送信された入力画像が形成される領域である。
FIG. 4 is a diagram showing an example of the measurement pattern PT1 formed on the
図5は、スクリーン30に対して投写された測定用パターンPT1の表示画像の一例を示す図である。本実施形態では、投写レンズ152がスクリーン30に対して正対していない。そのため、測定用パターンPT1の表示画像は図5に示すように台形形状を示している。測定用パターンPT1の表示画像において、パターン領域Aの有する測定点はスクリーン30の左上隅近傍に、パターン領域Bの有する測定点はスクリーン30の右上隅近傍に、パターン領域Cの有する測定点はスクリーン30の右下隅近傍に、パターン領域Dの有する測定点はスクリーン30の左下隅近傍にそれぞれ位置している。
FIG. 5 is a diagram showing an example of a display image of the measurement pattern PT1 projected on the
次に、撮像部190は測定用パターンPT1の表示画像の撮像を行い、パターン検出部122はその撮像画像(パターン画像)を公知の方法により画像解析して、カメラ座標における測定点を検出する(ステップS120)。図6は、測定用パターンPT1の撮像画像の一例を示す図である。図6に示した例では、撮像画像には、スクリーン枠SCFよりも外側に測定用パターン枠PFを有する表示画像の全体が、撮像部190のCCDカメラのフレーム(カメラ枠CF)内に写し出されている。この撮像画像を解析することにより、それぞれのパターン領域の4つの測定点に対応するカメラ座標値が取得される。
Next, the
それぞれのパターン領域の測定点に対応するパネル座標値とカメラ座標値が取得されると、座標変換部124は、各パターン領域について、それぞれ座標変換係数を算出する(ステップS130)。具体的には、座標変換部124は、パターン領域Aの測定点のパネル座標値とカメラ座標値を用いて、座標変換係数Aを算出する。座標変換部124は同様に、パターン領域Bの測定点のパネル座標値とカメラ座標値を用いて座標変換係数Bを、パターン領域Cの測定点のパネル座標値とカメラ座標値を用いて座標変換係数Cを、パターン領域Dの測定点のパネル座標値とカメラ座標値を用いて座標変換係数Dを、それぞれ算出する。本実施形態では、4つの測定点に基づいて、座標変換係数として射影変換係数を求める。算出された座標変換係数A〜Dの情報は、RAM175に格納される。
When the panel coordinate values and camera coordinate values corresponding to the measurement points of each pattern area are acquired, the coordinate
次に、パターン出力部121は、枠画像を取得するために、スクリーン枠SCF撮像用の黒画像をスクリーン30に投写する(ステップS140)。具体的には、パターン出力部121が、黒画像データを液晶パネル駆動部132へと出力する。液晶パネル駆動部132は、出力された画像データに基づいて、液晶パネル130に黒画像を形成する。本実施形態において使用される黒画像データが液晶パネル130に形成されると、液晶パネル130の画像形成領域全面が黒領域となる。こうすることで、全面黒画像が、投写光学系150を介してスクリーン30に表示される。
Next, the
黒画像を投写すると、撮像部190は投写された黒画像の撮像を行い、枠画像を取得する。直線検出部123は、枠画像からスクリーン枠上の直線を一辺につき2本ずつ、合計8本検出する(ステップS150)。
When a black image is projected, the
図7は、枠画像から直線を検出する方法の一例を説明するための図である。以降スクリーン枠SCFに対応する直線を、「スクリーン枠直線」という。図7には、取得した枠画像のうち、スクリーン枠SCFに対応する部分を黒枠で示している。なお、図7に示した円状の測定点はステップS120で検出されたものであり、枠画像に含まれているものではない。図7に示した測定点は、スクリーン枠直線の検出の説明のために枠画像と合わせて示したものである。なお、以降に示す図についても同様に円状の測定点を示している。 FIG. 7 is a diagram for explaining an example of a method for detecting a straight line from a frame image. Hereinafter, a straight line corresponding to the screen frame SCF is referred to as a “screen frame straight line”. In FIG. 7, a portion corresponding to the screen frame SCF in the acquired frame image is indicated by a black frame. Note that the circular measurement points shown in FIG. 7 are those detected in step S120 and are not included in the frame image. The measurement points shown in FIG. 7 are shown together with the frame image for the description of the detection of the screen frame straight line. In the following figures, circular measurement points are also shown.
スクリーン枠直線の検出は、具体的には以下のように行う。例えば、スクリーン枠下側の2本の直線を検出するには、まず、ステップS120で検出した右下隅の測定点C3と左下隅の測定点D4とを結んで線分C3D4を作製し、その線分C3D4を3等分する。そして、測定点C3と測定点D4から、それぞれ線分C3D4の3分の1内側の線分を始点として、下側に向けて、微分フィルターやラプラシアンフィルターといった輪郭抽出フィルターをかけることにより、エッジ検出を行う(図7(A))。直線検出部123は、検出されたエッジの範囲内において、例えば最小二乗法やハフ変換などを用いて、スクリーン枠直線LD1およびLC1を検出する(図7(B))。直線検出部123は、同様に測定点D4とA1、測定点A1とB2、測定点B2とC3のそれぞれ結んで線分を作製し、1辺のスクリーン枠に対して2本のスクリーン枠直線を検出する。このようにして、直線検出部123は、合計8本のスクリーン枠直線を検出する。
Specifically, the screen frame straight line is detected as follows. For example, in order to detect two straight lines on the lower side of the screen frame, first, a line segment C3D4 is formed by connecting the measurement point C3 in the lower right corner and the measurement point D4 in the lower left corner detected in step S120. Divide C3D4 into three equal parts. Then, edge detection is performed by applying a contour extraction filter such as a differential filter or a Laplacian filter from the measurement point C3 and the measurement point D4, starting from a line segment inside one third of the line segment C3D4 and starting downward. (FIG. 7A). The straight
直線検出部123が8本のスクリーン枠直線を検出すると、座標変換部124は、カメラ座標における8本のスクリーン枠直線を、ステップS130で算出された座標変換係数を用いて、パネル座標におけるスクリーン枠直線へと変換する(ステップS160)。図8は、スクリーン枠直線をカメラ座標からパネル座標へと変換する方法について説明するための図である。図8(A)には、ステップS150において検出されたカメラ座標におけるスクリーン枠直線LA1、LA2、LB1、LB2、LC1、LC2、LD1、LD2を示している。座標変換部124は、カメラ座標におけるスクリーン枠直線LA1、LA2を、ステップS130において算出した座標変換係数Aを用いて射影変換を行うことで、パネル座標におけるスクリーン枠直線LA1i、LA2iへと変換する。座標変換部124は、同様に座標変換係数Bを用いてスクリーン枠直線LB1、LB2を、座標変換係数Cを用いてスクリーン枠直線LC1、LC2を、座標変換係数Dを用いてスクリーン枠直線LD1、LD2を、パネル座標におけるスクリーン枠直線へとそれぞれ変換する。こうすることで、それぞれのスクリーン枠直線に、より近接する4つの測定点によって算出された座標変換係数を用いて、スクリーン枠直線がカメラ座標からパネル座標へと変換される。
When the straight
カメラ座標におけるスクリーン枠直線がパネル座標におけるスクリーン枠直線へと変換されると、補正値算出部125は、台形歪み補正を行うための補正値を算出する(ステップS170)。
When the screen frame straight line in the camera coordinates is converted into the screen frame straight line in the panel coordinates, the correction
図9は、補正値を算出する方法を説明するための図である。まず、補正値を算出するためには、図9に示すようにスクリーン枠直線LA1iとLA2iとの交点Vを求めることで、パネル座標におけるスクリーン枠の頂点を求める。同様に、スクリーン枠直線LB1iとLB2との交点、スクリーン枠直線LC1iとLC2iとの交点、スクリーン枠直線LD1iとLD2iとの交点を求めることで、パネル座標におけるスクリーン枠の頂点をそれぞれ求める。そして、求めた頂点の座標から、周知の方法(射影変換)により入力画像に台形歪み補正をするための補正値(例えば射影変換係数)を算出する。算出された補正値は、RAM175に格納される。
FIG. 9 is a diagram for explaining a method of calculating a correction value. First, in order to calculate the correction value, the vertex of the screen frame in the panel coordinates is obtained by obtaining the intersection V of the screen frame straight lines LA1i and LA2i as shown in FIG. Similarly, the vertex of the screen frame in the panel coordinates is obtained by obtaining the intersection of the screen frame straight lines LB1i and LB2, the intersection of the screen frame straight lines LC1i and LC2i, and the intersection of the screen frame straight lines LD1i and LD2i. Then, a correction value (for example, a projective transformation coefficient) for correcting the trapezoidal distortion of the input image is calculated from the obtained vertex coordinates by a known method (projective transformation). The calculated correction value is stored in the
補正値が算出されると、歪み補正部126は、算出された補正値を用いて、入力画像に台形歪み補正を行う(ステップS180)。補正値の算出および台形歪み補正は、公知の方法(例えば特開2011−176705号公報に記載の方法)を用いて実行可能である。液晶パネル駆動部132は、入力された画像データに基づいて、液晶パネル130に台形歪み補正を行った入力画像を形成する。これによって、台形歪み補正が行われた画像が、投写光学系150を介してスクリーン30に表示される。
When the correction value is calculated, the
一般的に、CCDカメラで撮像した撮像画像に含まれる直線は、CCDカメラの備えるレンズの歪みの影響により、緩やかにカーブして写ることがある。そのため、スクリーン枠SCFの各辺をそれぞれ一本の直線として正確に検出することは難しい。しかし、以上で説明した、本実施形態のプロジェクター10によれば、スクリーン枠SCFを、スクリーン30の隅ごとに2本ずつ、合計8本の直線として検出する。そのため撮像画像において、CCDカメラの備えるレンズ歪みの影響を受けて湾曲しやすいスクリーン30の隅部分の直線を、より正確に検出することができる。したがって、このような直線をパネル座標に変換することで、スクリーン30の形状を精度良く検出することができる。
In general, a straight line included in a captured image captured by a CCD camera may be gently curved due to the influence of lens distortion of the CCD camera. Therefore, it is difficult to accurately detect each side of the screen frame SCF as one straight line. However, according to the
また、8本のスクリーン枠直線は、スクリーン30の隅近傍に投写された測定点の撮像画像(パターン画像)で作製される線分から、スクリーン枠方向にエッジ検出を行うことで検出できる。そのため、投写した黒画像全体に対してエッジ検出を行う場合に比べて、短時間で8本の直線を検出することができる。さらに、本実施形態では、スクリーン30の隅ごとに座標変換係数を算出する。そのため、測定用パターンPT1を投写した投写レンズ152の歪みと、CCDカメラの備えるレンズの歪みの影響を受けやすいスクリーン30の隅と液晶パネル130の隅の座標の変換を、より正確に行うことができる。この結果、精度良く台形歪み補正を行うことができる。
Further, the eight screen frame straight lines can be detected by performing edge detection in the screen frame direction from the line segment created by the captured image (pattern image) of the measurement point projected near the corner of the
また、本実施形態では検出された8本の直線をパネル座標に変換してからスクリーン枠の頂点を求めるため、パネル座標におけるスクリーン30の形状を精度良く検出することができる。そのため、より精度良く台形歪み補正を行うことができる。
Further, in this embodiment, since the detected eight straight lines are converted into panel coordinates and the vertex of the screen frame is obtained, the shape of the
D.自動スクリーン枠補正処理:
次に、自動スクリーン枠補正処理を行う場合について説明する。自動スクリーン枠補正処理とは、プロジェクター10の移動が検知された場合に、自動的に台形歪み補正を行うための処理である。自動スクリーン枠補正処理においても、スクリーン枠直線をスクリーン30の隅ごとに2本ずつ、合計8本検出する点や、スクリーン30の隅ごとに座標変換係数を算出する点においては、上述した初期スクリーン枠補正処理と同様である。しかし、初期スクリーン枠補正処理においては、測定用パターン(ステップS110)と、黒画像(ステップS140)とを別々に投写していたのに対し、自動スクリーン枠補正処理では、スクリーン枠直線検出用の黒領域と、座標変換係数算出用の測定点との両方を含む測定用パターンを、台形歪み補正後の画像上に重畳して投写する(ステップS50)点が異なる。以下、これらの相違点を中心に、自動スクリーン枠補正処理について説明する。
D. Automatic screen frame correction processing:
Next, a case where automatic screen frame correction processing is performed will be described. The automatic screen frame correction process is a process for automatically correcting trapezoidal distortion when movement of the
図10は、自動スクリーン枠補正処理について説明するためのフローチャートである。ユーザーがプロジェクター10を移動させると(ステップS10)、振動検知部129はプロジェクター10の振動(移動)を検知する(ステップS20)。
FIG. 10 is a flowchart for explaining the automatic screen frame correction process. When the user moves the projector 10 (step S10), the
振動検知部129が振動を検知すると、CPU160は、以下のステップS50からステップS180の処理を画像処理回路120に実行させる。
When the
ステップS50では、パターン出力部121はROM170の測定用パターン記憶部171に格納されている測定用パターンPT2を表す画像データを読み出して、スクリーン30に投写する。
In step S <b> 50, the
図11は、ステップS50において、液晶パネル130に形成される測定用パターンPT2の一例を示す図である。図11に示す測定用パターンPT2は、角部に4点の測定点を備えるL字型黒領域AL、BL、CL、DLを、液晶パネル130のそれぞれの隅に有している。L字型黒領域AL、BL、CL、DLの交差する2本の直線領域部分は、液晶パネル130の画像形成領域の内側から外側に向かって伸びている。図11に斜線で示した領域は、歪み補正後の入力画像が表示される領域である。ステップS50の初回の実行では、初期スクリーン枠補正処理によって算出された台形歪み補正後の入力画像Nが表示される。図11に示すように、本実施形態では、歪み補正後の入力画像に対して、測定用パターンPT2が重畳して表示される。また、図11において、台形歪み補正後の入力画像Nの外側のクロスハッチングで表示した領域は、背景領域Hであり、実際は黒色で塗りつぶされているものとする。
FIG. 11 is a diagram illustrating an example of the measurement pattern PT2 formed on the
測定用パターンPT2が投写されると、初期スクリーン枠補正処理と同様に、パターン検出部122は、撮像されたパターン画像から測定点を検出し(ステップS120)、座標変換部124は、それぞれの隅ごとに座標変換係数を算出する(ステップS130)。直線検出部123は、L字型黒領域の備える測定点側から、スクリーン枠SCF方向に向かってエッジ検出を行い、スクリーン枠直線をそれぞれの隅について2本、合計8本検出する(ステップS155)。こうしてスクリーン枠直線と座標変換係数が算出されると、初期スクリーン枠補正処理と同様に、スクリーン枠直線がカメラ座標からパネル座標に変換され(ステップS160)、補正値が算出される(ステップS170)。そして、この補正値に応じて、入力画像の台形歪み補正が行われる(ステップS180)。
When the measurement pattern PT2 is projected, like the initial screen frame correction process, the
次に、CPU160は振動検知部129による振動の検知結果に応じて、プロジェクター10が静止して一定時間経過したか否かを判断する(ステップS185)。プロジェクター10が静止して、一定時間が経過していない場合には(ステップS185:No)、再度ステップS50からステップS180が実行される。そのため、パターン出力部121により、現在表示している台形歪み補正後の入力画像に対して、測定用パターンPT2が重畳される。そして、新たに補正値が求められると、現在表示している台形歪み補正後の入力画像は、更新された台形歪み補正後の入力画像へと置き換わる。このようにユーザーが、プロジェクター10を移動させつづけると、ステップS50からステップS180が繰り返し実行され、補正値が算出されて、更新された台形歪み補正後の入力画像が表示される。つまり、スクリーン30には、台形歪み補正後の入力画像Nが、リアルタイムに次々と変化して表示されることになる。
Next, the
CPU160は、プロジェクター10が静止してから所定時間が経過したと判断すると、(ステップS185:Yes)、パターン出力部121に測定用パターンPT2の出力を停止させ、映像に重畳されていた測定用パターンPT2を消去する(ステップS190)。
If the
以上で説明した、プロジェクター10による自動スクリーン枠補正処理によれば、スクリーン枠SCFをスクリーン30の隅ごとに2本ずつ、合計8本の直線として検出して、それぞれの隅に対応する座標変換係数を用いて補正を行うので、上述の初期スクリーン枠補正処理と同様の効果を奏する。また、台形歪み補正後の入力画像に重畳する測定用パターンは、図11に示すように測定点を有する黒領域であり、台形歪み補正後の入力画像の一部を覆うのみである。そのため、ユーザーは、リアルタイムで、台形歪み補正後の入力画像を確認しながら、適切にプロジェクター10を設置することができる。さらに、プロジェクター10が動いたとしても歪み補正後の入力画像が引き続きリアルタイムに表示されるので、視聴が遮られることが無く、ユーザーに与えるストレスが軽減される。
According to the automatic screen frame correction processing by the
E.変形例:
以上、本発明の一実施形態について説明したが、本発明はこのような実施形態に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができる。
E. Variations:
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to such Embodiment, A various structure can be taken in the range which does not deviate from the meaning.
E1.変形例1:
上述の初期スクリーン枠補正処理におけるステップS110、および自動スクリーン枠補正処理におけるステップS50で使用される測定用パターンは、4点の測定点を有するパターン領域を4つ備えることで、合わせて16点の測定点を有している。しかし、測定用パターンの有する測定点の数は、これに限られず、合わせて4点以上であればよい。測定点が4点以上あれば、カメラ座標からパネル座標への射影変換を行うための座標変換係数を算出することができる。例えば、各測定領域に1つの測定点を有することとしてもよいし、4点の測定点を備える1つの測定領域からなる測定用パターンであってもよい。また、測定点の形状は、画像処理により検出可能な形状であれば、例えば四角形状や十字形状などであってもよい。さらに、初期スクリーン枠補正処理におけるステップS110では、測定点を検出可能であれば、黒領域部分を備えない測定点のみを有する測定用パターンを使用することもできる。
E1. Modification 1:
The measurement pattern used in step S110 in the initial screen frame correction process and in step S50 in the automatic screen frame correction process includes four pattern areas having four measurement points, so that a total of 16 points are obtained. Has measuring points. However, the number of measurement points included in the measurement pattern is not limited to this, and may be four or more in total. If there are four or more measurement points, a coordinate conversion coefficient for performing projective conversion from camera coordinates to panel coordinates can be calculated. For example, it is good also as having one measurement point in each measurement area | region, and the pattern for a measurement which consists of one measurement area | region provided with four measurement points may be sufficient. The shape of the measurement point may be, for example, a square shape or a cross shape as long as it can be detected by image processing. Furthermore, in step S110 in the initial screen frame correction process, if a measurement point can be detected, a measurement pattern having only a measurement point that does not include a black region portion can be used.
E2.変形例2:
上述の初期スクリーン枠補正処理におけるステップS140では、ステップS150でスクリーン枠直線を検出するために、全面黒画像を投写しているが、投写する黒画像は全面黒画像でなくともよい。図12は、ステップS140において、スクリーン枠直線を検出するために投写する黒画像の例を示す図である。例えば図12(A)に示す黒画像PT3のように、表示画像の黒領域がスクリーン枠SCFと重なるように、中央に例えば背景領域を有し、外周に黒領域Kを有する黒画像であってもよい。また、図12(B)に示す黒画像PT4のように、液晶パネル130のそれぞれの隅に、黒領域Ka、Kb、Kc、Kdを有する黒画像であってもよい。また、上述の初期スクリーン枠補正処理および自動スクリーン枠補正処理で説明した黒領域(L字型黒領域や黒画像を含む)は、完全な黒に限定されない。例えば、色にかかわらず輝度が低い(例えば0%から10%の輝度)領域でもよい。
E2. Modification 2:
In step S140 in the above-described initial screen frame correction processing, the entire black image is projected in order to detect the screen frame straight line in step S150. However, the black image to be projected may not be the entire black image. FIG. 12 is a diagram illustrating an example of a black image projected to detect a screen frame straight line in step S140. For example, a black image having a background area at the center and a black area K on the outer periphery so that the black area of the display image overlaps the screen frame SCF, such as a black image PT3 shown in FIG. Also good. Further, a black image having black areas Ka, Kb, Kc, and Kd at the respective corners of the
E3.変形例3:
上述の初期スクリーン枠補正処理におけるステップS150では、直線検出部123は測定点を結んで作製される線分C3D4を3等分して、その幅をスクリーン枠SCF方向に対してエッジ検出を行っているが(図7参照)、エッジ検出を行う幅はこれに限られない。エッジ検出を行う幅は任意に設定可能である。
E3. Modification 3:
In step S150 in the initial screen frame correction process described above, the straight
E4.変形例4:
上述のスクリーン枠補正処理においては、スクリーン枠直線をカメラ座標からパネル座標へと変換した後に直線の交点を求めているが、カメラ座標上で直線の交点を求めてから、その交点を座標変換係数を用いてパネル座標へ変換して、枠の頂点を求めてもよい。
E4. Modification 4:
In the screen frame correction process described above, the intersection of the straight lines is obtained after converting the screen frame straight line from the camera coordinates to the panel coordinates. After obtaining the intersection point of the straight lines on the camera coordinates, the intersection point is converted into a coordinate conversion coefficient. May be converted into panel coordinates to obtain the vertex of the frame.
E5.変形例5:
スクリーン30の設置状況によっては、照明がスクリーン30に対して写りこんだり、スクリーン枠の色が部分的に異なったりすることにより、エッジ検出によっては8本のスクリーン枠直線を検出できない場合がある。このような場合においても、プロジェクター10は、上述のスクリーン枠補正処理を行うことができる。図13は、エッジ検出により8本のスクリーン枠直線の一部が検出されない場合の処理について説明するための図である。図13(A)に示すパネル画像では、スクリーン枠直線LA1iと交差する関係にあるはずのスクリーン枠直線LA2i(図8(A)参照)が検出されていない。このような場合、直線検出部123は、スクリーン枠直線LA2iと同一のスクリーン枠SCF上にあると推定されるスクリーン枠直線LD2iを延長して、検出されなかったスクリーン枠直線LA2iを補完する(図13(B))。上述のスクリーン枠補正処理においては、スクリーン枠直線を8本に分けて検出しているため、このように検出されないスクリーン枠直線が存在しても、近似すると推定されるスクリーン枠直線で補完することができる。そのため、枠画像において検出されない直線が存在しても、台形歪み補正を行うことができる。
E5. Modification 5:
Depending on the installation state of the
なお、同一のスクリーン枠SCF上にあると推定されるスクリーン枠直線LA2iとスクリーン枠直線LD2iの2本ともに検出できない場合には、特開2010−05042や、特開2008−211355に示されるような公知の方法で2本のスクリーン枠直線を補完することとしてもよい。この方法を用いれば、8本のスクリーン枠直線のうち少なくとも1本の直線が検出できればよいため、直線の検出の成功率が向上する。 In the case where it is not possible to detect both the screen frame straight line LA2i and the screen frame straight line LD2i that are estimated to be on the same screen frame SCF, as shown in Japanese Patent Application Laid-Open Nos. 2010-05042 and 2008-212355. It is good also as complementing two screen frame straight lines by a well-known method. If this method is used, it is only necessary to detect at least one straight line out of the eight screen frame straight lines, and the success rate of straight line detection is improved.
E6.変形例6:
図14は、直線検出部123が、枠画像のエッジ検出に際してスクリーン枠直線を誤検出した場合の処理について説明するための図である。図14(A)に示すパネル画像では、同一のスクリーン枠上にあると推定されるスクリーン枠直線LA2iとスクリーン枠直線LD2iとが離れて検出されている。このようなスクリーン枠直線に基づいて頂点を求めて台形歪み補正を行うと、スクリーン枠と表示画像の各辺とが一致しない可能性がある。このような事態を防ぐため、直線検出部123はまず、同一のスクリーン枠上にあると推定される2本のスクリーン枠直線LA2iとスクリーン枠直線LD2iとの位置および傾きの関係値を求める。例えば、パネル画像における中線Lとそれぞれのスクリーン枠直線との交点を算出して、それぞれの交点間の距離hを算出する(図14(A))。また、直線検出部123は、スクリーン枠直線LA2iの傾きの絶対値m2と、スクリーン枠直線LD2iの傾きの絶対値m1を算出し、その差分の絶対値|m1−m2|を求める。そして、距離hがあらかじめ定めた既定値以下であるか否か、また、傾きの絶対値m1、m2の差分の絶対値|m1−m2|があらかじめ定めた既定値以下であるか否かをそれぞれ判定する。判定の結果、少なくともどちらか一方が既定値以上である場合には、スクリーン枠直線LA2iとスクリーン枠直線LD2iのうち一方の値を破棄する。図14(A)では、スクリーン枠直線LA2iとスクリーン枠直線LD2iとの傾きはほぼ等しいため、|m1−m2|は既定値内であるが、距離hが既定値以上である。直線検出部123は、図14(A)に示すような位置関係にある場合には、より測定点から離れて位置しているスクリーン枠直線LA2iを破棄し、スクリーン枠直線LD2iを延長してスクリーン枠直線LA2iを補完する(図14(B))。
E6. Modification 6:
FIG. 14 is a diagram for describing processing when the straight
図15は、直線検出部123が、枠画像のエッジ検出に際してスクリーン枠直線を誤検出した場合の処理について説明するための別の図である。図15(A)に示す、同一のスクリーン枠SCF上にあると推定される2本のスクリーン枠直線LA2iとスクリーン枠直線LD2iの距離hは既定値内であるが、傾きの絶対値m1、m2の差分の絶対値|m1−m2|が既定値以上である。このような場合には直線検出部123は液晶パネル130の画像形成領域の左枠の傾きと、より異なる傾きを有するスクリーン枠直線LA2iを破棄し、スクリーン枠直線LD2iを延長してスクリーン枠直線LA2iを補完する(図15(B))。このように誤検出されたスクリーン枠直線が存在しても、スクリーン枠直線を8本に分けて検出しているため、誤検出された直線を判別して、近似すると推定されるスクリーン枠直線で補完することができる。よって、誤検出があっても、精度良く台形歪み補正を行うことが可能となる。
FIG. 15 is another diagram for explaining processing when the straight
なお、変形例5および変形例6のスクリーン枠直線の補完処理は、カメラ座標上で行うことも可能であるが、パネル座標上で行うことがより好ましい。プロジェクター10の備えるカメラのレンズの歪みを解消した後に、補完処理を行えばより近似すると推定されるスクリーン枠直線で補完を行うことができるためである。
Note that the screen frame straight line complementation processing of Modification 5 and Modification 6 can be performed on camera coordinates, but is preferably performed on panel coordinates. This is because complementation can be performed with a screen frame straight line that is estimated to be more approximate if the compensation process is performed after the distortion of the camera lens of the
E7.変形例7:
上述のステップS180で投写する自動スクリーン枠補正処理により求められる台形歪み補正後の入力画像として、現在の補正値と、現在の補正値を算出する以前に算出した補正値(従前の補正値)との中間の補正値を算出して、その中間の補正値に基づいて台形歪み補正を行った画像を表示することもできる。例えば、まず、第5回目の処理により算出した補正値と第6回目の処理により算出した補正値との中間の補正値を算出する。そして、その中間の補正値に基づいて台形歪み補正を行った画像を表示した後に、第6回目の処理により算出した補正値に基づいて台形歪み補正を行った入力画像を表示することとしてもよい。さらに、中間の補正値を複数(例えば3〜4つ)算出して、それらに基づいて台形歪み補正を行った画像を順に表示した後に、第6回目の補正値に基づいて台形歪み補正を行った入力画像を表示してもよい。また、自動スクリーン枠補正処理を行っている間は、現在の補正値と、現在の補正値を算出する以前に算出した補正値との中間の補正値に基づいて台形歪み補正を行った画像を表示し、自動スクリーン枠補正処理が終わった後に、現在の補正値に基づいて台形歪み補正を行った画像を表示しても良い。こうすることで、入力画像を滑らかに変化させて表示することができるので、ユーザーは台形歪み補正後の入力画像をより違和感なく確認することができる。
E7. Modification 7:
As the input image after the trapezoidal distortion correction obtained by the automatic screen frame correction process projected in step S180 described above, the current correction value, the correction value calculated before calculating the current correction value (the previous correction value), and It is also possible to calculate an intermediate correction value and display an image in which the trapezoidal distortion correction is performed based on the intermediate correction value. For example, first, an intermediate correction value between the correction value calculated by the fifth process and the correction value calculated by the sixth process is calculated. Then, after displaying the image subjected to the trapezoidal distortion correction based on the intermediate correction value, the input image subjected to the trapezoidal distortion correction based on the correction value calculated by the sixth process may be displayed. . Furthermore, after calculating a plurality of intermediate correction values (for example, 3 to 4) and displaying the images in which the trapezoidal distortion correction is performed based on them in sequence, the trapezoidal distortion correction is performed based on the sixth correction value. The input image may be displayed. During the automatic screen frame correction process, an image that has been corrected for trapezoidal distortion based on an intermediate correction value between the current correction value and the correction value calculated before the current correction value is calculated. After the display and the automatic screen frame correction processing is completed, an image that has been subjected to trapezoidal distortion correction based on the current correction value may be displayed. By doing so, the input image can be displayed with a smooth change, so that the user can confirm the input image after the trapezoidal distortion correction more comfortably.
E8.変形例8:
上述のステップS50では、スクリーン枠直線検出用の黒領域と、座標変換係数算出用の測定点との両方を含む測定用パターンを、台形歪み補正後の画像上に重畳して投写しているが、黒領域と、測定点と、台形歪み補正後の画像とを交互に時分割で表示することとしてもよい。また、ステップS50において、測定点を表示し続け、黒領域と台形歪み補正後の画像とを交互に時分割で表示することとしてもよい。
E8. Modification 8:
In step S50 described above, the measurement pattern including both the black area for detecting the screen frame straight line and the measurement point for calculating the coordinate conversion coefficient is superimposed and projected on the image after the trapezoidal distortion correction. The black region, the measurement point, and the image after the trapezoidal distortion correction may be alternately displayed in a time division manner. In step S50, the measurement points may be continuously displayed, and the black area and the image after the trapezoidal distortion correction may be alternately displayed in a time division manner.
E9.変形例9:
上述のステップS185では、所定時間が経過した場合に映像に重畳していた測定用パターンPT2を消去しているが、所定時間は、ステップS155で枠画像から直接スクリーン枠直線が8本検出できなかった場合に、長くするように設定することができる。エッジ検出によりスクリーン枠直線が8本検出できなくとも、上述の変形例で述べたようにスクリーン枠直線を補完することは可能である。しかし、補完したスクリーン枠直線よりも実際に枠画像から検出したスクリーン枠直線のほうが、カメラレンズの歪みの影響を反映しているため、その歪みを解消したより適切な台形歪み補正後の入力画像を算出できる。そのため、スクリーン枠直線が検出できなかった場合は、測定用パターンPT2を入力画像から消去するまでの時間を長くすることで、ユーザーはスクリーン枠直線を枠画像から検出可能な位置に、プロジェクター10を設置しなおすことができる。
E9. Modification 9:
In step S185 described above, the measurement pattern PT2 superimposed on the video when the predetermined time has elapsed is deleted, but eight screen frame straight lines cannot be directly detected from the frame image in step S155 for the predetermined time. Can be set to be longer. Even if eight screen frame straight lines cannot be detected by edge detection, it is possible to complement the screen frame straight lines as described in the above modification. However, since the screen frame straight line actually detected from the frame image reflects the effect of camera lens distortion rather than the complemented screen frame straight line, the input image after correcting the trapezoidal distortion is more appropriate. Can be calculated. Therefore, when the screen frame straight line cannot be detected, the time until the measurement pattern PT2 is erased from the input image is lengthened so that the user places the
E10.変形例10:
上述の実施形態では、振動検知部129はプロジェクター10の備えるジャイロセンサーから振動を検知することとしているが、振動検知部129は、ジャイロセンサーに代えて、加速度センサーなど他の振動検知センサーを備えてもよい。また、振動検知部129は、センサーによらず、背景画像の変化を解析することにより、プロジェクター10の振動を検知することとしてもよい。
E10. Modification 10:
In the above-described embodiment, the
E11.変形例11:
上述の実施形態において、台形歪み補正後の入力画像Nが表示される領域には、台形歪み補正後の入力画像Nの枠線のみを表す画像や、台形歪み補正後の入力画像Nの枠線内を枠線外の色とは異なる色(例えば白や青など)で塗りつぶした画像などを表示してもよい。これらの画像を表示することとすれば、台形歪み補正を行うための処理負担が軽減されるので、補正後の入力画像の形状を高速に表示することができる。なお、これらの画像は、液晶パネルの画像形成枠と相似形であることが好ましく、同じであることがより好ましい。
E11. Modification 11:
In the above-described embodiment, the area where the input image N after trapezoidal distortion correction is displayed is an image representing only the borderline of the input image N after trapezoidal distortion correction, or the borderline of the input image N after trapezoidal distortion correction. An image in which the inside is painted with a color (for example, white or blue) different from the color outside the frame line may be displayed. If these images are displayed, the processing load for performing the trapezoidal distortion correction is reduced, so that the shape of the input image after correction can be displayed at high speed. These images are preferably similar to the image forming frame of the liquid crystal panel, and more preferably the same.
E12.変形例12:
上述の実施形態におけるプロジェクター10は、初期スクリーン枠補正処理と自動スクリーン枠補正処理とを行うこととしているが、どちらか一方のスクリーン枠補正処理のみを行うこととしてもよい。
E12. Modification 12:
The
E13.変形例13:
上述の実施形態では、プロジェクター10は、光変調装置として透過型の液晶パネル130を用いた例を説明したが、光変調装置は透過型の液晶パネル130に限定されない。例えば、光変調装置としてデジタル・マイクロミラー・デバイス(DMD:Digital Micro−Mirror Device)や、反射型の液晶パネル等を用いて、照明光学系140からの光を変調する構成にしてもよい。また、小型CRT(陰極線管)上の映像を被投写面に投写するCRTプロジェクターでもよい。
E13. Modification 13:
In the above-described embodiment, the
E14.変形例14:
上述の実施形態では、本発明の画像処理装置をプロジェクターに適用したが、図2に示した画像処理回路120を画像処理装置として捉えることも可能である。また、上述の実施形態では、画像処理回路がハードウェア的にスクリーン枠補正処理を行うこととしたが、CPUがプログラムの実行によりソフトウェア的にスクリーン枠補正処理を実行することとしてもよい。
E14. Modification 14:
In the above-described embodiment, the image processing apparatus of the present invention is applied to the projector. However, the
10…プロジェクター
30…スクリーン
102…バス
110…A/D変換部
120…画像処理回路
121…パターン出力部
122…パターン検出部
123…直線検出部
124…座標変換部
125…補正値算出部
126…歪み補正部
129…振動検知部
130…液晶パネル
132…液晶パネル駆動部
140…照明光学系
150…投写光学系
152…投写レンズ
154…レンズ駆動部
160…CPU
170…ROM
171…測定用パターン記憶部
175…RAM
180…リモコン制御部
181…リモコン
190…撮像部
200…ケーブル
A、B、C、D…パターン領域
AL、BL、CL、DL…L字型黒領域
A1、B2、C3、D4…測定点
LA1、LA2、LB1、LB2、LC1、LC2、LD1、LD2、LA1i、LA2i、LB1i、LB2i、LC1i、LC2i、LD1i、LD2i…スクリーン枠直線
K、Ka、Kb、Kc、Kd…黒領域
h…距離
N…台形歪み補正後の入力画像
H…背景領域
V…交点
SCF…スクリーン枠
CF…カメラ枠
L…中線
PF…測定用パターン枠
PT1、PT2…測定用パターン
PT3、PT4…黒画像
DESCRIPTION OF
170 ... ROM
171 ... Pattern storage unit for
180 ...
Claims (9)
光変調装置を有する投写部から被投写面に投写された所定の形状を有するパターンが撮像されたパターン画像に基づいて前記パターンを検出するパターン検出部と、
前記被投写面の枠の少なくとも一部が撮像された枠の画像に基づいて、前記被投写面の隅ごとに交差する関係にある2本の直線をそれぞれ検出する直線検出部と、
前記光変調装置における前記パターンの座標と、前記パターン画像から検出された前記パターンの座標とに基づいて、撮像された画像における座標を前記光変調装置における座標に変換するための座標変換係数を算出する座標変換係数算出部と、
前記隅ごとに前記検出された2本の直線と前記座標変換係数とに基づいて前記枠の頂点を求め、該頂点に基づき台形歪み補正を行うための補正値を算出する補正値算出部と、
を備える、画像処理装置。 An image processing apparatus,
A pattern detection unit that detects the pattern based on a pattern image in which a pattern having a predetermined shape projected on the projection surface is projected from the projection unit having the light modulation device;
A straight line detection unit that detects two straight lines that intersect each corner of the projection surface based on an image of a frame in which at least a part of the frame of the projection surface is captured;
Based on the coordinates of the pattern in the light modulation device and the coordinates of the pattern detected from the pattern image, a coordinate conversion coefficient for converting coordinates in the captured image into coordinates in the light modulation device is calculated. A coordinate conversion coefficient calculation unit for
A correction value calculation unit for obtaining a vertex of the frame based on the two detected straight lines for each corner and the coordinate transformation coefficient, and calculating a correction value for performing trapezoidal distortion correction based on the vertex;
An image processing apparatus comprising:
前記パターンは前記光変調装置の隅ごとに位置し、
前記座標変換係数算出部は、前記被投写面の隅ごとにそれぞれ前記座標変換係数を算出し、
前記補正値算出部は、検出された前記被投写面の隅ごとに交差する関係にある2本の直線と、該隅に対応する前記座標変換係数とに基づいて、前記頂点を求める、画像処理装置。 The image processing apparatus according to claim 1,
The pattern is located at each corner of the light modulation device,
The coordinate conversion coefficient calculation unit calculates the coordinate conversion coefficient for each corner of the projection surface,
The correction value calculating unit obtains the vertex based on two detected straight lines intersecting each corner of the projection surface and the coordinate conversion coefficient corresponding to the corner. apparatus.
前記直線検出部は、前記被投写面の1つの枠辺上にある2本の直線のうち1の直線が検出されない場合には、他の1の直線に基づいて前記検出されない直線を推定する、画像処理装置。 The image processing apparatus according to claim 1 or 2,
The straight line detection unit estimates the undetected straight line based on another straight line when one straight line is not detected from two straight lines on one frame side of the projection surface. Image processing device.
前記直線検出部は、前記被投写面の1つの枠辺上にあると推定される検出された2本の直線の位置の関係および傾きの関係の少なくとも一方の関係が所定の関係を満たさない場合には、検出された2本のうちの一方の直線を破棄し、他方の直線に基づいて一方の直線を推定する、画像処理装置。 An image processing apparatus according to any one of claims 1 to 3, wherein
When the straight line detection unit does not satisfy a predetermined relationship at least one of the relationship between the positions of two detected straight lines estimated to be on one frame side of the projection surface and the relationship between the inclinations An image processing apparatus that discards one of the detected two straight lines and estimates one straight line based on the other straight line.
前記直線検出部は、前記位置の関係が前記所定の関係を満たさない場合には、前記検出された2本の直線のうち前記パターンとの距離が遠い直線を破棄し、前記パターンとの距離が近い直線に基づいて前記一方の直線を推定する、画像処理装置。 The image processing apparatus according to claim 4,
If the relationship between the positions does not satisfy the predetermined relationship, the straight line detection unit discards a straight line that is far from the pattern among the two detected straight lines, and the distance from the pattern is An image processing apparatus that estimates the one straight line based on a close straight line.
前記直線検出部は、前記傾きの関係が所定の関係を満たさない場合には、前記検出された2本の直線のうち前記検出された2本の直線が存在すると推定される枠辺との傾きがより異なる直線を破棄し、前記枠辺との傾きがより近い直線に基づいて前記一方の直線を推定する、画像処理装置。 The image processing apparatus according to claim 4 or 5, wherein
The straight line detector, when the relationship between the tilts does not satisfy a predetermined relationship, the tilt between the detected two straight lines and the frame side estimated to be the two detected straight lines An image processing apparatus that discards a straight line that differs from each other and estimates the one straight line based on a straight line that is closer in inclination to the frame side.
前記補正値算出部は、前記直線検出部が前記隅ごとに前記検出された2本の直線を前記光変調装置における座標に変換した後に、前記枠の頂点を求める、画像処理装置。 An image processing apparatus according to any one of claims 1 to 6, wherein
The image processing apparatus, wherein the correction value calculation unit obtains the apex of the frame after the straight line detection unit converts the two detected straight lines for each corner into coordinates in the light modulation device.
光変調装置を有する投写部から被投写面に投写された所定の形状を有するパターンが撮像されたパターン画像に基づいて前記パターンを検出する工程と、
被投写面の枠の少なくとも一部が撮像された枠画像に基づいて、前記被投写面の隅ごとに交差する関係にある2本の直線をそれぞれ検出する工程と、
前記光変調装置における前記パターンの座標と、前記パターン画像から検出された前記パターンの座標とに基づいて、撮像された画像における座標を前記光変調装置における座標に変換するための座標変換係数を算出する工程と、
前記隅ごとに前記検出された2本の直線と前記座標変換係数とに基づいて前記枠の頂点を求め、該頂点に基づき台形歪み補正を行うための補正値を算出する工程と、を備える、画像処理方法。 An image processing method comprising:
Detecting the pattern based on a pattern image in which a pattern having a predetermined shape projected on a projection surface is projected from a projection unit having a light modulation device;
Detecting two straight lines in a relationship intersecting each corner of the projection surface based on a frame image obtained by capturing at least a part of the frame of the projection surface;
Based on the coordinates of the pattern in the light modulation device and the coordinates of the pattern detected from the pattern image, a coordinate conversion coefficient for converting coordinates in the captured image into coordinates in the light modulation device is calculated. And a process of
Obtaining a vertex of the frame based on the two detected straight lines and the coordinate transformation coefficient for each corner, and calculating a correction value for performing trapezoidal distortion correction based on the vertex, and Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012051925A JP5970873B2 (en) | 2012-03-08 | 2012-03-08 | Image processing apparatus, image processing method, and projector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012051925A JP5970873B2 (en) | 2012-03-08 | 2012-03-08 | Image processing apparatus, image processing method, and projector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013187764A true JP2013187764A (en) | 2013-09-19 |
JP5970873B2 JP5970873B2 (en) | 2016-08-17 |
Family
ID=49388830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012051925A Active JP5970873B2 (en) | 2012-03-08 | 2012-03-08 | Image processing apparatus, image processing method, and projector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5970873B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019203002A1 (en) * | 2018-04-17 | 2019-10-24 | ソニー株式会社 | Information processing device and method |
WO2021103347A1 (en) * | 2019-11-27 | 2021-06-03 | 成都极米科技股份有限公司 | Projector keystone correction method, apparatus, and system, and readable storage medium |
CN112995624A (en) * | 2021-02-23 | 2021-06-18 | 峰米(北京)科技有限公司 | Trapezoidal error correction method and device for projector |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206800A (en) * | 2008-02-27 | 2009-09-10 | Seiko Epson Corp | Image processing apparatus, projector and image processing method |
JP2009239638A (en) * | 2008-03-27 | 2009-10-15 | Seiko Epson Corp | Method for correcting distortion of image projected by projector, and projector |
JP2010050540A (en) * | 2008-08-19 | 2010-03-04 | Seiko Epson Corp | Projection display apparatus, and display method |
JP2010273289A (en) * | 2009-05-25 | 2010-12-02 | Seiko Epson Corp | Electronic information board system, computer terminal, and calibration method |
JP2011199717A (en) * | 2010-03-23 | 2011-10-06 | Seiko Epson Corp | Projection type display device and image display method |
-
2012
- 2012-03-08 JP JP2012051925A patent/JP5970873B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206800A (en) * | 2008-02-27 | 2009-09-10 | Seiko Epson Corp | Image processing apparatus, projector and image processing method |
JP2009239638A (en) * | 2008-03-27 | 2009-10-15 | Seiko Epson Corp | Method for correcting distortion of image projected by projector, and projector |
JP2010050540A (en) * | 2008-08-19 | 2010-03-04 | Seiko Epson Corp | Projection display apparatus, and display method |
JP2010273289A (en) * | 2009-05-25 | 2010-12-02 | Seiko Epson Corp | Electronic information board system, computer terminal, and calibration method |
JP2011199717A (en) * | 2010-03-23 | 2011-10-06 | Seiko Epson Corp | Projection type display device and image display method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019203002A1 (en) * | 2018-04-17 | 2019-10-24 | ソニー株式会社 | Information processing device and method |
US11240475B2 (en) | 2018-04-17 | 2022-02-01 | Sony Corporation | Information processing apparatus and method |
WO2021103347A1 (en) * | 2019-11-27 | 2021-06-03 | 成都极米科技股份有限公司 | Projector keystone correction method, apparatus, and system, and readable storage medium |
CN112995624A (en) * | 2021-02-23 | 2021-06-18 | 峰米(北京)科技有限公司 | Trapezoidal error correction method and device for projector |
CN112995624B (en) * | 2021-02-23 | 2022-11-08 | 峰米(北京)科技有限公司 | Trapezoidal error correction method and device for projector |
Also Published As
Publication number | Publication date |
---|---|
JP5970873B2 (en) | 2016-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6015037B2 (en) | Image processing apparatus, image processing method, and projector | |
JP3994290B2 (en) | Image processing system, projector, program, information storage medium, and image processing method | |
JP3925521B2 (en) | Keystone correction using part of the screen edge | |
JP5266953B2 (en) | Projection display apparatus and display method | |
JP5266954B2 (en) | Projection display apparatus and display method | |
JP3871061B2 (en) | Image processing system, projector, program, information storage medium, and image processing method | |
US9723281B2 (en) | Projection apparatus for increasing pixel usage of an adjusted projection area, and projection method and program medium for the same | |
JP6244638B2 (en) | Projection apparatus, projection method, and projection program | |
JP5910157B2 (en) | Image projection device | |
JP2020112711A (en) | Method for controlling projector, projector, and projection system | |
US20070188830A1 (en) | Document imager, document stillness detection method, and computer program product | |
JP5239611B2 (en) | Projection display apparatus and image correction method | |
JP5541031B2 (en) | Projector and projector control method | |
JP5970873B2 (en) | Image processing apparatus, image processing method, and projector | |
US9830842B2 (en) | Display apparatus for performing control to change a position on an image where an additional image is superimposed | |
JP6205755B2 (en) | Projector apparatus, projector system, projector control method, and projector control program | |
JPWO2017179111A1 (en) | Display system and information processing method | |
US10657622B2 (en) | Controlling projected image frame rate in response to determined projection surface curvature | |
JP2011199717A (en) | Projection type display device and image display method | |
JP3882927B2 (en) | Image processing system, projector, and image processing method | |
US9615070B2 (en) | Video signal processing device and projection-type display device | |
JP6064699B2 (en) | Image processing apparatus, projector, and image processing method | |
US20230230282A1 (en) | Information processing apparatus, information processing method, image capturing apparatus, storage medium | |
JP5565500B2 (en) | Projection display apparatus, control method therefor, and control program therefor | |
JP2012114689A (en) | Projector and control method of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5970873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |