JP2013187764A - Image processing device, image processing method and projector - Google Patents

Image processing device, image processing method and projector Download PDF

Info

Publication number
JP2013187764A
JP2013187764A JP2012051925A JP2012051925A JP2013187764A JP 2013187764 A JP2013187764 A JP 2013187764A JP 2012051925 A JP2012051925 A JP 2012051925A JP 2012051925 A JP2012051925 A JP 2012051925A JP 2013187764 A JP2013187764 A JP 2013187764A
Authority
JP
Japan
Prior art keywords
straight line
pattern
image
screen frame
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012051925A
Other languages
Japanese (ja)
Other versions
JP5970873B2 (en
Inventor
Shiki Furui
志紀 古井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012051925A priority Critical patent/JP5970873B2/en
Publication of JP2013187764A publication Critical patent/JP2013187764A/en
Application granted granted Critical
Publication of JP5970873B2 publication Critical patent/JP5970873B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique that more accurately detects a screen frame and performs trapezoidal distortion correction.SOLUTION: An image processing device performs the steps of: detecting a pattern on the basis of a pattern image in which a measurement pattern PT1 having a predetermined shape projected on a screen 30 from a liquid crystal panel 130 is imaged; detecting respective two screen frame straight lines in a crossing relation at each corner of the screen 30 on the basis of a frame image in which at least a part of a screen frame SCF is imaged; subsequently calculating a coordinate conversion coefficient for converting camera coordinates in the image imaged to panel coordinates in the liquid crystal panel 130 on the basis of a panel coordinate value of a pattern in the liquid crystal panel 130 and a camera coordinate value of the pattern detected from the pattern image; and obtaining vertices of the screen frame SCF in the panel coordinates on the basis of the screen frame straight lines detected and the coordinate conversion coefficient and calculating a correction value for performing trapezoidal distortion correction. A projector performs the trapezoidal distortion correction.

Description

本発明は、画像処理装置、画像処理方法、およびプロジェクターに関する。   The present invention relates to an image processing apparatus, an image processing method, and a projector.

プロジェクターを用いてスクリーンに画像を表示させる場合に、プロジェクターとスクリーンとの相対的な位置関係によって、スクリーンに表示された画像(以下「表示画像」という)に台形状に歪みが生ずる場合がある。このような問題に関し、例えば特許文献1にはプロジェクターの備える撮像装置によりスクリーンを撮像し、撮像画像からスクリーン枠を検出し、検出したスクリーン枠の形状に基づいて台形状の歪みを補正する技術が記載されている。   When an image is displayed on a screen using a projector, an image displayed on the screen (hereinafter referred to as a “display image”) may be distorted in a trapezoidal shape depending on the relative positional relationship between the projector and the screen. Regarding such a problem, for example, Patent Document 1 discloses a technique in which a screen is imaged by an imaging device provided in a projector, a screen frame is detected from the captured image, and a trapezoidal distortion is corrected based on the detected shape of the screen frame. Have been described.

しかし、特許文献1の技術では、スクリーン枠を上下、左右それぞれの枠辺ごとに1本ずつ、合計4本の直線として検出している。一般的に、プロジェクターの備える撮像用のカメラレンズには歪みが存在するため、スクリーン枠を4本の直線として正確に検出することは困難であった。   However, in the technique of Patent Document 1, the screen frame is detected as a total of four straight lines, one for each of the upper and lower and left and right frame sides. In general, since there is distortion in an imaging camera lens provided in a projector, it is difficult to accurately detect a screen frame as four straight lines.

特開2010−050542号公報JP 2010-050542 A 特開2010−050540号公報JP 2010-050540 A 特開2008−211355号公報JP 2008-212355 A 特開2006−060447号公報JP 2006-060447 A

前述の問題を考慮し、本発明が解決しようとする課題は、スクリーン枠をより正確に検出して、台形歪み補正を行う技術を提供することである。   In view of the above-described problems, the problem to be solved by the present invention is to provide a technique for more accurately detecting a screen frame and correcting keystone distortion.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]画像処理装置であって、光変調装置を有する投写部から被投写面に投写された所定の形状を有するパターンが撮像されたパターン画像に基づいて前記パターンを検出するパターン検出部と、前記被投写面の枠の少なくとも一部が撮像された枠の画像に基づいて、前記被投写面の隅ごとに交差する関係にある2本の直線をそれぞれ検出する直線検出部と、前記光変調装置における前記パターンの座標と、前記パターン画像から検出された前記パターンの座標とに基づいて、撮像された画像における座標を前記光変調装置における座標に変換するための座標変換係数を算出する座標変換係数算出部と、前記隅ごとに前記検出された2本の直線と前記座標変換係数とに基づいて前記枠の頂点を求め、該頂点に基づき台形歪み補正を行うための補正値を算出する補正値算出部と、を備える、画像処理装置。 Application Example 1 An image processing apparatus that detects a pattern based on a pattern image in which a pattern having a predetermined shape projected on a projection surface is projected from a projection unit having a light modulation device. And a straight line detection unit that detects two straight lines that intersect each corner of the projection surface based on an image of a frame in which at least a part of the frame of the projection surface is captured, Based on the coordinates of the pattern in the light modulation device and the coordinates of the pattern detected from the pattern image, a coordinate conversion coefficient for converting the coordinates in the captured image into the coordinates in the light modulation device is calculated. A vertex of the frame is obtained based on the coordinate transformation coefficient calculation unit, the two detected straight lines for each corner and the coordinate transformation coefficient, and trapezoidal distortion correction is performed based on the vertex. And a correction value calculation unit for calculating a correction value of the fit, the image processing apparatus.

このような構成であれば、被投写面の隅ごとに交差する関係にある2本の直線をそれぞれ検出するので、撮像された画像において、カメラの備えるレンズ歪みの影響を受けやすい被投写面の隅部分の直線を、より正確に検出することができる。そのため、このような直線と座標変換係数とに基づいて補正値を算出して、より正確に台形歪み補正を行うことができる。   With such a configuration, two straight lines that intersect each other at each corner of the projection surface are detected, so that in the captured image, the projection surface that is susceptible to the lens distortion of the camera is detected. The straight line at the corner can be detected more accurately. Therefore, the correction value can be calculated based on such a straight line and the coordinate conversion coefficient, and the trapezoidal distortion correction can be performed more accurately.

[適用例2]適用例1記載の画像処理装置であって、前記パターンは前記光変調装置の隅ごとに位置し、前記座標変換係数算出部は、前記被投写面の隅ごとにそれぞれ前記座標変換係数を算出し、前記補正値算出部は、検出された前記被投写面の隅ごとに交差する関係にある2本の直線と、該隅に対応する前記座標変換係数とに基づいて、前記頂点を求める、画像処理装置。 Application Example 2 In the image processing apparatus according to Application Example 1, the pattern is positioned at each corner of the light modulation device, and the coordinate conversion coefficient calculation unit is configured to output the coordinates at each corner of the projection surface. The conversion value is calculated, and the correction value calculation unit is based on the detected two straight lines that intersect each corner of the projection surface and the coordinate conversion coefficient corresponding to the corner. An image processing apparatus for obtaining a vertex.

このような構成であれば、被投写面の隅ごとに座標変換係数を算出するので、カメラの備えるレンズの歪みと投写レンズの歪みとの影響を最小限に抑え、カメラの備えるレンズの歪みの影響を受けやすい被投写面の隅部分の直線を正確に検出して、その直線の光変調装置における交点を算出して頂点を求めることができる。したがって、より正確に台形歪み補正を行うことができる。   In such a configuration, since the coordinate conversion coefficient is calculated for each corner of the projection surface, the influence of the lens distortion of the camera and the distortion of the projection lens is minimized, and the distortion of the lens of the camera is reduced. It is possible to accurately detect the straight line at the corner of the projection surface that is easily affected, and calculate the intersection of the straight line in the light modulation device to obtain the vertex. Therefore, the trapezoidal distortion correction can be performed more accurately.

[適用例3]適用例1または適用例2に記載の画像処理装置であって、前記直線検出部は、前記被投写面の1つの枠辺上にある2本の直線のうち1の直線が検出されない場合には、他の1の直線に基づいて前記検出されない直線を推定する、画像処理装置。 [Application Example 3] In the image processing apparatus according to Application Example 1 or Application Example 2, the straight line detection unit is configured so that one of the two straight lines on one frame side of the projection surface has one straight line. When not detected, the image processing apparatus estimates the undetected straight line based on another straight line.

このような構成であれば、被投写面の隅ごとに2本ずつ直線を検出するので、被投写面の枠の一辺に対して2本ずつ直線が検出されることになる。そのため、検出されない直線を、被投写面の1つの枠辺上にあると推定される他の直線で補完をすることができる。よって、検出されない直線が存在しても、台形歪み補正を行うことができる。   With such a configuration, two straight lines are detected for each corner of the projection surface, so that two straight lines are detected for one side of the frame of the projection surface. For this reason, a straight line that is not detected can be supplemented with another straight line that is estimated to be on one frame side of the projection surface. Therefore, trapezoidal distortion correction can be performed even if a straight line that is not detected exists.

[適用例4]適用例1から適用例3までのいずれか一の適用例記載の画像処理装置であって、前記直線検出部は、前記被投写面の1つの枠辺上にあると推定される検出された2本の直線の位置の関係および傾きの関係の少なくとも一方の関係が所定の関係を満たさない場合には、検出された2本のうちの一方の直線を破棄し、他方の直線に基づいて一方の直線を推定する、画像処理装置。 [Application Example 4] The image processing apparatus according to any one of Application Examples 1 to 3, wherein the straight line detection unit is estimated to be on one frame side of the projection surface. If at least one of the relationship between the positions of two detected straight lines and the relationship of the inclination does not satisfy a predetermined relationship, one of the two detected straight lines is discarded and the other straight line is discarded. An image processing apparatus that estimates one straight line based on the above.

このような構成であれば、1つの被投写面の枠辺上にあると推定される2本の直線の位置の関係および傾きの関係に基づいて、誤検出された直線を判別することができる。したがって、誤検出された直線が存在しても、その直線を破棄して他の直線で補完することができるので、被投写面の枠辺ごとに2本の直線が算出される場合と同様に、台形歪み補正を行うことができる。   With such a configuration, an erroneously detected straight line can be determined based on the relationship between the positions of two straight lines estimated to be on the frame side of one projection surface and the relationship between the inclinations. . Therefore, even if an erroneously detected straight line exists, the straight line can be discarded and complemented with another straight line, so that two straight lines are calculated for each frame side of the projection surface. , Trapezoidal distortion correction can be performed.

[適用例5]適用例4記載の画像処理装置であって、前記直線検出部は、前記位置の関係が前記所定の関係を満たさない場合には、前記検出された2本の直線のうち前記パターンとの距離が遠い直線を破棄し、前記パターンとの距離が近い直線に基づいて前記一方の直線を推定する、画像処理装置。 Application Example 5 In the image processing apparatus according to Application Example 4, in the case where the positional relationship does not satisfy the predetermined relationship, the straight line detection unit includes the detected straight line out of the two detected straight lines. An image processing apparatus that discards a straight line that is far from a pattern and estimates the one straight line based on a straight line that is close to the pattern.

このような構成であれば、位置の関係が所定の関係を満たさない場合には、パターンとの距離が遠い直線を誤検出された直線と判別して破棄し、パターンとの距離がより近い直線で補完することができる。よって、より正確に台形歪み補正を行うことができる。   With such a configuration, when the positional relationship does not satisfy the predetermined relationship, a straight line that is far from the pattern is determined to be a falsely detected straight line and discarded, and a straight line that is closer to the pattern It can be complemented with. Therefore, the trapezoidal distortion correction can be performed more accurately.

[適用例6]適用例4または適用例5に記載の画像処理装置であって、前記直線検出部は、前記傾きの関係が所定の関係を満たさない場合には、前記検出された2本の直線のうち前記検出された2本の直線が存在すると推定される枠辺との傾きがより異なる直線を破棄し、前記枠辺との傾きがより近い直線に基づいて前記一方の直線を推定する、画像処理装置。 [Application Example 6] In the image processing apparatus according to Application Example 4 or Application Example 5, the straight line detection unit may detect the two detected lines when the relationship between the tilts does not satisfy a predetermined relationship. Of the straight lines, the straight line having a different inclination from the frame side estimated to have the two detected straight lines is discarded, and the one straight line is estimated based on the straight line having a closer inclination to the frame side. , Image processing device.

このような構成であれば、傾きの関係が所定の関係を満たさない場合には、枠辺との傾きがより異なる直線を誤検出された直線と判別して破棄し、枠辺との傾きがより近い直線で補完することができる。よって、より正確に台形歪み補正を行うことができる。   With such a configuration, when the relationship between the inclinations does not satisfy the predetermined relationship, a straight line with a different inclination from the frame side is determined to be a falsely detected straight line and discarded. It can be complemented with a closer straight line. Therefore, the trapezoidal distortion correction can be performed more accurately.

[適用例7]適用例1から適用例6までのいずれか一の適用例記載の画像処理装置であって、前記補正値算出部は、前記直線検出部が前記隅ごとに前記検出された2本の直線を前記光変調装置における座標に変換した後に、前記枠の頂点を求める、画像処理装置。 [Application Example 7] The image processing apparatus according to any one of Application Examples 1 to 6, wherein the correction value calculation unit is configured such that the straight line detection unit is detected for each corner 2 An image processing apparatus for obtaining a vertex of the frame after converting a straight line of a book into coordinates in the light modulation device.

このような構成であれば、隅ごとに検出された2本の直線を、光変調装置における座標に変換した後に、2本の直線の交点を算出して枠の頂点を求めるため、スクリーンの形状を精度良く検出することができる。よって、より精度良く台形歪み補正を行うことができる。   With such a configuration, the two straight lines detected at each corner are converted into coordinates in the light modulation device, and then the intersection of the two straight lines is calculated to obtain the vertex of the frame. Can be detected with high accuracy. Therefore, the trapezoidal distortion correction can be performed with higher accuracy.

本発明は、上述した画像処理装置としての構成のほか、画像処理方法や、画像処理装置を備えるプロジェクター、コンピュータープログラムとしても構成することができる。かかるコンピュータープログラムは、コンピューターが読取可能な記録媒体に記録されていてもよい。記録媒体としては、例えば、フレキシブルディスクやCD−ROM、DVD−ROM、光磁気ディスク、メモリーカード、ハードディスク等の種々の媒体を利用することができる。   In addition to the configuration as the image processing apparatus described above, the present invention can also be configured as an image processing method, a projector including the image processing apparatus, and a computer program. Such a computer program may be recorded on a computer-readable recording medium. As the recording medium, various media such as a flexible disk, a CD-ROM, a DVD-ROM, a magneto-optical disk, a memory card, and a hard disk can be used.

本発明の画像処理装置の実施形態としてのプロジェクターのハードウェア構成を示す説明図である。It is explanatory drawing which shows the hardware constitutions of the projector as embodiment of the image processing apparatus of this invention. 図1に示した画像処理回路の具体的な構成を示すブロック図である。FIG. 2 is a block diagram illustrating a specific configuration of the image processing circuit illustrated in FIG. 1. プロジェクターによる初期スクリーン枠補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the initial screen frame correction process by a projector. 液晶パネルに形成される測定用パターンの一例を示す図である。It is a figure which shows an example of the pattern for a measurement formed in a liquid crystal panel. スクリーンに対して投写された測定用パターンの表示画像の一例を示す図である。It is a figure which shows an example of the display image of the pattern for a measurement projected with respect to the screen. 測定用パターンの撮像画像の一例を示す図である。It is a figure which shows an example of the captured image of the pattern for a measurement. 枠画像から直線を検出する方法の一例を説明するための図である。It is a figure for demonstrating an example of the method of detecting a straight line from a frame image. スクリーン枠直線をカメラ座標からパネル座標へと変換する方法について説明するための図である。It is a figure for demonstrating the method to convert a screen frame straight line from a camera coordinate to a panel coordinate. 補正値を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating a correction value. 自動スクリーン枠補正処理について説明するためのフローチャートである。It is a flowchart for demonstrating an automatic screen frame correction process. ステップS50において液晶パネルに形成される測定用パターンの一例を示す図である。It is a figure which shows an example of the pattern for a measurement formed in a liquid crystal panel in step S50. ステップS140においてスクリーン枠直線を検出するために投写する黒画像の例を示す図である。It is a figure which shows the example of the black image projected in order to detect a screen frame straight line in step S140. エッジ検出により8本のスクリーン枠直線の一部が検出されない場合の処理について説明するための図である。It is a figure for demonstrating the process when a part of eight screen frame straight lines are not detected by edge detection. 直線検出部がスクリーン枠直線を誤検出した場合の処理について説明するための図である。It is a figure for demonstrating the process when a straight line detection part misdetects a screen frame straight line. 直線検出部がスクリーン枠直線を誤検出した場合の処理について説明するための別の図である。It is another figure for demonstrating the process when a straight line detection part misdetects a screen frame straight line.

A.プロジェクターの構成:
図1は、本発明の画像処理装置の実施形態としてのプロジェクター10のハードウェア構成を示す説明図である。プロジェクター10は、画像を表す画像光を投写して、スクリーン30などの被投写面上に画像を表示させる。
A. Projector configuration:
FIG. 1 is an explanatory diagram showing a hardware configuration of a projector 10 as an embodiment of an image processing apparatus of the present invention. The projector 10 projects image light representing an image and displays the image on a projection surface such as the screen 30.

プロジェクター10は、A/D(アナログ/デジタル)変換部110と、画像処理回路120と、液晶パネル130と、液晶パネル駆動部132と、照明光学系140と、投写レンズ152を有する投写光学系150と、レンズ駆動部154と、CPU160と、RAM175と、測定用パターン記憶部171を有するROM170と、リモコン制御部180と、リモコン181と、撮像部190と、振動検知部129と、を備えている。プロジェクター10の各構成要素は、バス102を介して互いに接続されている。   The projector 10 includes an A / D (analog / digital) converter 110, an image processing circuit 120, a liquid crystal panel 130, a liquid crystal panel driver 132, an illumination optical system 140, and a projection optical system 150 having a projection lens 152. A lens driving unit 154, a CPU 160, a RAM 175, a ROM 170 having a measurement pattern storage unit 171, a remote control unit 180, a remote control 181, an imaging unit 190, and a vibration detection unit 129. . Each component of the projector 10 is connected to each other via a bus 102.

A/D変換部110は、図示しないDVDプレーヤーやPC(パーソナルコンピューター)などの画像供給装置からケーブル200を介して入力された入力画像信号に対して、A/D変換を行い、デジタル画像信号を出力する。   The A / D converter 110 performs A / D conversion on an input image signal input via an image supply device such as a DVD player or a PC (personal computer) (not shown) via a cable 200, and converts the digital image signal into a digital image signal. Output.

画像処理回路120は、画像処理を実行する種々の機能部を備えている。画像処理回路120は、A/D変換部110から出力されたデジタル画像信号(以下、「入力画像」という)に対して、スクリーン枠補正処理や画像の表示状態(例えば、輝度、コントラスト、同期、トラッキング、色の濃さ、色合い等)の調整などを行い、液晶パネル駆動部132へと出力する。スクリーン枠補正処理および画像処理回路120の機能部については後述する。   The image processing circuit 120 includes various functional units that execute image processing. The image processing circuit 120 performs screen frame correction processing and image display status (for example, brightness, contrast, synchronization, etc.) on a digital image signal (hereinafter referred to as “input image”) output from the A / D conversion unit 110. Tracking, color density, hue, etc.) are adjusted and output to the liquid crystal panel drive unit 132. The screen frame correction processing and the functional units of the image processing circuit 120 will be described later.

液晶パネル駆動部132は、画像処理回路120を介して入力されたデジタル画像信号に基づいて、液晶パネル130を駆動する。   The liquid crystal panel driving unit 132 drives the liquid crystal panel 130 based on the digital image signal input via the image processing circuit 120.

照明光学系140は、光を射出する光源、及び光源から射出された光の照度分布を均一化する均一化光学系等を含む。照明光学系140から射出された光は、液晶パネル130に入射する。   The illumination optical system 140 includes a light source that emits light, a uniformizing optical system that uniformizes the illuminance distribution of the light emitted from the light source, and the like. The light emitted from the illumination optical system 140 enters the liquid crystal panel 130.

液晶パネル130は、照明光学系140から射出された光を画像データに基づいて変調する光変調装置である。液晶パネル130は、照明光学系140から照射された照明光を、画像を表す有効な画像光へと変調するための画像(以下「パネル画像」ともいう)を、液晶パネル130に形成する。   The liquid crystal panel 130 is a light modulation device that modulates light emitted from the illumination optical system 140 based on image data. The liquid crystal panel 130 forms an image (hereinafter also referred to as a “panel image”) for modulating the illumination light emitted from the illumination optical system 140 into effective image light representing an image on the liquid crystal panel 130.

投写光学系150は、プロジェクター10の筐体の前面に取り付けられており、液晶パネル130によって画像光へと変調された光を拡大して投写する。レンズ駆動部154は、投写光学系150が備える投写レンズ152を駆動して、スクリーン30上に表示させる表示画像の大きさを変化させる。液晶パネル130、照明光学系140及び投写光学系150は、画像を投写する投写部を構成する。   The projection optical system 150 is attached to the front surface of the housing of the projector 10 and enlarges and projects the light modulated by the liquid crystal panel 130 into image light. The lens driving unit 154 drives the projection lens 152 included in the projection optical system 150 to change the size of the display image displayed on the screen 30. The liquid crystal panel 130, the illumination optical system 140, and the projection optical system 150 constitute a projection unit that projects an image.

リモコン制御部180は、ユーザーからのリモコン181による指示を受信し、バス102を介してその指示をCPU160に伝える。なお、本実施形態では、プロジェクター10は、ユーザーからの指示を、リモコン181およびリモコン制御部180を通じて受け取るものとしているが、ユーザーからの指示を例えば操作パネルなどの他の構成を通じて受け取ることとしてもよい。   The remote controller control unit 180 receives an instruction from the user via the remote controller 181 and transmits the instruction to the CPU 160 via the bus 102. In this embodiment, the projector 10 receives an instruction from the user through the remote controller 181 and the remote controller control unit 180, but may receive an instruction from the user through another configuration such as an operation panel. .

撮像部190は、CCDカメラを備えており、種々の画像を撮像して取得する。以下、撮像部190により撮像された画像を、「撮像画像」ともいう。撮像画像のうち、スクリーン30の枠(以降、「スクリーン枠SCF」ともいう)の少なくとも一部が撮像されたものを「枠画像」と、スクリーン30に投写された測定用パターン(詳細は後述)が撮像されたものを「パターン画像」ともいう。撮像部190により取得された撮像画像は、RAM175内に格納される。なお、撮像部190は、CCDカメラに代えて他の撮像可能なデバイスを備えていてもよい。   The imaging unit 190 includes a CCD camera and captures and acquires various images. Hereinafter, an image captured by the imaging unit 190 is also referred to as a “captured image”. Among the captured images, an image obtained by capturing at least a part of a frame of the screen 30 (hereinafter also referred to as “screen frame SCF”) and a measurement pattern projected on the screen 30 (details will be described later) What is captured is also referred to as a “pattern image”. The captured image acquired by the imaging unit 190 is stored in the RAM 175. Note that the imaging unit 190 may include another device capable of imaging instead of the CCD camera.

振動検知部129は、プロジェクター10の動きや静止を監視する。振動検知部129は、本実施形態ではジャイロセンサー(図示せず)を備えており、このジャイロセンサーによりプロジェクター10の動きを検知する。   The vibration detection unit 129 monitors the movement and stillness of the projector 10. In the present embodiment, the vibration detection unit 129 includes a gyro sensor (not shown), and detects the movement of the projector 10 by the gyro sensor.

CPU160は、リモコン制御部180からの指示や振動検知部129による検知結果に応じて、画像処理回路120に、スクリーン枠補正処理を実行させる。このスクリーン枠補正処理については後述する。   The CPU 160 causes the image processing circuit 120 to execute a screen frame correction process in accordance with an instruction from the remote controller control unit 180 and a detection result by the vibration detection unit 129. This screen frame correction process will be described later.

B.画像処理回路の構成:
図2は、図1に示した画像処理回路120の具体的な構成を示すブロック図である。図示するように、画像処理回路120は、パターン出力部121と、パターン検出部122と、直線検出部123と、座標変換部124と、補正値算出部125と、歪み補正部126と、を備えている。
B. Image processing circuit configuration:
FIG. 2 is a block diagram showing a specific configuration of the image processing circuit 120 shown in FIG. As illustrated, the image processing circuit 120 includes a pattern output unit 121, a pattern detection unit 122, a straight line detection unit 123, a coordinate conversion unit 124, a correction value calculation unit 125, and a distortion correction unit 126. ing.

パターン検出部122は、撮像部190により撮像されたパターン画像に基づいて、後述するスクリーン枠補正処理を行うための測定点を検出する。測定点については後述する。   The pattern detection unit 122 detects a measurement point for performing a screen frame correction process, which will be described later, based on the pattern image captured by the imaging unit 190. The measurement points will be described later.

直線検出部123は、撮像部190により撮像された枠画像に基づいて、交差する関係にある2本の直線を、スクリーン30の隅ごとに検出する。そのため直線検出部123は、4つの隅を有するスクリーン30に対して、合計で8本の直線を検出する。   The straight line detection unit 123 detects two straight lines having a crossing relationship for each corner of the screen 30 based on the frame image captured by the imaging unit 190. Therefore, the straight line detection unit 123 detects a total of eight straight lines with respect to the screen 30 having four corners.

座標変換部124は、液晶パネル130における測定用パターンの測定点の座標値と、パターン検出部122により検出された撮像画像における測定点の座標値と、に基づいて、座標変換係数を算出する。なお、以降の説明では、液晶パネル130における座標系を「パネル座標」と、撮像画像における座標系を「カメラ座標」ともいう。座標変換係数は、カメラ座標値をパネル座標値へと変換するための係数である。   The coordinate conversion unit 124 calculates a coordinate conversion coefficient based on the coordinate value of the measurement point of the measurement pattern on the liquid crystal panel 130 and the coordinate value of the measurement point in the captured image detected by the pattern detection unit 122. In the following description, the coordinate system in the liquid crystal panel 130 is also referred to as “panel coordinates”, and the coordinate system in the captured image is also referred to as “camera coordinates”. The coordinate conversion coefficient is a coefficient for converting camera coordinate values into panel coordinate values.

補正値算出部125は、座標変換部124により算出された座標変換係数と、直線検出部123により検出された直線と、に基づいて、台形歪み補正を行うための補正値を算出する。   The correction value calculation unit 125 calculates a correction value for performing trapezoidal distortion correction based on the coordinate conversion coefficient calculated by the coordinate conversion unit 124 and the straight line detected by the straight line detection unit 123.

歪み補正部126は、補正値算出部125によって算出された補正値を用いて、A/D変換部110から取得した入力画像に対して、台形歪み補正を行う。   The distortion correction unit 126 performs trapezoidal distortion correction on the input image acquired from the A / D conversion unit 110 using the correction value calculated by the correction value calculation unit 125.

パターン出力部121は、後述するスクリーン枠補正時に、入力画像や、台形歪み補正がされた入力画像に対して測定パターンを重畳させる。   The pattern output unit 121 superimposes a measurement pattern on an input image or an input image that has been corrected for trapezoidal distortion during screen frame correction, which will be described later.

C.初期スクリーン枠補正処理:
図3は、プロジェクター10による初期スクリーン枠補正処理の流れを示すフローチャートである。スクリーン枠補正処理は、表示画像の外周の各辺がスクリーン枠に一致するように、入力画像に対して台形歪み補正を行う一連の処理である。初期スクリーン枠補正処理は、例えば、プロジェクター10の設置後に、ユーザーからのリモコン181を通じた指示に応じて実行される。なお、初期スクリーン枠補正処理は、例えば電源オンや画像信号の入力などに応じて自動的に実行されるものとしてもよい。
C. Initial screen frame correction processing:
FIG. 3 is a flowchart showing a flow of initial screen frame correction processing by the projector 10. The screen frame correction process is a series of processes for performing trapezoidal distortion correction on the input image so that each side of the outer periphery of the display image matches the screen frame. The initial screen frame correction process is executed in accordance with an instruction from the user through the remote controller 181 after the projector 10 is installed, for example. Note that the initial screen frame correction processing may be automatically executed in response to, for example, power-on or image signal input.

初期スクリーン枠補正処理が開始されると、パターン出力部121は、測定用パターンをスクリーン30に投写する(ステップS110)。具体的には、パターン出力部121が、ROM170の測定用パターン記憶部171に格納されている測定用パターンを表す画像データを読み出して、入力画像に重畳させ、液晶パネル駆動部132へと出力することで、測定用パターンが投写される。この測定用パターンはパネル座標値で表されている。測定用パターンの有する測定点のパネル座標値は、パターン出力部121により取得される。   When the initial screen frame correction process is started, the pattern output unit 121 projects the measurement pattern onto the screen 30 (step S110). Specifically, the pattern output unit 121 reads out image data representing the measurement pattern stored in the measurement pattern storage unit 171 of the ROM 170, superimposes it on the input image, and outputs it to the liquid crystal panel drive unit 132. Thus, the measurement pattern is projected. This measurement pattern is represented by panel coordinate values. The panel coordinate value of the measurement point included in the measurement pattern is acquired by the pattern output unit 121.

図4は、液晶パネル130に形成される測定用パターンPT1の一例を示す図である。図4に示す測定用パターンPT1は、4点の白色円状の測定点とその周囲の略正方形の黒領域とで形成されるパターン領域A、B、C、D、を含んでいる。パターン領域Aは液晶パネル130内の左上隅近傍に、パターン領域Bは液晶パネル130の右上隅近傍に、パターン領域Cは液晶パネル130の右下隅近傍に、パターン領域Dは液晶パネル130の左下隅近傍にそれぞれ位置している。測定用パターンPT1の外枠(測定用パターン枠PF)は、液晶パネル130の画像形成枠と、一致している。図4に斜線で示した領域は、ケーブル200からA/D変換部110を介して液晶パネル駆動部132へ送信された入力画像が形成される領域である。   FIG. 4 is a diagram showing an example of the measurement pattern PT1 formed on the liquid crystal panel 130. As shown in FIG. The measurement pattern PT1 shown in FIG. 4 includes pattern areas A, B, C, and D formed by four white circular measurement points and a substantially square black area around the measurement points. The pattern area A is near the upper left corner of the liquid crystal panel 130, the pattern area B is near the upper right corner of the liquid crystal panel 130, the pattern area C is near the lower right corner of the liquid crystal panel 130, and the pattern area D is the lower left corner of the liquid crystal panel 130. Located in the vicinity. The outer frame (measurement pattern frame PF) of the measurement pattern PT1 coincides with the image forming frame of the liquid crystal panel 130. 4 is an area where an input image transmitted from the cable 200 to the liquid crystal panel driving unit 132 via the A / D conversion unit 110 is formed.

図5は、スクリーン30に対して投写された測定用パターンPT1の表示画像の一例を示す図である。本実施形態では、投写レンズ152がスクリーン30に対して正対していない。そのため、測定用パターンPT1の表示画像は図5に示すように台形形状を示している。測定用パターンPT1の表示画像において、パターン領域Aの有する測定点はスクリーン30の左上隅近傍に、パターン領域Bの有する測定点はスクリーン30の右上隅近傍に、パターン領域Cの有する測定点はスクリーン30の右下隅近傍に、パターン領域Dの有する測定点はスクリーン30の左下隅近傍にそれぞれ位置している。   FIG. 5 is a diagram showing an example of a display image of the measurement pattern PT1 projected on the screen 30. As shown in FIG. In the present embodiment, the projection lens 152 does not face the screen 30. Therefore, the display image of the measurement pattern PT1 has a trapezoidal shape as shown in FIG. In the display image of the measurement pattern PT1, the measurement point of the pattern region A is near the upper left corner of the screen 30, the measurement point of the pattern region B is near the upper right corner of the screen 30, and the measurement point of the pattern region C is the screen. In the vicinity of the lower right corner 30, the measurement points of the pattern region D are located in the vicinity of the lower left corner of the screen 30.

次に、撮像部190は測定用パターンPT1の表示画像の撮像を行い、パターン検出部122はその撮像画像(パターン画像)を公知の方法により画像解析して、カメラ座標における測定点を検出する(ステップS120)。図6は、測定用パターンPT1の撮像画像の一例を示す図である。図6に示した例では、撮像画像には、スクリーン枠SCFよりも外側に測定用パターン枠PFを有する表示画像の全体が、撮像部190のCCDカメラのフレーム(カメラ枠CF)内に写し出されている。この撮像画像を解析することにより、それぞれのパターン領域の4つの測定点に対応するカメラ座標値が取得される。   Next, the imaging unit 190 captures a display image of the measurement pattern PT1, and the pattern detection unit 122 analyzes the captured image (pattern image) by a known method to detect a measurement point in camera coordinates ( Step S120). FIG. 6 is a diagram illustrating an example of a captured image of the measurement pattern PT1. In the example shown in FIG. 6, the entire display image having the measurement pattern frame PF outside the screen frame SCF is projected in the CCD camera frame (camera frame CF) of the imaging unit 190 in the captured image. ing. By analyzing this captured image, camera coordinate values corresponding to the four measurement points of each pattern region are acquired.

それぞれのパターン領域の測定点に対応するパネル座標値とカメラ座標値が取得されると、座標変換部124は、各パターン領域について、それぞれ座標変換係数を算出する(ステップS130)。具体的には、座標変換部124は、パターン領域Aの測定点のパネル座標値とカメラ座標値を用いて、座標変換係数Aを算出する。座標変換部124は同様に、パターン領域Bの測定点のパネル座標値とカメラ座標値を用いて座標変換係数Bを、パターン領域Cの測定点のパネル座標値とカメラ座標値を用いて座標変換係数Cを、パターン領域Dの測定点のパネル座標値とカメラ座標値を用いて座標変換係数Dを、それぞれ算出する。本実施形態では、4つの測定点に基づいて、座標変換係数として射影変換係数を求める。算出された座標変換係数A〜Dの情報は、RAM175に格納される。   When the panel coordinate values and camera coordinate values corresponding to the measurement points of each pattern area are acquired, the coordinate conversion unit 124 calculates a coordinate conversion coefficient for each pattern area (step S130). Specifically, the coordinate conversion unit 124 calculates the coordinate conversion coefficient A using the panel coordinate value and the camera coordinate value of the measurement point in the pattern area A. Similarly, the coordinate conversion unit 124 converts the coordinate conversion coefficient B using the panel coordinate value and the camera coordinate value of the measurement point in the pattern area B, and converts the coordinate conversion coefficient B using the panel coordinate value and the camera coordinate value of the measurement point in the pattern area C. The coefficient C is calculated using the panel coordinate value and the camera coordinate value of the measurement point in the pattern area D, respectively. In this embodiment, a projective transformation coefficient is obtained as a coordinate transformation coefficient based on four measurement points. Information on the calculated coordinate conversion coefficients A to D is stored in the RAM 175.

次に、パターン出力部121は、枠画像を取得するために、スクリーン枠SCF撮像用の黒画像をスクリーン30に投写する(ステップS140)。具体的には、パターン出力部121が、黒画像データを液晶パネル駆動部132へと出力する。液晶パネル駆動部132は、出力された画像データに基づいて、液晶パネル130に黒画像を形成する。本実施形態において使用される黒画像データが液晶パネル130に形成されると、液晶パネル130の画像形成領域全面が黒領域となる。こうすることで、全面黒画像が、投写光学系150を介してスクリーン30に表示される。   Next, the pattern output unit 121 projects a black image for screen frame SCF imaging on the screen 30 in order to obtain a frame image (step S140). Specifically, the pattern output unit 121 outputs black image data to the liquid crystal panel drive unit 132. The liquid crystal panel driving unit 132 forms a black image on the liquid crystal panel 130 based on the output image data. When the black image data used in the present embodiment is formed on the liquid crystal panel 130, the entire image forming area of the liquid crystal panel 130 becomes a black area. By doing so, the entire black image is displayed on the screen 30 via the projection optical system 150.

黒画像を投写すると、撮像部190は投写された黒画像の撮像を行い、枠画像を取得する。直線検出部123は、枠画像からスクリーン枠上の直線を一辺につき2本ずつ、合計8本検出する(ステップS150)。   When a black image is projected, the imaging unit 190 captures the projected black image and acquires a frame image. The straight line detection unit 123 detects a total of eight straight lines on the screen frame from the frame image, two lines per side (step S150).

図7は、枠画像から直線を検出する方法の一例を説明するための図である。以降スクリーン枠SCFに対応する直線を、「スクリーン枠直線」という。図7には、取得した枠画像のうち、スクリーン枠SCFに対応する部分を黒枠で示している。なお、図7に示した円状の測定点はステップS120で検出されたものであり、枠画像に含まれているものではない。図7に示した測定点は、スクリーン枠直線の検出の説明のために枠画像と合わせて示したものである。なお、以降に示す図についても同様に円状の測定点を示している。   FIG. 7 is a diagram for explaining an example of a method for detecting a straight line from a frame image. Hereinafter, a straight line corresponding to the screen frame SCF is referred to as a “screen frame straight line”. In FIG. 7, a portion corresponding to the screen frame SCF in the acquired frame image is indicated by a black frame. Note that the circular measurement points shown in FIG. 7 are those detected in step S120 and are not included in the frame image. The measurement points shown in FIG. 7 are shown together with the frame image for the description of the detection of the screen frame straight line. In the following figures, circular measurement points are also shown.

スクリーン枠直線の検出は、具体的には以下のように行う。例えば、スクリーン枠下側の2本の直線を検出するには、まず、ステップS120で検出した右下隅の測定点C3と左下隅の測定点D4とを結んで線分C3D4を作製し、その線分C3D4を3等分する。そして、測定点C3と測定点D4から、それぞれ線分C3D4の3分の1内側の線分を始点として、下側に向けて、微分フィルターやラプラシアンフィルターといった輪郭抽出フィルターをかけることにより、エッジ検出を行う(図7(A))。直線検出部123は、検出されたエッジの範囲内において、例えば最小二乗法やハフ変換などを用いて、スクリーン枠直線LD1およびLC1を検出する(図7(B))。直線検出部123は、同様に測定点D4とA1、測定点A1とB2、測定点B2とC3のそれぞれ結んで線分を作製し、1辺のスクリーン枠に対して2本のスクリーン枠直線を検出する。このようにして、直線検出部123は、合計8本のスクリーン枠直線を検出する。   Specifically, the screen frame straight line is detected as follows. For example, in order to detect two straight lines on the lower side of the screen frame, first, a line segment C3D4 is formed by connecting the measurement point C3 in the lower right corner and the measurement point D4 in the lower left corner detected in step S120. Divide C3D4 into three equal parts. Then, edge detection is performed by applying a contour extraction filter such as a differential filter or a Laplacian filter from the measurement point C3 and the measurement point D4, starting from a line segment inside one third of the line segment C3D4 and starting downward. (FIG. 7A). The straight line detection unit 123 detects the screen frame straight lines LD1 and LC1 within the detected edge range by using, for example, the least square method or the Hough transform (FIG. 7B). Similarly, the straight line detection unit 123 connects the measurement points D4 and A1, the measurement points A1 and B2, and the measurement points B2 and C3 to create line segments, and generates two screen frame straight lines for one screen frame. To detect. In this way, the straight line detection unit 123 detects a total of eight screen frame straight lines.

直線検出部123が8本のスクリーン枠直線を検出すると、座標変換部124は、カメラ座標における8本のスクリーン枠直線を、ステップS130で算出された座標変換係数を用いて、パネル座標におけるスクリーン枠直線へと変換する(ステップS160)。図8は、スクリーン枠直線をカメラ座標からパネル座標へと変換する方法について説明するための図である。図8(A)には、ステップS150において検出されたカメラ座標におけるスクリーン枠直線LA1、LA2、LB1、LB2、LC1、LC2、LD1、LD2を示している。座標変換部124は、カメラ座標におけるスクリーン枠直線LA1、LA2を、ステップS130において算出した座標変換係数Aを用いて射影変換を行うことで、パネル座標におけるスクリーン枠直線LA1i、LA2iへと変換する。座標変換部124は、同様に座標変換係数Bを用いてスクリーン枠直線LB1、LB2を、座標変換係数Cを用いてスクリーン枠直線LC1、LC2を、座標変換係数Dを用いてスクリーン枠直線LD1、LD2を、パネル座標におけるスクリーン枠直線へとそれぞれ変換する。こうすることで、それぞれのスクリーン枠直線に、より近接する4つの測定点によって算出された座標変換係数を用いて、スクリーン枠直線がカメラ座標からパネル座標へと変換される。   When the straight line detection unit 123 detects eight screen frame straight lines, the coordinate conversion unit 124 converts the eight screen frame straight lines in the camera coordinates to the screen frame in the panel coordinates using the coordinate conversion coefficient calculated in step S130. Conversion into a straight line (step S160). FIG. 8 is a diagram for explaining a method of converting a screen frame straight line from camera coordinates to panel coordinates. FIG. 8A shows screen frame straight lines LA1, LA2, LB1, LB2, LC1, LC2, LD1, and LD2 at the camera coordinates detected in step S150. The coordinate conversion unit 124 converts the screen frame straight lines LA1 and LA2 in the camera coordinates into screen frame straight lines LA1i and LA2i in the panel coordinates by performing projective conversion using the coordinate conversion coefficient A calculated in step S130. Similarly, the coordinate conversion unit 124 uses the coordinate conversion coefficient B to convert the screen frame straight lines LB1 and LB2, the coordinate conversion coefficient C to the screen frame straight lines LC1 and LC2, and the coordinate conversion coefficient D to the screen frame straight line LD1. LD2 is converted into a screen frame straight line in panel coordinates. By doing so, the screen frame straight line is converted from the camera coordinates to the panel coordinates using the coordinate conversion coefficients calculated by the four measurement points closer to each screen frame straight line.

カメラ座標におけるスクリーン枠直線がパネル座標におけるスクリーン枠直線へと変換されると、補正値算出部125は、台形歪み補正を行うための補正値を算出する(ステップS170)。   When the screen frame straight line in the camera coordinates is converted into the screen frame straight line in the panel coordinates, the correction value calculation unit 125 calculates a correction value for performing trapezoidal distortion correction (step S170).

図9は、補正値を算出する方法を説明するための図である。まず、補正値を算出するためには、図9に示すようにスクリーン枠直線LA1iとLA2iとの交点Vを求めることで、パネル座標におけるスクリーン枠の頂点を求める。同様に、スクリーン枠直線LB1iとLB2との交点、スクリーン枠直線LC1iとLC2iとの交点、スクリーン枠直線LD1iとLD2iとの交点を求めることで、パネル座標におけるスクリーン枠の頂点をそれぞれ求める。そして、求めた頂点の座標から、周知の方法(射影変換)により入力画像に台形歪み補正をするための補正値(例えば射影変換係数)を算出する。算出された補正値は、RAM175に格納される。   FIG. 9 is a diagram for explaining a method of calculating a correction value. First, in order to calculate the correction value, the vertex of the screen frame in the panel coordinates is obtained by obtaining the intersection V of the screen frame straight lines LA1i and LA2i as shown in FIG. Similarly, the vertex of the screen frame in the panel coordinates is obtained by obtaining the intersection of the screen frame straight lines LB1i and LB2, the intersection of the screen frame straight lines LC1i and LC2i, and the intersection of the screen frame straight lines LD1i and LD2i. Then, a correction value (for example, a projective transformation coefficient) for correcting the trapezoidal distortion of the input image is calculated from the obtained vertex coordinates by a known method (projective transformation). The calculated correction value is stored in the RAM 175.

補正値が算出されると、歪み補正部126は、算出された補正値を用いて、入力画像に台形歪み補正を行う(ステップS180)。補正値の算出および台形歪み補正は、公知の方法(例えば特開2011−176705号公報に記載の方法)を用いて実行可能である。液晶パネル駆動部132は、入力された画像データに基づいて、液晶パネル130に台形歪み補正を行った入力画像を形成する。これによって、台形歪み補正が行われた画像が、投写光学系150を介してスクリーン30に表示される。   When the correction value is calculated, the distortion correction unit 126 performs trapezoidal distortion correction on the input image using the calculated correction value (step S180). The calculation of the correction value and the trapezoidal distortion correction can be performed using a known method (for example, a method described in JP 2011-176705 A). The liquid crystal panel driving unit 132 forms an input image on the liquid crystal panel 130 that has been subjected to trapezoidal distortion correction based on the input image data. As a result, the image subjected to the trapezoidal distortion correction is displayed on the screen 30 via the projection optical system 150.

一般的に、CCDカメラで撮像した撮像画像に含まれる直線は、CCDカメラの備えるレンズの歪みの影響により、緩やかにカーブして写ることがある。そのため、スクリーン枠SCFの各辺をそれぞれ一本の直線として正確に検出することは難しい。しかし、以上で説明した、本実施形態のプロジェクター10によれば、スクリーン枠SCFを、スクリーン30の隅ごとに2本ずつ、合計8本の直線として検出する。そのため撮像画像において、CCDカメラの備えるレンズ歪みの影響を受けて湾曲しやすいスクリーン30の隅部分の直線を、より正確に検出することができる。したがって、このような直線をパネル座標に変換することで、スクリーン30の形状を精度良く検出することができる。   In general, a straight line included in a captured image captured by a CCD camera may be gently curved due to the influence of lens distortion of the CCD camera. Therefore, it is difficult to accurately detect each side of the screen frame SCF as one straight line. However, according to the projector 10 of the present embodiment described above, the screen frame SCF is detected as a total of eight straight lines, two for each corner of the screen 30. Therefore, in the captured image, a straight line at the corner portion of the screen 30 that is easily bent due to the influence of lens distortion included in the CCD camera can be detected more accurately. Therefore, the shape of the screen 30 can be detected with high accuracy by converting such a straight line into panel coordinates.

また、8本のスクリーン枠直線は、スクリーン30の隅近傍に投写された測定点の撮像画像(パターン画像)で作製される線分から、スクリーン枠方向にエッジ検出を行うことで検出できる。そのため、投写した黒画像全体に対してエッジ検出を行う場合に比べて、短時間で8本の直線を検出することができる。さらに、本実施形態では、スクリーン30の隅ごとに座標変換係数を算出する。そのため、測定用パターンPT1を投写した投写レンズ152の歪みと、CCDカメラの備えるレンズの歪みの影響を受けやすいスクリーン30の隅と液晶パネル130の隅の座標の変換を、より正確に行うことができる。この結果、精度良く台形歪み補正を行うことができる。   Further, the eight screen frame straight lines can be detected by performing edge detection in the screen frame direction from the line segment created by the captured image (pattern image) of the measurement point projected near the corner of the screen 30. Therefore, it is possible to detect eight straight lines in a short time compared to the case where edge detection is performed on the entire projected black image. Furthermore, in this embodiment, a coordinate conversion coefficient is calculated for each corner of the screen 30. Therefore, the coordinates of the corners of the screen 30 and the corner of the liquid crystal panel 130 that are easily affected by the distortion of the projection lens 152 that projects the measurement pattern PT1 and the distortion of the lens of the CCD camera can be more accurately performed. it can. As a result, the keystone distortion can be corrected with high accuracy.

また、本実施形態では検出された8本の直線をパネル座標に変換してからスクリーン枠の頂点を求めるため、パネル座標におけるスクリーン30の形状を精度良く検出することができる。そのため、より精度良く台形歪み補正を行うことができる。   Further, in this embodiment, since the detected eight straight lines are converted into panel coordinates and the vertex of the screen frame is obtained, the shape of the screen 30 at the panel coordinates can be detected with high accuracy. Therefore, the keystone distortion correction can be performed with higher accuracy.

D.自動スクリーン枠補正処理:
次に、自動スクリーン枠補正処理を行う場合について説明する。自動スクリーン枠補正処理とは、プロジェクター10の移動が検知された場合に、自動的に台形歪み補正を行うための処理である。自動スクリーン枠補正処理においても、スクリーン枠直線をスクリーン30の隅ごとに2本ずつ、合計8本検出する点や、スクリーン30の隅ごとに座標変換係数を算出する点においては、上述した初期スクリーン枠補正処理と同様である。しかし、初期スクリーン枠補正処理においては、測定用パターン(ステップS110)と、黒画像(ステップS140)とを別々に投写していたのに対し、自動スクリーン枠補正処理では、スクリーン枠直線検出用の黒領域と、座標変換係数算出用の測定点との両方を含む測定用パターンを、台形歪み補正後の画像上に重畳して投写する(ステップS50)点が異なる。以下、これらの相違点を中心に、自動スクリーン枠補正処理について説明する。
D. Automatic screen frame correction processing:
Next, a case where automatic screen frame correction processing is performed will be described. The automatic screen frame correction process is a process for automatically correcting trapezoidal distortion when movement of the projector 10 is detected. Also in the automatic screen frame correction processing, the initial screen described above is used in that a total of eight screen frame straight lines are detected for each corner of the screen 30 and a coordinate conversion coefficient is calculated for each corner of the screen 30. This is the same as the frame correction process. However, in the initial screen frame correction process, the measurement pattern (step S110) and the black image (step S140) are separately projected, whereas in the automatic screen frame correction process, the screen frame straight line detection is performed. A difference is that the measurement pattern including both the black region and the measurement point for calculating the coordinate conversion coefficient is projected on the image after the trapezoidal distortion correction (step S50). Hereinafter, the automatic screen frame correction process will be described focusing on these differences.

図10は、自動スクリーン枠補正処理について説明するためのフローチャートである。ユーザーがプロジェクター10を移動させると(ステップS10)、振動検知部129はプロジェクター10の振動(移動)を検知する(ステップS20)。   FIG. 10 is a flowchart for explaining the automatic screen frame correction process. When the user moves the projector 10 (step S10), the vibration detection unit 129 detects the vibration (movement) of the projector 10 (step S20).

振動検知部129が振動を検知すると、CPU160は、以下のステップS50からステップS180の処理を画像処理回路120に実行させる。   When the vibration detection unit 129 detects vibration, the CPU 160 causes the image processing circuit 120 to execute the following processing from step S50 to step S180.

ステップS50では、パターン出力部121はROM170の測定用パターン記憶部171に格納されている測定用パターンPT2を表す画像データを読み出して、スクリーン30に投写する。   In step S <b> 50, the pattern output unit 121 reads out image data representing the measurement pattern PT <b> 2 stored in the measurement pattern storage unit 171 of the ROM 170 and projects it on the screen 30.

図11は、ステップS50において、液晶パネル130に形成される測定用パターンPT2の一例を示す図である。図11に示す測定用パターンPT2は、角部に4点の測定点を備えるL字型黒領域AL、BL、CL、DLを、液晶パネル130のそれぞれの隅に有している。L字型黒領域AL、BL、CL、DLの交差する2本の直線領域部分は、液晶パネル130の画像形成領域の内側から外側に向かって伸びている。図11に斜線で示した領域は、歪み補正後の入力画像が表示される領域である。ステップS50の初回の実行では、初期スクリーン枠補正処理によって算出された台形歪み補正後の入力画像Nが表示される。図11に示すように、本実施形態では、歪み補正後の入力画像に対して、測定用パターンPT2が重畳して表示される。また、図11において、台形歪み補正後の入力画像Nの外側のクロスハッチングで表示した領域は、背景領域Hであり、実際は黒色で塗りつぶされているものとする。   FIG. 11 is a diagram illustrating an example of the measurement pattern PT2 formed on the liquid crystal panel 130 in step S50. A measurement pattern PT2 shown in FIG. 11 has L-shaped black areas AL, BL, CL, DL having four measurement points at the corners at the respective corners of the liquid crystal panel 130. Two straight line area portions where the L-shaped black areas AL, BL, CL, DL intersect each other extend from the inside to the outside of the image forming area of the liquid crystal panel 130. A region indicated by hatching in FIG. 11 is a region where an input image after distortion correction is displayed. In the first execution of step S50, the input image N after the trapezoidal distortion correction calculated by the initial screen frame correction process is displayed. As shown in FIG. 11, in the present embodiment, the measurement pattern PT2 is superimposed and displayed on the input image after distortion correction. In FIG. 11, it is assumed that an area displayed by cross-hatching outside the input image N after the trapezoidal distortion correction is a background area H, which is actually filled with black.

測定用パターンPT2が投写されると、初期スクリーン枠補正処理と同様に、パターン検出部122は、撮像されたパターン画像から測定点を検出し(ステップS120)、座標変換部124は、それぞれの隅ごとに座標変換係数を算出する(ステップS130)。直線検出部123は、L字型黒領域の備える測定点側から、スクリーン枠SCF方向に向かってエッジ検出を行い、スクリーン枠直線をそれぞれの隅について2本、合計8本検出する(ステップS155)。こうしてスクリーン枠直線と座標変換係数が算出されると、初期スクリーン枠補正処理と同様に、スクリーン枠直線がカメラ座標からパネル座標に変換され(ステップS160)、補正値が算出される(ステップS170)。そして、この補正値に応じて、入力画像の台形歪み補正が行われる(ステップS180)。   When the measurement pattern PT2 is projected, like the initial screen frame correction process, the pattern detection unit 122 detects a measurement point from the captured pattern image (step S120), and the coordinate conversion unit 124 detects each corner. A coordinate conversion coefficient is calculated for each step (step S130). The straight line detection unit 123 performs edge detection from the measurement point side included in the L-shaped black region toward the screen frame SCF, and detects two screen frame straight lines for each corner, for a total of eight lines (step S155). . When the screen frame straight line and the coordinate conversion coefficient are thus calculated, the screen frame straight line is converted from the camera coordinates to the panel coordinates as in the initial screen frame correction process (step S160), and the correction value is calculated (step S170). . Then, the keystone correction of the input image is performed according to the correction value (step S180).

次に、CPU160は振動検知部129による振動の検知結果に応じて、プロジェクター10が静止して一定時間経過したか否かを判断する(ステップS185)。プロジェクター10が静止して、一定時間が経過していない場合には(ステップS185:No)、再度ステップS50からステップS180が実行される。そのため、パターン出力部121により、現在表示している台形歪み補正後の入力画像に対して、測定用パターンPT2が重畳される。そして、新たに補正値が求められると、現在表示している台形歪み補正後の入力画像は、更新された台形歪み補正後の入力画像へと置き換わる。このようにユーザーが、プロジェクター10を移動させつづけると、ステップS50からステップS180が繰り返し実行され、補正値が算出されて、更新された台形歪み補正後の入力画像が表示される。つまり、スクリーン30には、台形歪み補正後の入力画像Nが、リアルタイムに次々と変化して表示されることになる。   Next, the CPU 160 determines whether or not a fixed time has elapsed since the projector 10 was stationary according to the vibration detection result by the vibration detection unit 129 (step S185). When the projector 10 is stationary and a predetermined time has not elapsed (step S185: No), steps S50 to S180 are executed again. Therefore, the pattern output unit 121 superimposes the measurement pattern PT2 on the currently displayed input image after the trapezoidal distortion correction. When a new correction value is obtained, the currently displayed input image after the trapezoidal distortion correction is replaced with the updated input image after the trapezoidal distortion correction. When the user continues to move the projector 10 in this way, Step S50 to Step S180 are repeatedly executed, the correction value is calculated, and the updated input image after the keystone distortion correction is displayed. That is, the input image N after the trapezoidal distortion correction is displayed on the screen 30 while changing one after another in real time.

CPU160は、プロジェクター10が静止してから所定時間が経過したと判断すると、(ステップS185:Yes)、パターン出力部121に測定用パターンPT2の出力を停止させ、映像に重畳されていた測定用パターンPT2を消去する(ステップS190)。   If the CPU 160 determines that a predetermined time has elapsed since the projector 10 was stopped (step S185: Yes), the CPU 160 causes the pattern output unit 121 to stop outputting the measurement pattern PT2, and the measurement pattern superimposed on the video image. PT2 is erased (step S190).

以上で説明した、プロジェクター10による自動スクリーン枠補正処理によれば、スクリーン枠SCFをスクリーン30の隅ごとに2本ずつ、合計8本の直線として検出して、それぞれの隅に対応する座標変換係数を用いて補正を行うので、上述の初期スクリーン枠補正処理と同様の効果を奏する。また、台形歪み補正後の入力画像に重畳する測定用パターンは、図11に示すように測定点を有する黒領域であり、台形歪み補正後の入力画像の一部を覆うのみである。そのため、ユーザーは、リアルタイムで、台形歪み補正後の入力画像を確認しながら、適切にプロジェクター10を設置することができる。さらに、プロジェクター10が動いたとしても歪み補正後の入力画像が引き続きリアルタイムに表示されるので、視聴が遮られることが無く、ユーザーに与えるストレスが軽減される。   According to the automatic screen frame correction processing by the projector 10 described above, two screen frames SCF are detected for each corner of the screen 30 as a total of eight straight lines, and coordinate conversion coefficients corresponding to the respective corners are detected. Since the correction is performed using the above, the same effect as the above-described initial screen frame correction process is obtained. Further, the measurement pattern to be superimposed on the input image after trapezoidal distortion correction is a black region having measurement points as shown in FIG. 11, and only covers a part of the input image after trapezoidal distortion correction. Therefore, the user can appropriately install the projector 10 in real time while confirming the input image after the trapezoidal distortion correction. Furthermore, even if the projector 10 moves, the input image after distortion correction is continuously displayed in real time, so that viewing is not interrupted and stress applied to the user is reduced.

E.変形例:
以上、本発明の一実施形態について説明したが、本発明はこのような実施形態に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができる。
E. Variations:
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to such Embodiment, A various structure can be taken in the range which does not deviate from the meaning.

E1.変形例1:
上述の初期スクリーン枠補正処理におけるステップS110、および自動スクリーン枠補正処理におけるステップS50で使用される測定用パターンは、4点の測定点を有するパターン領域を4つ備えることで、合わせて16点の測定点を有している。しかし、測定用パターンの有する測定点の数は、これに限られず、合わせて4点以上であればよい。測定点が4点以上あれば、カメラ座標からパネル座標への射影変換を行うための座標変換係数を算出することができる。例えば、各測定領域に1つの測定点を有することとしてもよいし、4点の測定点を備える1つの測定領域からなる測定用パターンであってもよい。また、測定点の形状は、画像処理により検出可能な形状であれば、例えば四角形状や十字形状などであってもよい。さらに、初期スクリーン枠補正処理におけるステップS110では、測定点を検出可能であれば、黒領域部分を備えない測定点のみを有する測定用パターンを使用することもできる。
E1. Modification 1:
The measurement pattern used in step S110 in the initial screen frame correction process and in step S50 in the automatic screen frame correction process includes four pattern areas having four measurement points, so that a total of 16 points are obtained. Has measuring points. However, the number of measurement points included in the measurement pattern is not limited to this, and may be four or more in total. If there are four or more measurement points, a coordinate conversion coefficient for performing projective conversion from camera coordinates to panel coordinates can be calculated. For example, it is good also as having one measurement point in each measurement area | region, and the pattern for a measurement which consists of one measurement area | region provided with four measurement points may be sufficient. The shape of the measurement point may be, for example, a square shape or a cross shape as long as it can be detected by image processing. Furthermore, in step S110 in the initial screen frame correction process, if a measurement point can be detected, a measurement pattern having only a measurement point that does not include a black region portion can be used.

E2.変形例2:
上述の初期スクリーン枠補正処理におけるステップS140では、ステップS150でスクリーン枠直線を検出するために、全面黒画像を投写しているが、投写する黒画像は全面黒画像でなくともよい。図12は、ステップS140において、スクリーン枠直線を検出するために投写する黒画像の例を示す図である。例えば図12(A)に示す黒画像PT3のように、表示画像の黒領域がスクリーン枠SCFと重なるように、中央に例えば背景領域を有し、外周に黒領域Kを有する黒画像であってもよい。また、図12(B)に示す黒画像PT4のように、液晶パネル130のそれぞれの隅に、黒領域Ka、Kb、Kc、Kdを有する黒画像であってもよい。また、上述の初期スクリーン枠補正処理および自動スクリーン枠補正処理で説明した黒領域(L字型黒領域や黒画像を含む)は、完全な黒に限定されない。例えば、色にかかわらず輝度が低い(例えば0%から10%の輝度)領域でもよい。
E2. Modification 2:
In step S140 in the above-described initial screen frame correction processing, the entire black image is projected in order to detect the screen frame straight line in step S150. However, the black image to be projected may not be the entire black image. FIG. 12 is a diagram illustrating an example of a black image projected to detect a screen frame straight line in step S140. For example, a black image having a background area at the center and a black area K on the outer periphery so that the black area of the display image overlaps the screen frame SCF, such as a black image PT3 shown in FIG. Also good. Further, a black image having black areas Ka, Kb, Kc, and Kd at the respective corners of the liquid crystal panel 130 may be used like a black image PT4 shown in FIG. Further, the black area (including the L-shaped black area and the black image) described in the above initial screen frame correction process and automatic screen frame correction process is not limited to complete black. For example, it may be a region where the luminance is low regardless of the color (for example, luminance of 0% to 10%).

E3.変形例3:
上述の初期スクリーン枠補正処理におけるステップS150では、直線検出部123は測定点を結んで作製される線分C3D4を3等分して、その幅をスクリーン枠SCF方向に対してエッジ検出を行っているが(図7参照)、エッジ検出を行う幅はこれに限られない。エッジ検出を行う幅は任意に設定可能である。
E3. Modification 3:
In step S150 in the initial screen frame correction process described above, the straight line detection unit 123 divides the line segment C3D4 formed by connecting the measurement points into three equal parts, and performs edge detection with respect to the width of the screen frame SCF. However, the width for edge detection is not limited to this. The width for edge detection can be set arbitrarily.

E4.変形例4:
上述のスクリーン枠補正処理においては、スクリーン枠直線をカメラ座標からパネル座標へと変換した後に直線の交点を求めているが、カメラ座標上で直線の交点を求めてから、その交点を座標変換係数を用いてパネル座標へ変換して、枠の頂点を求めてもよい。
E4. Modification 4:
In the screen frame correction process described above, the intersection of the straight lines is obtained after converting the screen frame straight line from the camera coordinates to the panel coordinates. After obtaining the intersection point of the straight lines on the camera coordinates, the intersection point is converted into a coordinate conversion coefficient. May be converted into panel coordinates to obtain the vertex of the frame.

E5.変形例5:
スクリーン30の設置状況によっては、照明がスクリーン30に対して写りこんだり、スクリーン枠の色が部分的に異なったりすることにより、エッジ検出によっては8本のスクリーン枠直線を検出できない場合がある。このような場合においても、プロジェクター10は、上述のスクリーン枠補正処理を行うことができる。図13は、エッジ検出により8本のスクリーン枠直線の一部が検出されない場合の処理について説明するための図である。図13(A)に示すパネル画像では、スクリーン枠直線LA1iと交差する関係にあるはずのスクリーン枠直線LA2i(図8(A)参照)が検出されていない。このような場合、直線検出部123は、スクリーン枠直線LA2iと同一のスクリーン枠SCF上にあると推定されるスクリーン枠直線LD2iを延長して、検出されなかったスクリーン枠直線LA2iを補完する(図13(B))。上述のスクリーン枠補正処理においては、スクリーン枠直線を8本に分けて検出しているため、このように検出されないスクリーン枠直線が存在しても、近似すると推定されるスクリーン枠直線で補完することができる。そのため、枠画像において検出されない直線が存在しても、台形歪み補正を行うことができる。
E5. Modification 5:
Depending on the installation state of the screen 30, the lighting may be reflected on the screen 30 or the color of the screen frame may be partially different, so that eight screen frame straight lines may not be detected by edge detection. Even in such a case, the projector 10 can perform the above-described screen frame correction processing. FIG. 13 is a diagram for explaining processing when a part of eight screen frame straight lines is not detected by edge detection. In the panel image shown in FIG. 13A, the screen frame straight line LA2i (see FIG. 8A) that should have a relationship intersecting the screen frame straight line LA1i is not detected. In such a case, the straight line detection unit 123 extends the screen frame straight line LD2i estimated to be on the same screen frame SCF as the screen frame straight line LA2i, and complements the screen frame straight line LA2i that has not been detected (FIG. 13 (B)). In the above-described screen frame correction processing, the screen frame straight lines are detected by dividing them into eight, so even if there are screen frame straight lines that are not detected in this way, the screen frame straight lines that are estimated to be approximated are complemented. Can do. Therefore, trapezoidal distortion correction can be performed even if there is a straight line that is not detected in the frame image.

なお、同一のスクリーン枠SCF上にあると推定されるスクリーン枠直線LA2iとスクリーン枠直線LD2iの2本ともに検出できない場合には、特開2010−05042や、特開2008−211355に示されるような公知の方法で2本のスクリーン枠直線を補完することとしてもよい。この方法を用いれば、8本のスクリーン枠直線のうち少なくとも1本の直線が検出できればよいため、直線の検出の成功率が向上する。   In the case where it is not possible to detect both the screen frame straight line LA2i and the screen frame straight line LD2i that are estimated to be on the same screen frame SCF, as shown in Japanese Patent Application Laid-Open Nos. 2010-05042 and 2008-212355. It is good also as complementing two screen frame straight lines by a well-known method. If this method is used, it is only necessary to detect at least one straight line out of the eight screen frame straight lines, and the success rate of straight line detection is improved.

E6.変形例6:
図14は、直線検出部123が、枠画像のエッジ検出に際してスクリーン枠直線を誤検出した場合の処理について説明するための図である。図14(A)に示すパネル画像では、同一のスクリーン枠上にあると推定されるスクリーン枠直線LA2iとスクリーン枠直線LD2iとが離れて検出されている。このようなスクリーン枠直線に基づいて頂点を求めて台形歪み補正を行うと、スクリーン枠と表示画像の各辺とが一致しない可能性がある。このような事態を防ぐため、直線検出部123はまず、同一のスクリーン枠上にあると推定される2本のスクリーン枠直線LA2iとスクリーン枠直線LD2iとの位置および傾きの関係値を求める。例えば、パネル画像における中線Lとそれぞれのスクリーン枠直線との交点を算出して、それぞれの交点間の距離hを算出する(図14(A))。また、直線検出部123は、スクリーン枠直線LA2iの傾きの絶対値m2と、スクリーン枠直線LD2iの傾きの絶対値m1を算出し、その差分の絶対値|m1−m2|を求める。そして、距離hがあらかじめ定めた既定値以下であるか否か、また、傾きの絶対値m1、m2の差分の絶対値|m1−m2|があらかじめ定めた既定値以下であるか否かをそれぞれ判定する。判定の結果、少なくともどちらか一方が既定値以上である場合には、スクリーン枠直線LA2iとスクリーン枠直線LD2iのうち一方の値を破棄する。図14(A)では、スクリーン枠直線LA2iとスクリーン枠直線LD2iとの傾きはほぼ等しいため、|m1−m2|は既定値内であるが、距離hが既定値以上である。直線検出部123は、図14(A)に示すような位置関係にある場合には、より測定点から離れて位置しているスクリーン枠直線LA2iを破棄し、スクリーン枠直線LD2iを延長してスクリーン枠直線LA2iを補完する(図14(B))。
E6. Modification 6:
FIG. 14 is a diagram for describing processing when the straight line detection unit 123 erroneously detects a screen frame straight line when detecting an edge of a frame image. In the panel image shown in FIG. 14A, the screen frame straight line LA2i estimated to be on the same screen frame and the screen frame straight line LD2i are detected separately. If a vertex is obtained based on such a screen frame straight line and trapezoidal distortion correction is performed, there is a possibility that the screen frame does not match each side of the display image. In order to prevent such a situation, the straight line detection unit 123 first obtains a relationship value between the position and inclination of the two screen frame straight lines LA2i and the screen frame straight line LD2i that are estimated to be on the same screen frame. For example, the intersection point between the center line L in the panel image and each screen frame straight line is calculated, and the distance h between the respective intersection points is calculated (FIG. 14A). Further, the straight line detection unit 123 calculates the absolute value m2 of the inclination of the screen frame straight line LA2i and the absolute value m1 of the inclination of the screen frame straight line LD2i, and obtains the absolute value | m1-m2 | of the difference. Whether the distance h is equal to or smaller than a predetermined value and whether the absolute value | m1-m2 | of the difference between the absolute values m1 and m2 of the slope is equal to or smaller than a predetermined value. judge. As a result of the determination, if at least one of the values is equal to or greater than a predetermined value, one of the screen frame straight line LA2i and the screen frame straight line LD2i is discarded. In FIG. 14A, since the slopes of the screen frame straight line LA2i and the screen frame straight line LD2i are substantially equal, | m1-m2 | is within the default value, but the distance h is greater than or equal to the default value. In the case of the positional relationship as shown in FIG. 14A, the straight line detection unit 123 discards the screen frame straight line LA2i located farther from the measurement point and extends the screen frame straight line LD2i to the screen. The frame straight line LA2i is complemented (FIG. 14B).

図15は、直線検出部123が、枠画像のエッジ検出に際してスクリーン枠直線を誤検出した場合の処理について説明するための別の図である。図15(A)に示す、同一のスクリーン枠SCF上にあると推定される2本のスクリーン枠直線LA2iとスクリーン枠直線LD2iの距離hは既定値内であるが、傾きの絶対値m1、m2の差分の絶対値|m1−m2|が既定値以上である。このような場合には直線検出部123は液晶パネル130の画像形成領域の左枠の傾きと、より異なる傾きを有するスクリーン枠直線LA2iを破棄し、スクリーン枠直線LD2iを延長してスクリーン枠直線LA2iを補完する(図15(B))。このように誤検出されたスクリーン枠直線が存在しても、スクリーン枠直線を8本に分けて検出しているため、誤検出された直線を判別して、近似すると推定されるスクリーン枠直線で補完することができる。よって、誤検出があっても、精度良く台形歪み補正を行うことが可能となる。   FIG. 15 is another diagram for explaining processing when the straight line detection unit 123 erroneously detects a screen frame straight line when detecting an edge of a frame image. The distance h between the two screen frame straight lines LA2i estimated to be on the same screen frame SCF and the screen frame straight line LD2i shown in FIG. 15A is within a predetermined value, but the absolute values m1 and m2 of the inclinations. The absolute value of the difference | m1-m2 | In such a case, the straight line detection unit 123 discards the screen frame straight line LA2i having an inclination different from that of the left frame of the image forming area of the liquid crystal panel 130, and extends the screen frame straight line LD2i to extend the screen frame straight line LA2i. Is complemented (FIG. 15B). Even if there is a screen frame straight line that is erroneously detected in this way, the screen frame straight line is detected by dividing it into eight lines. Can be complemented. Therefore, even if there is a false detection, it becomes possible to perform keystone distortion correction with high accuracy.

なお、変形例5および変形例6のスクリーン枠直線の補完処理は、カメラ座標上で行うことも可能であるが、パネル座標上で行うことがより好ましい。プロジェクター10の備えるカメラのレンズの歪みを解消した後に、補完処理を行えばより近似すると推定されるスクリーン枠直線で補完を行うことができるためである。   Note that the screen frame straight line complementation processing of Modification 5 and Modification 6 can be performed on camera coordinates, but is preferably performed on panel coordinates. This is because complementation can be performed with a screen frame straight line that is estimated to be more approximate if the compensation process is performed after the distortion of the camera lens of the projector 10 is eliminated.

E7.変形例7:
上述のステップS180で投写する自動スクリーン枠補正処理により求められる台形歪み補正後の入力画像として、現在の補正値と、現在の補正値を算出する以前に算出した補正値(従前の補正値)との中間の補正値を算出して、その中間の補正値に基づいて台形歪み補正を行った画像を表示することもできる。例えば、まず、第5回目の処理により算出した補正値と第6回目の処理により算出した補正値との中間の補正値を算出する。そして、その中間の補正値に基づいて台形歪み補正を行った画像を表示した後に、第6回目の処理により算出した補正値に基づいて台形歪み補正を行った入力画像を表示することとしてもよい。さらに、中間の補正値を複数(例えば3〜4つ)算出して、それらに基づいて台形歪み補正を行った画像を順に表示した後に、第6回目の補正値に基づいて台形歪み補正を行った入力画像を表示してもよい。また、自動スクリーン枠補正処理を行っている間は、現在の補正値と、現在の補正値を算出する以前に算出した補正値との中間の補正値に基づいて台形歪み補正を行った画像を表示し、自動スクリーン枠補正処理が終わった後に、現在の補正値に基づいて台形歪み補正を行った画像を表示しても良い。こうすることで、入力画像を滑らかに変化させて表示することができるので、ユーザーは台形歪み補正後の入力画像をより違和感なく確認することができる。
E7. Modification 7:
As the input image after the trapezoidal distortion correction obtained by the automatic screen frame correction process projected in step S180 described above, the current correction value, the correction value calculated before calculating the current correction value (the previous correction value), and It is also possible to calculate an intermediate correction value and display an image in which the trapezoidal distortion correction is performed based on the intermediate correction value. For example, first, an intermediate correction value between the correction value calculated by the fifth process and the correction value calculated by the sixth process is calculated. Then, after displaying the image subjected to the trapezoidal distortion correction based on the intermediate correction value, the input image subjected to the trapezoidal distortion correction based on the correction value calculated by the sixth process may be displayed. . Furthermore, after calculating a plurality of intermediate correction values (for example, 3 to 4) and displaying the images in which the trapezoidal distortion correction is performed based on them in sequence, the trapezoidal distortion correction is performed based on the sixth correction value. The input image may be displayed. During the automatic screen frame correction process, an image that has been corrected for trapezoidal distortion based on an intermediate correction value between the current correction value and the correction value calculated before the current correction value is calculated. After the display and the automatic screen frame correction processing is completed, an image that has been subjected to trapezoidal distortion correction based on the current correction value may be displayed. By doing so, the input image can be displayed with a smooth change, so that the user can confirm the input image after the trapezoidal distortion correction more comfortably.

E8.変形例8:
上述のステップS50では、スクリーン枠直線検出用の黒領域と、座標変換係数算出用の測定点との両方を含む測定用パターンを、台形歪み補正後の画像上に重畳して投写しているが、黒領域と、測定点と、台形歪み補正後の画像とを交互に時分割で表示することとしてもよい。また、ステップS50において、測定点を表示し続け、黒領域と台形歪み補正後の画像とを交互に時分割で表示することとしてもよい。
E8. Modification 8:
In step S50 described above, the measurement pattern including both the black area for detecting the screen frame straight line and the measurement point for calculating the coordinate conversion coefficient is superimposed and projected on the image after the trapezoidal distortion correction. The black region, the measurement point, and the image after the trapezoidal distortion correction may be alternately displayed in a time division manner. In step S50, the measurement points may be continuously displayed, and the black area and the image after the trapezoidal distortion correction may be alternately displayed in a time division manner.

E9.変形例9:
上述のステップS185では、所定時間が経過した場合に映像に重畳していた測定用パターンPT2を消去しているが、所定時間は、ステップS155で枠画像から直接スクリーン枠直線が8本検出できなかった場合に、長くするように設定することができる。エッジ検出によりスクリーン枠直線が8本検出できなくとも、上述の変形例で述べたようにスクリーン枠直線を補完することは可能である。しかし、補完したスクリーン枠直線よりも実際に枠画像から検出したスクリーン枠直線のほうが、カメラレンズの歪みの影響を反映しているため、その歪みを解消したより適切な台形歪み補正後の入力画像を算出できる。そのため、スクリーン枠直線が検出できなかった場合は、測定用パターンPT2を入力画像から消去するまでの時間を長くすることで、ユーザーはスクリーン枠直線を枠画像から検出可能な位置に、プロジェクター10を設置しなおすことができる。
E9. Modification 9:
In step S185 described above, the measurement pattern PT2 superimposed on the video when the predetermined time has elapsed is deleted, but eight screen frame straight lines cannot be directly detected from the frame image in step S155 for the predetermined time. Can be set to be longer. Even if eight screen frame straight lines cannot be detected by edge detection, it is possible to complement the screen frame straight lines as described in the above modification. However, since the screen frame straight line actually detected from the frame image reflects the effect of camera lens distortion rather than the complemented screen frame straight line, the input image after correcting the trapezoidal distortion is more appropriate. Can be calculated. Therefore, when the screen frame straight line cannot be detected, the time until the measurement pattern PT2 is erased from the input image is lengthened so that the user places the projector 10 at a position where the screen frame straight line can be detected from the frame image. Can be re-installed.

E10.変形例10:
上述の実施形態では、振動検知部129はプロジェクター10の備えるジャイロセンサーから振動を検知することとしているが、振動検知部129は、ジャイロセンサーに代えて、加速度センサーなど他の振動検知センサーを備えてもよい。また、振動検知部129は、センサーによらず、背景画像の変化を解析することにより、プロジェクター10の振動を検知することとしてもよい。
E10. Modification 10:
In the above-described embodiment, the vibration detection unit 129 detects vibration from the gyro sensor included in the projector 10, but the vibration detection unit 129 includes another vibration detection sensor such as an acceleration sensor instead of the gyro sensor. Also good. Further, the vibration detection unit 129 may detect the vibration of the projector 10 by analyzing a change in the background image without using a sensor.

E11.変形例11:
上述の実施形態において、台形歪み補正後の入力画像Nが表示される領域には、台形歪み補正後の入力画像Nの枠線のみを表す画像や、台形歪み補正後の入力画像Nの枠線内を枠線外の色とは異なる色(例えば白や青など)で塗りつぶした画像などを表示してもよい。これらの画像を表示することとすれば、台形歪み補正を行うための処理負担が軽減されるので、補正後の入力画像の形状を高速に表示することができる。なお、これらの画像は、液晶パネルの画像形成枠と相似形であることが好ましく、同じであることがより好ましい。
E11. Modification 11:
In the above-described embodiment, the area where the input image N after trapezoidal distortion correction is displayed is an image representing only the borderline of the input image N after trapezoidal distortion correction, or the borderline of the input image N after trapezoidal distortion correction. An image in which the inside is painted with a color (for example, white or blue) different from the color outside the frame line may be displayed. If these images are displayed, the processing load for performing the trapezoidal distortion correction is reduced, so that the shape of the input image after correction can be displayed at high speed. These images are preferably similar to the image forming frame of the liquid crystal panel, and more preferably the same.

E12.変形例12:
上述の実施形態におけるプロジェクター10は、初期スクリーン枠補正処理と自動スクリーン枠補正処理とを行うこととしているが、どちらか一方のスクリーン枠補正処理のみを行うこととしてもよい。
E12. Modification 12:
The projector 10 in the above-described embodiment performs the initial screen frame correction process and the automatic screen frame correction process. However, only one of the screen frame correction processes may be performed.

E13.変形例13:
上述の実施形態では、プロジェクター10は、光変調装置として透過型の液晶パネル130を用いた例を説明したが、光変調装置は透過型の液晶パネル130に限定されない。例えば、光変調装置としてデジタル・マイクロミラー・デバイス(DMD:Digital Micro−Mirror Device)や、反射型の液晶パネル等を用いて、照明光学系140からの光を変調する構成にしてもよい。また、小型CRT(陰極線管)上の映像を被投写面に投写するCRTプロジェクターでもよい。
E13. Modification 13:
In the above-described embodiment, the projector 10 has been described using the transmissive liquid crystal panel 130 as the light modulation device. However, the light modulation device is not limited to the transmissive liquid crystal panel 130. For example, a configuration in which light from the illumination optical system 140 is modulated using a digital micro-mirror device (DMD), a reflective liquid crystal panel, or the like as the light modulation device may be used. Also, a CRT projector that projects an image on a small CRT (cathode ray tube) onto a projection surface may be used.

E14.変形例14:
上述の実施形態では、本発明の画像処理装置をプロジェクターに適用したが、図2に示した画像処理回路120を画像処理装置として捉えることも可能である。また、上述の実施形態では、画像処理回路がハードウェア的にスクリーン枠補正処理を行うこととしたが、CPUがプログラムの実行によりソフトウェア的にスクリーン枠補正処理を実行することとしてもよい。
E14. Modification 14:
In the above-described embodiment, the image processing apparatus of the present invention is applied to the projector. However, the image processing circuit 120 shown in FIG. 2 can be regarded as an image processing apparatus. In the above-described embodiment, the image processing circuit performs the screen frame correction processing in hardware. However, the CPU may execute the screen frame correction processing in software by executing a program.

10…プロジェクター
30…スクリーン
102…バス
110…A/D変換部
120…画像処理回路
121…パターン出力部
122…パターン検出部
123…直線検出部
124…座標変換部
125…補正値算出部
126…歪み補正部
129…振動検知部
130…液晶パネル
132…液晶パネル駆動部
140…照明光学系
150…投写光学系
152…投写レンズ
154…レンズ駆動部
160…CPU
170…ROM
171…測定用パターン記憶部
175…RAM
180…リモコン制御部
181…リモコン
190…撮像部
200…ケーブル
A、B、C、D…パターン領域
AL、BL、CL、DL…L字型黒領域
A1、B2、C3、D4…測定点
LA1、LA2、LB1、LB2、LC1、LC2、LD1、LD2、LA1i、LA2i、LB1i、LB2i、LC1i、LC2i、LD1i、LD2i…スクリーン枠直線
K、Ka、Kb、Kc、Kd…黒領域
h…距離
N…台形歪み補正後の入力画像
H…背景領域
V…交点
SCF…スクリーン枠
CF…カメラ枠
L…中線
PF…測定用パターン枠
PT1、PT2…測定用パターン
PT3、PT4…黒画像
DESCRIPTION OF SYMBOLS 10 ... Projector 30 ... Screen 102 ... Bus 110 ... A / D conversion part 120 ... Image processing circuit 121 ... Pattern output part 122 ... Pattern detection part 123 ... Straight line detection part 124 ... Coordinate conversion part 125 ... Correction value calculation part 126 ... Distortion Correction unit 129 ... Vibration detection unit 130 ... Liquid crystal panel 132 ... Liquid crystal panel drive unit 140 ... Illumination optical system 150 ... Projection optical system 152 ... Projection lens 154 ... Lens drive unit 160 ... CPU
170 ... ROM
171 ... Pattern storage unit for measurement 175 ... RAM
180 ... remote control unit 181 ... remote control 190 ... imaging unit 200 ... cable A, B, C, D ... pattern area AL, BL, CL, DL ... L-shaped black area A1, B2, C3, D4 ... measurement point LA1, LA2, LB1, LB2, LC1, LC2, LD1, LD2, LA1i, LA2i, LB1i, LB2i, LC1i, LC2i, LD1i, LD2i ... Screen frame straight lines K, Ka, Kb, Kc, Kd ... Black regions h ... Distance N ... Input image after trapezoidal distortion correction H ... Background region V ... Intersection SCF ... Screen frame CF ... Camera frame L ... Middle line PF ... Measurement pattern frame PT1, PT2 ... Measurement pattern PT3, PT4 ... Black image

Claims (9)

画像処理装置であって、
光変調装置を有する投写部から被投写面に投写された所定の形状を有するパターンが撮像されたパターン画像に基づいて前記パターンを検出するパターン検出部と、
前記被投写面の枠の少なくとも一部が撮像された枠の画像に基づいて、前記被投写面の隅ごとに交差する関係にある2本の直線をそれぞれ検出する直線検出部と、
前記光変調装置における前記パターンの座標と、前記パターン画像から検出された前記パターンの座標とに基づいて、撮像された画像における座標を前記光変調装置における座標に変換するための座標変換係数を算出する座標変換係数算出部と、
前記隅ごとに前記検出された2本の直線と前記座標変換係数とに基づいて前記枠の頂点を求め、該頂点に基づき台形歪み補正を行うための補正値を算出する補正値算出部と、
を備える、画像処理装置。
An image processing apparatus,
A pattern detection unit that detects the pattern based on a pattern image in which a pattern having a predetermined shape projected on the projection surface is projected from the projection unit having the light modulation device;
A straight line detection unit that detects two straight lines that intersect each corner of the projection surface based on an image of a frame in which at least a part of the frame of the projection surface is captured;
Based on the coordinates of the pattern in the light modulation device and the coordinates of the pattern detected from the pattern image, a coordinate conversion coefficient for converting coordinates in the captured image into coordinates in the light modulation device is calculated. A coordinate conversion coefficient calculation unit for
A correction value calculation unit for obtaining a vertex of the frame based on the two detected straight lines for each corner and the coordinate transformation coefficient, and calculating a correction value for performing trapezoidal distortion correction based on the vertex;
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、
前記パターンは前記光変調装置の隅ごとに位置し、
前記座標変換係数算出部は、前記被投写面の隅ごとにそれぞれ前記座標変換係数を算出し、
前記補正値算出部は、検出された前記被投写面の隅ごとに交差する関係にある2本の直線と、該隅に対応する前記座標変換係数とに基づいて、前記頂点を求める、画像処理装置。
The image processing apparatus according to claim 1,
The pattern is located at each corner of the light modulation device,
The coordinate conversion coefficient calculation unit calculates the coordinate conversion coefficient for each corner of the projection surface,
The correction value calculating unit obtains the vertex based on two detected straight lines intersecting each corner of the projection surface and the coordinate conversion coefficient corresponding to the corner. apparatus.
請求項1または請求項2に記載の画像処理装置であって、
前記直線検出部は、前記被投写面の1つの枠辺上にある2本の直線のうち1の直線が検出されない場合には、他の1の直線に基づいて前記検出されない直線を推定する、画像処理装置。
The image processing apparatus according to claim 1 or 2,
The straight line detection unit estimates the undetected straight line based on another straight line when one straight line is not detected from two straight lines on one frame side of the projection surface. Image processing device.
請求項1から請求項3までのいずれか一の請求項記載の画像処理装置であって、
前記直線検出部は、前記被投写面の1つの枠辺上にあると推定される検出された2本の直線の位置の関係および傾きの関係の少なくとも一方の関係が所定の関係を満たさない場合には、検出された2本のうちの一方の直線を破棄し、他方の直線に基づいて一方の直線を推定する、画像処理装置。
An image processing apparatus according to any one of claims 1 to 3, wherein
When the straight line detection unit does not satisfy a predetermined relationship at least one of the relationship between the positions of two detected straight lines estimated to be on one frame side of the projection surface and the relationship between the inclinations An image processing apparatus that discards one of the detected two straight lines and estimates one straight line based on the other straight line.
請求項4記載の画像処理装置であって、
前記直線検出部は、前記位置の関係が前記所定の関係を満たさない場合には、前記検出された2本の直線のうち前記パターンとの距離が遠い直線を破棄し、前記パターンとの距離が近い直線に基づいて前記一方の直線を推定する、画像処理装置。
The image processing apparatus according to claim 4,
If the relationship between the positions does not satisfy the predetermined relationship, the straight line detection unit discards a straight line that is far from the pattern among the two detected straight lines, and the distance from the pattern is An image processing apparatus that estimates the one straight line based on a close straight line.
請求項4または請求項5に記載の画像処理装置であって、
前記直線検出部は、前記傾きの関係が所定の関係を満たさない場合には、前記検出された2本の直線のうち前記検出された2本の直線が存在すると推定される枠辺との傾きがより異なる直線を破棄し、前記枠辺との傾きがより近い直線に基づいて前記一方の直線を推定する、画像処理装置。
The image processing apparatus according to claim 4 or 5, wherein
The straight line detector, when the relationship between the tilts does not satisfy a predetermined relationship, the tilt between the detected two straight lines and the frame side estimated to be the two detected straight lines An image processing apparatus that discards a straight line that differs from each other and estimates the one straight line based on a straight line that is closer in inclination to the frame side.
請求項1から請求項6までのいずれか一の請求項記載の画像処理装置であって、
前記補正値算出部は、前記直線検出部が前記隅ごとに前記検出された2本の直線を前記光変調装置における座標に変換した後に、前記枠の頂点を求める、画像処理装置。
An image processing apparatus according to any one of claims 1 to 6, wherein
The image processing apparatus, wherein the correction value calculation unit obtains the apex of the frame after the straight line detection unit converts the two detected straight lines for each corner into coordinates in the light modulation device.
請求項1から請求項7までのいずれか一の請求項記載の画像処理装置と、台形歪み補正部と、前記投写部と、を備えるプロジェクター。   A projector comprising: the image processing device according to any one of claims 1 to 7, a trapezoidal distortion correction unit, and the projection unit. 画像処理方法であって、
光変調装置を有する投写部から被投写面に投写された所定の形状を有するパターンが撮像されたパターン画像に基づいて前記パターンを検出する工程と、
被投写面の枠の少なくとも一部が撮像された枠画像に基づいて、前記被投写面の隅ごとに交差する関係にある2本の直線をそれぞれ検出する工程と、
前記光変調装置における前記パターンの座標と、前記パターン画像から検出された前記パターンの座標とに基づいて、撮像された画像における座標を前記光変調装置における座標に変換するための座標変換係数を算出する工程と、
前記隅ごとに前記検出された2本の直線と前記座標変換係数とに基づいて前記枠の頂点を求め、該頂点に基づき台形歪み補正を行うための補正値を算出する工程と、を備える、画像処理方法。
An image processing method comprising:
Detecting the pattern based on a pattern image in which a pattern having a predetermined shape projected on a projection surface is projected from a projection unit having a light modulation device;
Detecting two straight lines in a relationship intersecting each corner of the projection surface based on a frame image obtained by capturing at least a part of the frame of the projection surface;
Based on the coordinates of the pattern in the light modulation device and the coordinates of the pattern detected from the pattern image, a coordinate conversion coefficient for converting coordinates in the captured image into coordinates in the light modulation device is calculated. And a process of
Obtaining a vertex of the frame based on the two detected straight lines and the coordinate transformation coefficient for each corner, and calculating a correction value for performing trapezoidal distortion correction based on the vertex, and Image processing method.
JP2012051925A 2012-03-08 2012-03-08 Image processing apparatus, image processing method, and projector Active JP5970873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012051925A JP5970873B2 (en) 2012-03-08 2012-03-08 Image processing apparatus, image processing method, and projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012051925A JP5970873B2 (en) 2012-03-08 2012-03-08 Image processing apparatus, image processing method, and projector

Publications (2)

Publication Number Publication Date
JP2013187764A true JP2013187764A (en) 2013-09-19
JP5970873B2 JP5970873B2 (en) 2016-08-17

Family

ID=49388830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012051925A Active JP5970873B2 (en) 2012-03-08 2012-03-08 Image processing apparatus, image processing method, and projector

Country Status (1)

Country Link
JP (1) JP5970873B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019203002A1 (en) * 2018-04-17 2019-10-24 ソニー株式会社 Information processing device and method
WO2021103347A1 (en) * 2019-11-27 2021-06-03 成都极米科技股份有限公司 Projector keystone correction method, apparatus, and system, and readable storage medium
CN112995624A (en) * 2021-02-23 2021-06-18 峰米(北京)科技有限公司 Trapezoidal error correction method and device for projector

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206800A (en) * 2008-02-27 2009-09-10 Seiko Epson Corp Image processing apparatus, projector and image processing method
JP2009239638A (en) * 2008-03-27 2009-10-15 Seiko Epson Corp Method for correcting distortion of image projected by projector, and projector
JP2010050540A (en) * 2008-08-19 2010-03-04 Seiko Epson Corp Projection display apparatus, and display method
JP2010273289A (en) * 2009-05-25 2010-12-02 Seiko Epson Corp Electronic information board system, computer terminal, and calibration method
JP2011199717A (en) * 2010-03-23 2011-10-06 Seiko Epson Corp Projection type display device and image display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206800A (en) * 2008-02-27 2009-09-10 Seiko Epson Corp Image processing apparatus, projector and image processing method
JP2009239638A (en) * 2008-03-27 2009-10-15 Seiko Epson Corp Method for correcting distortion of image projected by projector, and projector
JP2010050540A (en) * 2008-08-19 2010-03-04 Seiko Epson Corp Projection display apparatus, and display method
JP2010273289A (en) * 2009-05-25 2010-12-02 Seiko Epson Corp Electronic information board system, computer terminal, and calibration method
JP2011199717A (en) * 2010-03-23 2011-10-06 Seiko Epson Corp Projection type display device and image display method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019203002A1 (en) * 2018-04-17 2019-10-24 ソニー株式会社 Information processing device and method
US11240475B2 (en) 2018-04-17 2022-02-01 Sony Corporation Information processing apparatus and method
WO2021103347A1 (en) * 2019-11-27 2021-06-03 成都极米科技股份有限公司 Projector keystone correction method, apparatus, and system, and readable storage medium
CN112995624A (en) * 2021-02-23 2021-06-18 峰米(北京)科技有限公司 Trapezoidal error correction method and device for projector
CN112995624B (en) * 2021-02-23 2022-11-08 峰米(北京)科技有限公司 Trapezoidal error correction method and device for projector

Also Published As

Publication number Publication date
JP5970873B2 (en) 2016-08-17

Similar Documents

Publication Publication Date Title
JP6015037B2 (en) Image processing apparatus, image processing method, and projector
JP3994290B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP3925521B2 (en) Keystone correction using part of the screen edge
JP5266953B2 (en) Projection display apparatus and display method
JP5266954B2 (en) Projection display apparatus and display method
JP3871061B2 (en) Image processing system, projector, program, information storage medium, and image processing method
US9723281B2 (en) Projection apparatus for increasing pixel usage of an adjusted projection area, and projection method and program medium for the same
JP6244638B2 (en) Projection apparatus, projection method, and projection program
JP5910157B2 (en) Image projection device
JP2020112711A (en) Method for controlling projector, projector, and projection system
US20070188830A1 (en) Document imager, document stillness detection method, and computer program product
JP5239611B2 (en) Projection display apparatus and image correction method
JP5541031B2 (en) Projector and projector control method
JP5970873B2 (en) Image processing apparatus, image processing method, and projector
US9830842B2 (en) Display apparatus for performing control to change a position on an image where an additional image is superimposed
JP6205755B2 (en) Projector apparatus, projector system, projector control method, and projector control program
JPWO2017179111A1 (en) Display system and information processing method
US10657622B2 (en) Controlling projected image frame rate in response to determined projection surface curvature
JP2011199717A (en) Projection type display device and image display method
JP3882927B2 (en) Image processing system, projector, and image processing method
US9615070B2 (en) Video signal processing device and projection-type display device
JP6064699B2 (en) Image processing apparatus, projector, and image processing method
US20230230282A1 (en) Information processing apparatus, information processing method, image capturing apparatus, storage medium
JP5565500B2 (en) Projection display apparatus, control method therefor, and control program therefor
JP2012114689A (en) Projector and control method of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160627

R150 Certificate of patent or registration of utility model

Ref document number: 5970873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150