JP2014187515A - Projector and control method therefor - Google Patents

Projector and control method therefor Download PDF

Info

Publication number
JP2014187515A
JP2014187515A JP2013060482A JP2013060482A JP2014187515A JP 2014187515 A JP2014187515 A JP 2014187515A JP 2013060482 A JP2013060482 A JP 2013060482A JP 2013060482 A JP2013060482 A JP 2013060482A JP 2014187515 A JP2014187515 A JP 2014187515A
Authority
JP
Japan
Prior art keywords
image
unit
normal vector
projection
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013060482A
Other languages
Japanese (ja)
Other versions
JP6221287B2 (en
Inventor
Shiki Furui
志紀 古井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013060482A priority Critical patent/JP6221287B2/en
Publication of JP2014187515A publication Critical patent/JP2014187515A/en
Application granted granted Critical
Publication of JP6221287B2 publication Critical patent/JP6221287B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a measurement error of a normal vector on a projection surface.SOLUTION: A projector includes: a projection unit for projecting an image indicated by a video signal on the projection surface through a lens; an imaging unit for imaging the projection surface on which the image is projected by the projection unit; and a calculation unit for calculating the normal vector on the projection screen in an unknown state of a tertial rotation matrix, indicative of relative rotation of an optical axis of the imaging unit relative to the optical axis of the lens. The projection unit includes an optical modulator for modulating light according to the video signal. The calculation unit calculates the normal vector on the basis of a first conversion matrix for performing projective transformation of the image at the optical modulator into an imaged image taken by the imaging unit.

Description

本発明は、プロジェクター及びプロジェクターの制御方法に関する。   The present invention relates to a projector and a projector control method.

プロジェクターにより画像が投射される投射面の傾きを、三角測量を利用して測定する技術が知られている。特許文献1には、投射面に投射された三点のポイントをデジタルカメラで撮像し、投射光軸の投射面に対する傾斜角度を垂直方向と水平方向とについて算出することが記載されている。特許文献2には、同一の対象点を複数のカメラで撮像し、各撮像素子面上における対象点の物理的な位置から、対象点の3次元の位置を検出することが記載されている。   A technique for measuring the inclination of a projection surface on which an image is projected by a projector using triangulation is known. Patent Document 1 describes that three points projected on a projection surface are imaged with a digital camera, and an inclination angle of the projection optical axis with respect to the projection surface is calculated in the vertical direction and the horizontal direction. Patent Document 2 describes that the same target point is imaged by a plurality of cameras, and the three-dimensional position of the target point is detected from the physical position of the target point on each imaging element surface.

特開2005−4169号公報Japanese Patent Laying-Open No. 2005-4169 特開2005−229415号公報JP 2005-229415 A

三角測量を利用するためには、投射光学系または撮像光学系などの光学系間の相対的な位置関係(位置および角度)が既知である必要がある。特許文献1に記載の技術により投射面の傾きを測定するためには、投射レンズと撮像レンズとの位置関係が既知でなければならない。特許文献2に記載の技術によって対象点の3次元の位置を検出するためには、2つのカメラのレンズの位置関係が既知でなければならない。したがって、光学系間の位置関係が何らかの外的な要因(例えば、プロジェクターに衝撃が加わった場合、または煽り投射によってプロジェクターの筐体が歪んだ場合など)によって変化した場合、三角測量を利用した方法では測定誤差が大きくなるという問題がある。
本発明は、投射面の法線ベクトルの測定誤差を低減することを目的の一つとする。
In order to use triangulation, the relative positional relationship (position and angle) between optical systems such as a projection optical system or an imaging optical system needs to be known. In order to measure the tilt of the projection surface by the technique described in Patent Document 1, the positional relationship between the projection lens and the imaging lens must be known. In order to detect the three-dimensional position of the target point by the technique described in Patent Document 2, the positional relationship between the lenses of the two cameras must be known. Therefore, when the positional relationship between the optical systems changes due to some external factor (for example, when an impact is applied to the projector, or when the projector housing is distorted due to turning projection), a method using triangulation Then, there is a problem that the measurement error increases.
An object of the present invention is to reduce the measurement error of the normal vector of the projection surface.

上述の課題を解決するため、本発明は、映像信号が示す画像を、レンズを介して投射面に投射する投射部と、前記投射部により画像が投射された投射面を撮像する撮像部と、前記レンズの光軸に対する前記撮像部の光軸の相対的な回転を示す3次の回転行列が未知の状態で、前記投射面の法線ベクトルを算出する算出部とを有するプロジェクターを提供する。このプロジェクターによれば、三角測量を利用した場合に比べて、投射面の法線ベクトルの測定誤差が低減される。   In order to solve the above-described problems, the present invention provides a projection unit that projects an image indicated by a video signal onto a projection surface via a lens, an imaging unit that captures a projection surface on which an image is projected by the projection unit, There is provided a projector including a calculation unit that calculates a normal vector of the projection plane in a state where a third-order rotation matrix indicating the relative rotation of the optical axis of the imaging unit with respect to the optical axis of the lens is unknown. According to this projector, the measurement error of the normal vector on the projection surface is reduced as compared with the case where triangulation is used.

別の好ましい態様において、前記投射部は、前記映像信号に応じて光を変調する光変調器を有し、前記算出部は、前記光変調器における画像を前記撮像部により撮像された撮像画像に射影変換する第1の変換行列に基づいて、前記法線ベクトルを算出することを特徴とする。このプロジェクターによれば、レンズの光軸に対する撮像部の光軸の相対的な回転が未知の状態で、投射面の法線ベクトルが算出される。   In another preferable aspect, the projection unit includes an optical modulator that modulates light according to the video signal, and the calculation unit converts an image in the optical modulator into a captured image captured by the imaging unit. The normal vector is calculated based on a first transformation matrix for projective transformation. According to this projector, the normal vector of the projection surface is calculated in a state where the relative rotation of the optical axis of the imaging unit with respect to the optical axis of the lens is unknown.

また、別の好ましい態様において、前記投射部は、4点以上の特徴点を含む較正画像を前記投射面に投射し、前記撮像部は、前記較正画像が投射された投射面を撮像し、前記算出部は、前記撮像画像に含まれる前記特徴点に基づいて算出された前記第1の変換行列と、世界座標を前記光変調器における座標に透視変換する第2の変換行列、前記世界座標を前記撮像画像における座標に透視変換する既知の第3の変換行列、前記レンズに対する前記撮像部の相対的な位置を示す空間ベクトル、前記回転行列、および前記法線ベクトルとの関係に基づいて、前記法線ベクトルを算出し、前記算出部により算出された法線ベクトルに基づいて、前記光変調器における画像を補正する補正部を有することを特徴とする。このプロジェクターによれば、光変調器における画像と撮像画像との関係に基づいて、投射面の法線ベクトルが算出される。   In another preferable aspect, the projection unit projects a calibration image including four or more feature points onto the projection surface, the imaging unit images the projection surface on which the calibration image is projected, and The calculation unit calculates the first conversion matrix calculated based on the feature points included in the captured image, a second conversion matrix for perspective-converting world coordinates to coordinates in the light modulator, and the world coordinates. Based on the relationship between a known third transformation matrix that is perspective-transformed into coordinates in the captured image, a spatial vector indicating the relative position of the imaging unit with respect to the lens, the rotation matrix, and the normal vector, The image processing apparatus includes a correction unit that calculates a normal vector and corrects an image in the optical modulator based on the normal vector calculated by the calculation unit. According to this projector, the normal vector of the projection surface is calculated based on the relationship between the image and the captured image in the optical modulator.

また、別の好ましい態様において、前記算出部は、次式(1)により前記法線ベクトルを算出することを特徴とする。

Figure 2014187515
ここで、Hは前記第1の変換行列、λは任意定数、Bは前記第3の変換行列、Rは前記回転行列、Eは単位行列、tは前記空間ベクトル、nは前記法線ベクトル、Aは前記第2の変換行列をそれぞれ示す。このプロジェクターによれば、連立方程式を解くことにより投射面の法線ベクトルが算出される。 In another preferable aspect, the calculation unit calculates the normal vector by the following equation (1).
Figure 2014187515
Here, H is the first transformation matrix, λ is an arbitrary constant, B is the third transformation matrix, R is the rotation matrix, E is a unit matrix, t is the space vector, n is the normal vector, A represents the second transformation matrix. According to this projector, the normal vector of the projection surface is calculated by solving simultaneous equations.

また、別の好ましい態様において、前記第2の変換行列は既知であることを特徴とする。このプロジェクターによれば、投射部のレンズが単焦点レンズである場合に、投射面の法線ベクトルの測定誤差が低減される。   In another preferred embodiment, the second transformation matrix is known. According to this projector, when the lens of the projection unit is a single focus lens, the measurement error of the normal vector of the projection surface is reduced.

また、別の好ましい態様において、前記空間ベクトルは既知であることを特徴とする。このプロジェクターによれば、投射部のレンズがズームレンズであっても、投射面の法線ベクトルの測定誤差が低減される。   In another preferred embodiment, the space vector is known. According to this projector, even if the lens of the projection unit is a zoom lens, the measurement error of the normal vector on the projection surface is reduced.

また、別の好ましい態様において、前記回転行列、前記第2の変換行列、前記空間ベクトル、前記法線ベクトル、および前記任意定数における未知のパラメーターの数の総和が、式(1)が示す方程式の数よりも少なく、前記算出部は、反復法または最小二乗法により前記法線ベクトルを算出することを特徴とする。このプロジェクターによれば、未知のパラメーターの数の総和が、式(1)が示す方程式の数と等しくない場合であっても、投射面の法線ベクトルが算出される。   In another preferred embodiment, the sum of the number of unknown parameters in the rotation matrix, the second transformation matrix, the space vector, the normal vector, and the arbitrary constant is expressed by an equation represented by Equation (1). The calculation unit may calculate the normal vector by an iterative method or a least square method. According to this projector, the normal vector of the projection surface is calculated even when the total number of unknown parameters is not equal to the number of equations indicated by Equation (1).

また、本発明は、映像信号が示す画像を、レンズを介して投射面に投射する工程と、前記画像が投射された投射面を撮像部が撮像する工程と、前記レンズの光軸に対する前記撮像部の光軸の相対的な回転を示す3次の回転行列が未知の状態で、前記投射面の法線ベクトルを算出する工程とを有するプロジェクターの制御方法を提供する。このプロジェクターの制御方法によれば、三角測量を利用した場合に比べて、投射面の法線ベクトルの測定誤差が低減される。   The present invention also includes a step of projecting an image indicated by a video signal onto a projection surface via a lens, a step of an imaging unit imaging the projection surface on which the image is projected, and the imaging with respect to the optical axis of the lens. And a step of calculating a normal vector of the projection plane in a state where a third-order rotation matrix indicating relative rotation of the optical axis of the unit is unknown. According to this projector control method, the measurement error of the normal vector on the projection surface is reduced as compared with the case where triangulation is used.

プロジェクターの動作概要を説明する図。The figure explaining the operation | movement outline | summary of a projector. プロジェクターの機能的構成を示すブロック図。The block diagram which shows the functional structure of a projector. プロジェクターのハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of a projector. 歪み補正処理を示すフローチャート。The flowchart which shows a distortion correction process. 較正画像の例を示す図。The figure which shows the example of a calibration image. 撮像画像の例を示す図。The figure which shows the example of a captured image.

図1は、本発明の一実施形態に係るプロジェクター1の動作概要を説明する図である。プロジェクター1は、映像信号により示される画像(以下、「入力画像」という)をスクリーンSCに投射する装置である。スクリーンSCは、プロジェクター1から投射される画像を映し出す平面(投射面)である。プロジェクター1の投射軸がスクリーンSCに対して理想的な状態から傾いている場合、スクリーンSC上に映し出される画像(以下、「投射画像」という)は、破線で示したように台形に歪んだものとなる。プロジェクター1は、この歪み(台形歪み)を補正する機能を有する。図1の例で、プロジェクター1は、補正後の画像として画像IprをスクリーンSCに投射している。台形歪みの補正は、スクリーンSCの法線ベクトルを用いて行われる。   FIG. 1 is a diagram illustrating an outline of the operation of a projector 1 according to an embodiment of the invention. The projector 1 is a device that projects an image (hereinafter referred to as “input image”) indicated by a video signal onto a screen SC. The screen SC is a plane (projection surface) on which an image projected from the projector 1 is projected. When the projection axis of the projector 1 is tilted from an ideal state with respect to the screen SC, an image projected on the screen SC (hereinafter referred to as “projected image”) is distorted into a trapezoid as shown by a broken line. It becomes. The projector 1 has a function of correcting this distortion (trapezoidal distortion). In the example of FIG. 1, the projector 1 projects an image Ipr as a corrected image on the screen SC. The trapezoidal distortion is corrected using the normal vector of the screen SC.

図2は、プロジェクター1の機能的構成を示すブロック図である。プロジェクター1は、投射部101と、較正画像記憶部102と、撮像部103と、特徴点検出部104と、射影変換行列算出部105と、法線ベクトル算出部106と、補正値算出部107と、調整値算出部108と、レンズ駆動部109と、映像信号取得部110と、歪み補正部111とを有する。投射部101は、入力画像および較正画像を、レンズを介してスクリーンSCに投射する。較正画像は、台形歪みを補正するために用いられる、スクリーンSCの法線ベクトル(以下、「法線ベクトルn」と表現する)の算出に用いられる画像である。較正画像は、4点以上の特徴点を含む。投射部101は、映像信号に応じて光源(図示略)からの光を変調する光変調器を有する。較正画像記憶部102は、較正画像を示す画像データを記憶する。撮像部103は、投射部101により較正画像が投射されたスクリーンSCを撮像する。特徴点検出部104は、撮像部103により撮像された画像(以下、「撮像画像」という)に含まれる特徴点を検出する。射影変換行列算出部105は、特徴点検出部104により検出された特徴点に基づいて第1の変換行列(以下、「射影変換行列H」と表現する)を算出する。射影変換行列Hは、光変調器における画像を撮像画像に射影変換するための3次正方行列である。法線ベクトル算出部106(算出部の一例)は、射影変換行列算出部105により算出された射影変換行列Hに基づいて、レンズの光軸に対する撮像部103の光軸の相対的な回転(回転行列Rにより表される)が未知の状態で、法線ベクトルnを算出する。補正値算出部107は、法線ベクトル算出部106により算出された法線ベクトルnに基づいて、光変調器における画像を補正するための補正値を算出する。調整値算出部108は、法線ベクトル算出部106により算出された法線ベクトルnに基づいて、レンズのフォーカスを調整するための調整値を算出する。レンズ駆動部109は、調整値算出部108により算出された調整値を用いて、レンズのフォーカスを調整する。映像信号取得部110は、外部装置から映像信号を取得する。歪み補正部111は、補正値算出部107により算出された補正値を用いて、光変調器における画像を補正する。   FIG. 2 is a block diagram illustrating a functional configuration of the projector 1. The projector 1 includes a projection unit 101, a calibration image storage unit 102, an imaging unit 103, a feature point detection unit 104, a projective transformation matrix calculation unit 105, a normal vector calculation unit 106, and a correction value calculation unit 107. An adjustment value calculation unit 108, a lens driving unit 109, a video signal acquisition unit 110, and a distortion correction unit 111. The projection unit 101 projects the input image and the calibration image onto the screen SC via the lens. The calibration image is an image used for calculating a normal vector of the screen SC (hereinafter referred to as “normal vector n”), which is used to correct the trapezoidal distortion. The calibration image includes four or more feature points. The projection unit 101 includes an optical modulator that modulates light from a light source (not shown) according to a video signal. The calibration image storage unit 102 stores image data indicating a calibration image. The imaging unit 103 captures the screen SC on which the calibration image is projected by the projection unit 101. The feature point detection unit 104 detects feature points included in an image captured by the imaging unit 103 (hereinafter referred to as “captured image”). Projection transformation matrix calculation section 105 calculates a first transformation matrix (hereinafter referred to as “projection transformation matrix H”) based on the feature points detected by feature point detection section 104. The projective transformation matrix H is a cubic square matrix for projectively transforming an image in the optical modulator into a captured image. The normal vector calculation unit 106 (an example of a calculation unit) rotates the rotation of the optical axis of the imaging unit 103 relative to the optical axis of the lens based on the projection transformation matrix H calculated by the projection transformation matrix calculation unit 105 (rotation). The normal vector n is calculated with the unknown state (represented by the matrix R). The correction value calculation unit 107 calculates a correction value for correcting the image in the optical modulator based on the normal vector n calculated by the normal vector calculation unit 106. The adjustment value calculation unit 108 calculates an adjustment value for adjusting the focus of the lens based on the normal vector n calculated by the normal vector calculation unit 106. The lens driving unit 109 uses the adjustment value calculated by the adjustment value calculation unit 108 to adjust the focus of the lens. The video signal acquisition unit 110 acquires a video signal from an external device. The distortion correction unit 111 corrects the image in the optical modulator using the correction value calculated by the correction value calculation unit 107.

図3は、プロジェクター1のハードウェア構成を示すブロック図である。プロジェクター1は、CPU(Central Processing Unit)10と、ROM(Read Only Memory)11と、RAM(Random Access Memory)12と、IF(インターフェース)部13と、画像処理回路14と、投射ユニット15と、カメラ16と、受光部17と、操作パネル18と、入力処理部19とを有する。CPU10は、制御プログラム11Aを実行することによりプロジェクター1の各部を制御する制御装置である。ROM11は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。ROM11は、CPU10が実行する制御プログラム11Aを記憶する。RAM12は、データを記憶する揮発性の記憶装置である。RAM12は、フレームメモリー12aを有する。フレームメモリー12aは、映像信号により示される映像のうち、1フレーム分の画像を記憶する領域である。   FIG. 3 is a block diagram illustrating a hardware configuration of the projector 1. The projector 1 includes a central processing unit (CPU) 10, a read only memory (ROM) 11, a random access memory (RAM) 12, an IF (interface) unit 13, an image processing circuit 14, a projection unit 15, The camera 16, the light receiving unit 17, the operation panel 18, and the input processing unit 19 are included. The CPU 10 is a control device that controls each unit of the projector 1 by executing the control program 11A. The ROM 11 is a non-volatile storage device that stores various programs and data. The ROM 11 stores a control program 11A executed by the CPU 10. The RAM 12 is a volatile storage device that stores data. The RAM 12 has a frame memory 12a. The frame memory 12a is an area for storing an image for one frame of the video indicated by the video signal.

IF部13は、DVD(Digital Versatile Disc)プレーヤー又はパーソナルコンピューターなどの外部装置と通信を行なう。IF部13は、外部装置と接続するための各種端子(例えば、VGA端子、USB端子、有線または無線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子など)を備える。IF部13は、外部装置から取得した映像信号から、垂直・水平の同期信号を抽出する。画像処理回路14は、映像信号により示される画像に所定の画像処理を施す。画像処理回路14は、画像処理後の画像をフレームメモリー12aに書き込む。   The IF unit 13 communicates with an external device such as a DVD (Digital Versatile Disc) player or a personal computer. The IF unit 13 has various terminals (for example, a VGA terminal, a USB terminal, a wired or wireless LAN interface, an S terminal, an RCA terminal, an HDMI (High-Definition Multimedia Interface: registered trademark) terminal) for connecting to an external device. Prepare. The IF unit 13 extracts vertical and horizontal synchronization signals from the video signal acquired from the external device. The image processing circuit 14 performs predetermined image processing on the image indicated by the video signal. The image processing circuit 14 writes the image after image processing in the frame memory 12a.

投射ユニット15は、光源151と、液晶パネル152と、光学系153と、光源駆動回路154と、パネル駆動回路155と、光学系駆動部156とを有する。光源151は、高圧水銀ランプ、ハロゲンランプ、若しくはメタルハライドランプなどのランプ、又はLED(Light Emitting Diode)若しくはレーザーダイオードなどの発光体を有し、液晶パネル152に光を照射する。液晶パネル152は、光源151から照射された光を画像データに応じて変調する光変調器である。この例で液晶パネル152は、マトリクス状に配置された複数の画素を有する。液晶パネル152は、例えば、XGA(eXtended Graphics Array)の解像度を有し、1024×768個の画素により構成される表示領域を有する。この例で、液晶パネル152は透過型の液晶パネルであり、各画素の透過率が画像データに応じて制御される。プロジェクター1は、RGBの三原色に対応した3枚の液晶パネル152を有する。光源151からの光はRGBの3色の色光に分離され、各色光は対応する液晶パネル152に入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等によって合成され、光学系153に射出される。光学系153は、液晶パネル603により画像光へと変調された光を拡大してスクリーンSCに投射する投射レンズ1531と、投射画像の焦点を調整するフォーカスレンズ1532とにより構成されている。投射レンズ1531には、単焦点レンズが用いられる。光源駆動回路154は、CPU10の制御に従って光源151を駆動する。パネル駆動回路155は、CPU10から出力された画像データに応じて液晶パネル152を駆動する。光学系駆動部156は、フォーカスレンズ1532のフォーカスを調整するモーター、および当該モーターをCPU10の制御に従って駆動する駆動回路を有する。   The projection unit 15 includes a light source 151, a liquid crystal panel 152, an optical system 153, a light source drive circuit 154, a panel drive circuit 155, and an optical system drive unit 156. The light source 151 includes a lamp such as a high-pressure mercury lamp, a halogen lamp, or a metal halide lamp, or a light emitter such as an LED (Light Emitting Diode) or a laser diode, and irradiates the liquid crystal panel 152 with light. The liquid crystal panel 152 is an optical modulator that modulates light emitted from the light source 151 in accordance with image data. In this example, the liquid crystal panel 152 has a plurality of pixels arranged in a matrix. The liquid crystal panel 152 has, for example, an XGA (eXtended Graphics Array) resolution and a display area configured by 1024 × 768 pixels. In this example, the liquid crystal panel 152 is a transmissive liquid crystal panel, and the transmittance of each pixel is controlled according to image data. The projector 1 includes three liquid crystal panels 152 corresponding to the three primary colors RGB. The light from the light source 151 is separated into three color lights of RGB, and each color light enters the corresponding liquid crystal panel 152. The color light modulated by passing through each liquid crystal panel is synthesized by a cross dichroic prism or the like and emitted to the optical system 153. The optical system 153 includes a projection lens 1531 that enlarges the light modulated into image light by the liquid crystal panel 603 and projects the light onto the screen SC, and a focus lens 1532 that adjusts the focus of the projected image. A single focus lens is used as the projection lens 1531. The light source driving circuit 154 drives the light source 151 according to the control of the CPU 10. The panel drive circuit 155 drives the liquid crystal panel 152 according to the image data output from the CPU 10. The optical system drive unit 156 includes a motor that adjusts the focus of the focus lens 1532 and a drive circuit that drives the motor according to the control of the CPU 10.

カメラ16は、スクリーンSCを撮像し、画像データを生成するデジタルカメラである。カメラ16は、例えば、投射ユニット15が投射画像を投射可能な最大範囲を含む画角でスクリーンSCを撮像する。受光部17は、コントローラーRCから送信される赤外線信号を受光し、受光した赤外線信号をデコードして入力処理部19に出力する。操作パネル18は、プロジェクター1の電源のオン/オフまたは各種操作を行うためのボタンおよびスイッチを有する。入力処理部19は、コントローラーRCまたは操作パネル18による操作内容を示す情報を生成し、CPU10に出力する。   The camera 16 is a digital camera that captures an image of the screen SC and generates image data. For example, the camera 16 images the screen SC at an angle of view including the maximum range in which the projection unit 15 can project a projection image. The light receiving unit 17 receives the infrared signal transmitted from the controller RC, decodes the received infrared signal, and outputs the decoded infrared signal to the input processing unit 19. The operation panel 18 has buttons and switches for turning on / off the projector 1 or performing various operations. The input processing unit 19 generates information indicating the operation content by the controller RC or the operation panel 18 and outputs the information to the CPU 10.

プロジェクター1において、プログラムを実行しているCPU10は、特徴点検出部104、射影変換行列算出部105、法線ベクトル算出部106、補正値算出部107、および調整値算出部108の一例である。プログラムを実行しているCPU10により制御されている投射ユニット15(光学系駆動部156を除く)は、投射部101の一例である。プログラムを実行しているCPU10により制御されている光学系駆動部156は、レンズ駆動部109の一例である。プログラムを実行しているCPU10により制御されているカメラ16は、撮像部103の一例である。ROM11は、較正画像記憶部102の一例である。プログラムを実行しているCPU10により制御されているIF部13は、映像信号取得部110の一例である。プログラムを実行しているCPU10により制御されている画像処理回路14は、歪み補正部111の一例である。   In the projector 1, the CPU 10 executing the program is an example of a feature point detection unit 104, a projective transformation matrix calculation unit 105, a normal vector calculation unit 106, a correction value calculation unit 107, and an adjustment value calculation unit 108. The projection unit 15 (excluding the optical system driving unit 156) controlled by the CPU 10 executing the program is an example of the projection unit 101. The optical system driving unit 156 controlled by the CPU 10 executing the program is an example of the lens driving unit 109. The camera 16 that is controlled by the CPU 10 executing the program is an example of the imaging unit 103. The ROM 11 is an example of the calibration image storage unit 102. The IF unit 13 controlled by the CPU 10 executing the program is an example of the video signal acquisition unit 110. The image processing circuit 14 controlled by the CPU 10 executing the program is an example of the distortion correction unit 111.

図4は、プロジェクター1が投射画像の台形歪みを補正する処理(以下、「歪み補正処理」という)を示すフローチャートである。歪み補正処理は、例えば、プロジェクター1の電源が投入されたことを契機として、または、ユーザーがコントローラーRCを操作して歪み補正処理を開始するための指示をプロジェクター1に入力したことを契機として開始される。ステップS1において、CPU10は、較正画像をスクリーンSCに投射する。具体的には、CPU10は、較正画像を示す画像データをROM11から読み出して、当該画像データをパネル駆動回路155に出力する。   FIG. 4 is a flowchart showing a process in which the projector 1 corrects the trapezoidal distortion of the projected image (hereinafter referred to as “distortion correction process”). The distortion correction processing is started when, for example, the projector 1 is turned on or when the user inputs an instruction to start the distortion correction processing by operating the controller RC to the projector 1. Is done. In step S1, the CPU 10 projects a calibration image on the screen SC. Specifically, the CPU 10 reads out image data indicating a calibration image from the ROM 11 and outputs the image data to the panel drive circuit 155.

図5は、較正画像の例を示す図である。図5は、液晶パネル152に表示された較正画像Icを示している。図5において、実線は液晶パネル152の表示領域の輪郭を表し、破線は較正画像Icの輪郭を表す。この例で、較正画像Icは、特徴点以外の領域が透明、且つ矩形の画像である。図5の例では、較正画像Icは、点U1から点U4の4つの特徴点を有する。この例では、4つの頂点がそれぞれ特徴点である。特徴点は、液晶パネル152において複数の画素の集合として表示される。液晶パネル152における各特徴点の座標(ここでは、特徴点を構成する複数の画素の中心の座標)は、予めROM11に記憶されている。図5において、点U1から点U4の各特徴点の液晶パネル152上の座標は、U1(X0,Y0)、U2(X1、Y1)、U3(X2、Y2)、U4(X3、Y3)である。投射レンズ1531の光軸がスクリーンSCに対して理想的な状態から傾いている場合、スクリーンSCに映し出される較正画像Icは、歪んだものとなる。   FIG. 5 is a diagram illustrating an example of a calibration image. FIG. 5 shows a calibration image Ic displayed on the liquid crystal panel 152. In FIG. 5, a solid line represents the outline of the display area of the liquid crystal panel 152, and a broken line represents the outline of the calibration image Ic. In this example, the calibration image Ic is an image that is transparent and has a rectangular area other than the feature points. In the example of FIG. 5, the calibration image Ic has four feature points from point U1 to point U4. In this example, four vertices are feature points. The feature points are displayed on the liquid crystal panel 152 as a set of a plurality of pixels. The coordinates of each feature point on the liquid crystal panel 152 (here, the coordinates of the centers of a plurality of pixels constituting the feature point) are stored in the ROM 11 in advance. In FIG. 5, the coordinates on the liquid crystal panel 152 of the feature points from the point U1 to the point U4 are U1 (X0, Y0), U2 (X1, Y1), U3 (X2, Y2), U4 (X3, Y3). is there. When the optical axis of the projection lens 1531 is tilted from the ideal state with respect to the screen SC, the calibration image Ic displayed on the screen SC is distorted.

再び図4を参照する。ステップS2において、CPU10は、スクリーンSCに投射された較正画像Icを撮像する。CPU10は、較正画像Icが撮像された撮像画像をRAM12に記憶する。ステップS3において、CPU10は、較正画像Icが撮像された撮像画像から特徴点を検出する。具体的には、CPU10は、撮像画像に含まれる4つの特徴点を検出し、撮像画像における各特徴点の座標を算出する。CPU10は、算出された各特徴点の座標をRAM12に記憶する。   Refer to FIG. 4 again. In step S2, the CPU 10 captures the calibration image Ic projected on the screen SC. The CPU 10 stores the captured image obtained by capturing the calibration image Ic in the RAM 12. In step S3, the CPU 10 detects a feature point from the captured image obtained by capturing the calibration image Ic. Specifically, the CPU 10 detects four feature points included in the captured image and calculates the coordinates of each feature point in the captured image. The CPU 10 stores the calculated coordinates of each feature point in the RAM 12.

図6は、撮像画像Iphを示す図である。撮像画像Iphは、スクリーンSCに投射された較正画像Icを撮像した画像である。図6において、実線は撮像画像Iphの輪郭(カメラ16のフレーム)を表し、破線は較正画像Icの輪郭を表す。撮像画像Iphにおいて点u1から点u4の各特徴点は、較正画像Icにおける点U1から点U4の各特徴点にそれぞれ対応する。図6の例で、点u1から点u4の各特徴点の撮像画像Iph上の座標は、u1(x0、y0)、u2(x1、y1)、u3(x2、y2)、u4(x3、y3)である。   FIG. 6 is a diagram illustrating the captured image Iph. The captured image Iph is an image obtained by capturing the calibration image Ic projected on the screen SC. In FIG. 6, the solid line represents the contour of the captured image Iph (frame of the camera 16), and the broken line represents the contour of the calibration image Ic. Each feature point from point u1 to point u4 in the captured image Iph corresponds to each feature point from point U1 to point U4 in the calibration image Ic. In the example of FIG. 6, the coordinates on the captured image Iph of the feature points from the point u1 to the point u4 are u1 (x0, y0), u2 (x1, y1), u3 (x2, y2), u4 (x3, y3). ).

再び図4を参照する。ステップS4において、CPU10は、液晶パネル152における各特徴点の座標と、撮像画像Iphにおける各特徴点の座標とに基づいて、以下の式(2)に示す射影変換行列Hを算出する。

Figure 2014187515
具体的には、CPU10は、液晶パネル152における各特徴点(点U1から点U4)の座標をROM11から、撮像画像Iphにおける各特徴点(点u1から点u4)の座標をRAM12からそれぞれ読み出して、以下の式(3)に示す8元連立一次方程式を解くことにより、射影変換行列Hを算出する。なお、射影変換行列Hのパラメーターi0は、定数(i0=1)である。CPU10は、算出した射影変換行列HをRAM12に記憶する。
Figure 2014187515
Refer to FIG. 4 again. In step S4, the CPU 10 calculates a projective transformation matrix H shown in the following equation (2) based on the coordinates of each feature point on the liquid crystal panel 152 and the coordinates of each feature point in the captured image Iph.
Figure 2014187515
Specifically, the CPU 10 reads the coordinates of each feature point (points U1 to U4) on the liquid crystal panel 152 from the ROM 11, and reads the coordinates of each feature point (points u1 to u4) on the captured image Iph from the RAM 12, respectively. The projective transformation matrix H is calculated by solving an 8-ary simultaneous linear equation shown in the following equation (3). The parameter i 0 of the projective transformation matrix H is a constant (i 0 = 1). The CPU 10 stores the calculated projective transformation matrix H in the RAM 12.
Figure 2014187515

ステップS5において、CPU10は、射影変換行列Hを用いて法線ベクトルnを算出する。具体的には、CPU10は、RAM12から射影変換行列Hを読み出して、以下の式(4)に示す9元連立方程式を解くことにより、法線ベクトルn(3行1列の行列)を算出する。式(4)において「T」はある行列の転置を表す。

Figure 2014187515
各記号はそれぞれ以下の数または行列を示す。
λ:任意定数
B:世界座標を撮像画像における座標に透視変換するための座標変換行列(3次正方行列)
R:投射レンズ1531の光軸に対するカメラ16の光軸の相対的な回転を示す3次の回転行列
E:3次の単位行列
t:投射レンズ1531に対するカメラ16の相対的な位置を示す空間ベクトル(3行1列の行列)
A:世界座標を液晶パネル152における座標に透視変換するための座標変換行列(3次正方行列)
なお、座標変換行列Aおよび座標変換行列Bは、3次元の世界座標を2次元の平面上の座標に変換する行列であり、ある2次元の平面上の座標を他の2次元の平面上の座標に変換する射影変換行列Hとは異なる種類の行列である。 In step S <b> 5, the CPU 10 calculates a normal vector n using the projective transformation matrix H. Specifically, the CPU 10 reads the projective transformation matrix H from the RAM 12 and calculates a normal vector n (a matrix of 3 rows and 1 column) by solving the nine simultaneous equations shown in the following equation (4). . In Expression (4), “T” represents transposition of a certain matrix.
Figure 2014187515
Each symbol indicates the following number or matrix.
λ: Arbitrary constant B: Coordinate transformation matrix (third-order square matrix) for perspective transformation of world coordinates to coordinates in the captured image
R: Third-order rotation matrix indicating relative rotation of the optical axis of the camera 16 with respect to the optical axis of the projection lens 1531 E: Third-order unit matrix t: Space vector indicating the relative position of the camera 16 with respect to the projection lens 1531 (3 rows and 1 column matrix)
A: Coordinate transformation matrix (third-order square matrix) for perspective transformation of world coordinates to coordinates on the liquid crystal panel 152
Note that the coordinate transformation matrix A and the coordinate transformation matrix B are matrices for transforming three-dimensional world coordinates into coordinates on a two-dimensional plane. It is a different type of matrix from the projective transformation matrix H that converts to coordinates.

ここで、座標変換行列Bの各パラメーターは、カメラ16に固有の値であり、プロジェクター1の製造時に測定された既知の値がROM11に記憶されている。座標変換行列Aの各パラメーターは、投射レンズ1531により決まる値である。本実施形態では投射レンズ1531が単焦点レンズであるため(焦点距離が変化しないため)、座標変換行列Aの各パラメーターは一定の値となる。そのため、座標変換行列Aの各パラメーターについても、プロジェクター1の製造時に測定された既知の値がROM11に記憶されている。空間ベクトルtは、単位ベクトルに正規化することができ、3つのパラメーターのうち2つのパラメーターに基づいて残りのパラメーターを算出することができる。つまり、空間ベクトルtの未知のパラメーターの数は2つに減らすことができる。したがって、式(4)の右辺について、未知のパラメーターの数の総和は、任意定数λについて1つ、回転行列Rについて3つ、空間ベクトルtについて2つ、法線ベクトルnについて3つの合計9つとなる。これは式(4)から得られる方程式の数と等しいため、式(4)に示す9元連立方程式を解くことにより、法線ベクトルnが算出される。なお、式(4)に示す9元連立方程式を解くと、法線ベクトルnの解が2つ得られるが、CPU10は、算出された回転行列Rと空間ベクトルtとが初期値により近くなる一方の法線ベクトルnを採用する。回転行列Rと空間ベクトルtの初期値は、予めROM11に記憶されている。CPU10は、算出された法線ベクトルnを示すデータをRAM12に記憶する。   Here, each parameter of the coordinate transformation matrix B is a value unique to the camera 16, and a known value measured when the projector 1 is manufactured is stored in the ROM 11. Each parameter of the coordinate transformation matrix A is a value determined by the projection lens 1531. In the present embodiment, since the projection lens 1531 is a single focus lens (because the focal length does not change), each parameter of the coordinate transformation matrix A has a constant value. Therefore, for each parameter of the coordinate transformation matrix A, known values measured when the projector 1 is manufactured are stored in the ROM 11. The space vector t can be normalized to a unit vector, and the remaining parameters can be calculated based on two of the three parameters. That is, the number of unknown parameters of the space vector t can be reduced to two. Therefore, for the right side of equation (4), the total number of unknown parameters is 9 for the arbitrary constant λ, 3 for the rotation matrix R, 2 for the space vector t, and 3 for the normal vector n. Become. Since this is equal to the number of equations obtained from the equation (4), the normal vector n is calculated by solving the nine simultaneous equations shown in the equation (4). Note that solving the nine simultaneous equations shown in the equation (4) provides two solutions of the normal vector n, but the CPU 10 makes the calculated rotation matrix R and the space vector t closer to the initial values. The normal vector n is used. Initial values of the rotation matrix R and the space vector t are stored in the ROM 11 in advance. The CPU 10 stores data indicating the calculated normal vector n in the RAM 12.

式(4)によれば、回転行列Rが未知の状態であっても、法線ベクトルnが算出される。したがって、三角測量を利用した場合に比べて、法線ベクトルnの測定誤差が低減される。例えば、投射レンズ1531の光軸に対するカメラ16の光軸の相対的な回転が外的な要因(例えば、プロジェクター1に衝撃が加わった場合、または煽り投射によってプロジェクター1の筐体が歪んだ場合など)によって変化した場合であっても、精度の高い法線ベクトルnが算出される。   According to equation (4), the normal vector n is calculated even when the rotation matrix R is unknown. Therefore, the measurement error of the normal vector n is reduced compared to the case where triangulation is used. For example, the relative rotation of the optical axis of the camera 16 with respect to the optical axis of the projection lens 1531 is an external factor (for example, when an impact is applied to the projector 1 or when the casing of the projector 1 is distorted due to turning projection) ), The normal vector n with high accuracy is calculated.

ステップS6において、CPU10は、法線ベクトルnを用いて、投射レンズ1531に対するスクリーンSCの傾きを算出する。具体的には、CPU10は、RAM12から法線ベクトルnを示すデータと投射レンズ1531の光軸の方向ベクトルを示すデータとを読み出して、法線ベクトルnと投射レンズ1531の光軸とがなす角度θを算出する。投射レンズ1531の光軸の方向ベクトルを示すデータは、歪み補正処理が開始される前に予め測定され、RAM12に記憶されている。CPU10は、算出された角度θをRAM12に記憶する。   In step S <b> 6, the CPU 10 calculates the inclination of the screen SC with respect to the projection lens 1531 using the normal vector n. Specifically, the CPU 10 reads data indicating the normal vector n and data indicating the direction vector of the optical axis of the projection lens 1531 from the RAM 12, and an angle formed by the normal vector n and the optical axis of the projection lens 1531. θ is calculated. Data indicating the direction vector of the optical axis of the projection lens 1531 is measured in advance and stored in the RAM 12 before the distortion correction processing is started. The CPU 10 stores the calculated angle θ in the RAM 12.

ステップS7において、CPU10は、スクリーンSCの傾きに応じて、台形歪みを補正するための射影変換行列(以下、「射影変換行列F」と表現する)を算出する。射影変換行列Fは、液晶パネル152における座標を、入力画像における座標に射影変換する3次正方行列である。具体的には、CPU10は、スクリーンSCの傾きに基づいて台形歪みの補正が行われない場合の投射画像を特定し、特定された投射画像に基づいて以下の式(5)に示す射影変換行列Fを算出する。CPU10は、算出された射影変換行列FをRAM12に記憶する。射影変換行列Fの各パラメーターは、補正値の一例である。

Figure 2014187515
In step S <b> 7, the CPU 10 calculates a projective transformation matrix (hereinafter referred to as “projective transformation matrix F”) for correcting trapezoidal distortion according to the inclination of the screen SC. The projective transformation matrix F is a cubic square matrix that performs projective transformation of coordinates on the liquid crystal panel 152 to coordinates in the input image. Specifically, the CPU 10 specifies a projection image when the trapezoidal distortion is not corrected based on the inclination of the screen SC, and based on the specified projection image, the projection transformation matrix shown in the following formula (5) F is calculated. The CPU 10 stores the calculated projective transformation matrix F in the RAM 12. Each parameter of the projective transformation matrix F is an example of a correction value.
Figure 2014187515

ステップS8において、CPU10は、射影変換行列Fを用いて、入力画像を射影変換する。具体的には、CPU10は、以下の式(6)により、液晶パネル152における座標(Xj,Yj)に対して座標変換を行い、入力画像における座標(Xk,Yk)を算出する。

Figure 2014187515
CPU10は、入力画像における座標(Xk,Yk)の画素の階調値を、液晶パネル152における座標(Xj,Yj)の画素の階調値としてフレームメモリー12aに書き込む。なお、式(6)を用いた演算において、入力画像における座標が小数で算出された場合には、対応する階調値が存在しないことになる。この場合、CPU10は、画素補間(畳み込み演算)を行い、入力画像における複数の座標の階調値から一の階調値を算出する。CPU10は、画素補間により算出された階調値を、液晶パネル152における座標(Xj,Yj)の画素の階調値としてフレームメモリー12aに書き込む。このように、液晶パネル152についてX座標およびY座標を走査することにより、液晶パネル152が有するすべての画素について、その階調値が決定される。ステップS9において、CPU10は、液晶パネル152を駆動する。具体的には、CPU10は、フレームメモリー12aに書き込まれた画像データを読み出して、パネル駆動回路155に出力する。ステップS9の処理により、投射画像は、台形歪みのないものとなる。このように、本実施形態では、式(4)により算出された法線ベクトルnに基づいて入力画像の射影変換が行われるため、三角測量により法線ベクトルnが算出された場合に比べて、台形歪みの補正の精度が高くなる。 In step S8, the CPU 10 performs projective transformation of the input image using the projective transformation matrix F. Specifically, the CPU 10 performs coordinate conversion on the coordinates (Xj, Yj) on the liquid crystal panel 152 by the following equation (6), and calculates the coordinates (Xk, Yk) in the input image.
Figure 2014187515
The CPU 10 writes the gradation value of the pixel at the coordinates (Xk, Yk) in the input image in the frame memory 12a as the gradation value of the pixel at the coordinates (Xj, Yj) in the liquid crystal panel 152. In the calculation using the equation (6), when the coordinates in the input image are calculated with decimal numbers, there is no corresponding gradation value. In this case, the CPU 10 performs pixel interpolation (convolution operation) and calculates one gradation value from the gradation values of a plurality of coordinates in the input image. The CPU 10 writes the gradation value calculated by pixel interpolation in the frame memory 12a as the gradation value of the pixel at the coordinates (Xj, Yj) on the liquid crystal panel 152. Thus, by scanning the X coordinate and the Y coordinate of the liquid crystal panel 152, the gradation values of all the pixels included in the liquid crystal panel 152 are determined. In step S <b> 9, the CPU 10 drives the liquid crystal panel 152. Specifically, the CPU 10 reads the image data written in the frame memory 12 a and outputs it to the panel drive circuit 155. By the processing in step S9, the projection image becomes free of trapezoidal distortion. As described above, in the present embodiment, the projective transformation of the input image is performed based on the normal vector n calculated by the equation (4). Therefore, compared to the case where the normal vector n is calculated by triangulation, The accuracy of correction of trapezoidal distortion increases.

ステップS10において、CPU10は、法線ベクトルnを用いて、投射レンズ1531からスクリーンSCまでの距離dSCを算出する。具体的には、CPU10は、RAM12から法線ベクトルnを示すデータを読み出し、以下の式(7)により距離dSCを算出する。CPU10は、算出された距離dSCをRAM12に記憶する。

Figure 2014187515
In step S10, the CPU 10 calculates a distance dSC from the projection lens 1531 to the screen SC using the normal vector n. Specifically, the CPU 10 reads data indicating the normal vector n from the RAM 12, and calculates the distance dSC by the following equation (7). The CPU 10 stores the calculated distance dSC in the RAM 12.
Figure 2014187515

ステップS11において、CPU10は、距離dSCに応じて、フォーカスレンズ1532のフォーカスを調整するための調整値を算出する。CPU10は、予め定められた式をROM11から読み出して、距離dSCに応じた調整値を算出する。CPU10は、算出された調整値を示すデータをRAM12に記憶する。ステップS12において、CPU10は、調整値を用いてフォーカスレンズ1532のフォーカスを調整する。具体的には、CPU10は、調整値を示すデータをRAM12から読み出して、光学系駆動部156に出力する。このように、本実施形態では、式(4)により算出された法線ベクトルnに基づいてフォーカスの調整が行われるため、三角測量により法線ベクトルnが算出された場合に比べて、フォーカスの調整の精度が高くなる。   In step S11, the CPU 10 calculates an adjustment value for adjusting the focus of the focus lens 1532 according to the distance dSC. The CPU 10 reads a predetermined formula from the ROM 11 and calculates an adjustment value corresponding to the distance dSC. The CPU 10 stores data indicating the calculated adjustment value in the RAM 12. In step S12, the CPU 10 adjusts the focus of the focus lens 1532 using the adjustment value. Specifically, the CPU 10 reads data indicating the adjustment value from the RAM 12 and outputs the data to the optical system driving unit 156. As described above, in the present embodiment, since the focus is adjusted based on the normal vector n calculated by Expression (4), the focus vector is compared with the case where the normal vector n is calculated by triangulation. The accuracy of adjustment is increased.

<変形例>
本発明は、上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下で説明する変形例のうち、2つ以上のものが組み合わされて用いられても良い。
<Modification>
The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Of the modifications described below, two or more may be used in combination.

(1)変形例1
上述の実施形態では、投射レンズ1531が単焦点レンズであって、座標変換行列Aの各パラメーターが既知である場合について説明した。この点、投射レンズ1531は、焦点距離が変化するズームレンズであって、座標変換行列Aのパラメーターのうちの1つが未知であってもよい。この場合、式(4)に示す連立方程式において、空間ベクトルtの各パラメーターには、プロジェクター1の製造時に測定された既知の値が用いられる。空間ベクトルtの各パラメーターの値は、予めROM11に記憶されている。これにより、式(4)の右辺について、未知のパラメーターの数の総和は、任意定数λについて1つ、回転行列Rについて3つ、法線ベクトルnについて3つ、座標変換行列Aについて1つの合計8つとなる。これは式(4)から得られる方程式の数よりも少ないため、式(4)に示す9本の方程式からなる8元連立方程式を解くことにより、法線ベクトルnが算出される。未知のパラメーターの数が、式(4)から得られる方程式の数よりも少ない場合、CPU10は、反復法または最小二乗法により法線ベクトルnを算出する。なお、座標変換行列Aおよび空間ベクトルtの各パラメーターのいずれもが既知であってもよい。
(1) Modification 1
In the embodiment described above, the case where the projection lens 1531 is a single focus lens and each parameter of the coordinate transformation matrix A is known has been described. In this regard, the projection lens 1531 is a zoom lens whose focal length changes, and one of the parameters of the coordinate transformation matrix A may be unknown. In this case, in the simultaneous equations shown in Expression (4), known values measured at the time of manufacturing the projector 1 are used for the parameters of the space vector t. The value of each parameter of the space vector t is stored in the ROM 11 in advance. Thus, for the right side of equation (4), the total number of unknown parameters is one for the arbitrary constant λ, three for the rotation matrix R, three for the normal vector n, and one for the coordinate transformation matrix A. There will be eight. Since this is less than the number of equations obtained from Equation (4), the normal vector n is calculated by solving an 8-ary simultaneous equation consisting of nine equations shown in Equation (4). When the number of unknown parameters is smaller than the number of equations obtained from Equation (4), the CPU 10 calculates the normal vector n by an iterative method or a least square method. Note that both of the parameters of the coordinate transformation matrix A and the space vector t may be known.

(2)変形例2
投射レンズ1531がズームレンズである場合、プロジェクター1は、投射レンズ1531の焦点距離を取得するための構成を備えていてもよい。例えば、投射レンズ1531の焦点距離が、可変抵抗の抵抗値を変化させることにより制御される場合には、当該抵抗値に基づいて焦点距離が取得されてもよい。この場合、式(4)の右辺について、未知のパラメーターの数の総和は、実施形態と同様に合計9つとなる。したがって、実施形態と同様の方法により法線ベクトルnが算出される。
(2) Modification 2
When the projection lens 1531 is a zoom lens, the projector 1 may include a configuration for acquiring the focal length of the projection lens 1531. For example, when the focal length of the projection lens 1531 is controlled by changing the resistance value of the variable resistor, the focal length may be acquired based on the resistance value. In this case, the total number of unknown parameters for the right side of Equation (4) is a total of nine as in the embodiment. Therefore, the normal vector n is calculated by the same method as in the embodiment.

(3)その他の変形例
歪み補正処理において行われる処理は、図4に示した処理に限らない。例えば、フォーカスレンズ1532のフォーカスの調整に関する処理(ステップS10からステップS12)が、入力画像の射影変換に関する処理(ステップS6からステップS9)よりも前に行われてもよい。
較正画像は、図5に示したものに限らない。較正画像は、例えば、輪郭がユーザーに知覚されるように液晶パネル152に表示されてもよい。別の例で、較正画像は、4点を超える特徴点を含んでいてもよい。
プロジェクター1のハードウェア構成は、図3に示した構成に限らない。プロジェクター1は、図4に示した各ステップの処理を実行できれば、どのようなハードウェア構成であってもよい。例えば、液晶パネル152に代えて、デジタルミラーデバイス(DMD)が光変調器として用いられてもよい。
(3) Other Modifications The processing performed in the distortion correction processing is not limited to the processing shown in FIG. For example, the process related to the focus adjustment of the focus lens 1532 (step S10 to step S12) may be performed before the process related to projective conversion of the input image (step S6 to step S9).
The calibration image is not limited to that shown in FIG. For example, the calibration image may be displayed on the liquid crystal panel 152 such that the contour is perceived by the user. In another example, the calibration image may include more than 4 feature points.
The hardware configuration of the projector 1 is not limited to the configuration shown in FIG. The projector 1 may have any hardware configuration as long as the processing of each step shown in FIG. 4 can be executed. For example, instead of the liquid crystal panel 152, a digital mirror device (DMD) may be used as the light modulator.

1…プロジェクター、101…投射部、102…較正画像記憶部、103…撮像部、104…特徴点検出部、105…射影変換行列算出部、106…法線ベクトル算出部、107…補正値算出部、108…調整値算出部、109…レンズ駆動部、110…映像信号取得部、111…歪み補正部、10…CPU、11…ROM、12…RAM、13…IF部、14…画像処理回路、15…投射ユニット、151…光源、152…液晶パネル、153…光学系、1531…投射レンズ、1532…フォーカスレンズ、154…光源駆動回路、155…パネル駆動回路、156…光学系駆動部、16…カメラ、17…受光部、18…操作パネル、19…入力処理部。   DESCRIPTION OF SYMBOLS 1 ... Projector, 101 ... Projection part, 102 ... Calibration image memory | storage part, 103 ... Imaging part, 104 ... Feature point detection part, 105 ... Projection transformation matrix calculation part, 106 ... Normal vector calculation part, 107 ... Correction value calculation part , 108 ... adjustment value calculation unit, 109 ... lens drive unit, 110 ... video signal acquisition unit, 111 ... distortion correction unit, 10 ... CPU, 11 ... ROM, 12 ... RAM, 13 ... IF unit, 14 ... image processing circuit, DESCRIPTION OF SYMBOLS 15 ... Projection unit, 151 ... Light source, 152 ... Liquid crystal panel, 153 ... Optical system, 1531 ... Projection lens, 1532 ... Focus lens, 154 ... Light source drive circuit, 155 ... Panel drive circuit, 156 ... Optical system drive part, 16 ... Camera 17, light receiving unit 18, operation panel 19, input processing unit

Claims (8)

映像信号が示す画像を、レンズを介して投射面に投射する投射部と、
前記投射部により画像が投射された投射面を撮像する撮像部と、
前記レンズの光軸に対する前記撮像部の光軸の相対的な回転を示す3次の回転行列が未知の状態で、前記投射面の法線ベクトルを算出する算出部と
を有するプロジェクター。
A projection unit that projects an image indicated by the video signal onto a projection surface via a lens;
An imaging unit that captures a projection surface on which an image is projected by the projection unit;
And a calculation unit that calculates a normal vector of the projection plane in a state where a third-order rotation matrix indicating the relative rotation of the optical axis of the imaging unit with respect to the optical axis of the lens is unknown.
前記投射部は、前記映像信号に応じて光を変調する光変調器を有し、
前記算出部は、前記光変調器における画像を前記撮像部により撮像された撮像画像に射影変換する第1の変換行列に基づいて、前記法線ベクトルを算出する
ことを特徴とする請求項1に記載のプロジェクター。
The projection unit includes an optical modulator that modulates light according to the video signal,
The said calculation part calculates the said normal vector based on the 1st conversion matrix which carries out projective conversion of the image in the said optical modulator to the picked-up image imaged by the said imaging part. The projector described.
前記投射部は、4点以上の特徴点を含む較正画像を前記投射面に投射し、
前記撮像部は、前記較正画像が投射された投射面を撮像し、
前記算出部は、前記撮像画像に含まれる前記特徴点に基づいて算出された前記第1の変換行列と、世界座標を前記光変調器における座標に透視変換する第2の変換行列、前記世界座標を前記撮像画像における座標に透視変換する既知の第3の変換行列、前記レンズに対する前記撮像部の相対的な位置を示す空間ベクトル、前記回転行列、および前記法線ベクトルとの関係に基づいて、前記法線ベクトルを算出し、
前記算出部により算出された法線ベクトルに基づいて、前記光変調器における画像を補正する補正部を有する
ことを特徴とする請求項2に記載のプロジェクター。
The projection unit projects a calibration image including four or more feature points onto the projection surface,
The imaging unit images a projection surface on which the calibration image is projected,
The calculation unit includes the first conversion matrix calculated based on the feature points included in the captured image, a second conversion matrix for perspective-converting world coordinates to coordinates in the light modulator, and the world coordinates. Based on a relationship between a known third transformation matrix for perspective-transforming into a coordinate in the captured image, a space vector indicating a relative position of the imaging unit with respect to the lens, the rotation matrix, and the normal vector, Calculating the normal vector;
The projector according to claim 2, further comprising: a correction unit that corrects an image in the optical modulator based on the normal vector calculated by the calculation unit.
前記算出部は、次式(1)により前記法線ベクトルを算出する
ことを特徴とする請求項3に記載のプロジェクター。
Figure 2014187515
ここで、Hは前記第1の変換行列、λは任意定数、Bは前記第3の変換行列、Rは前記回転行列、Eは単位行列、tは前記空間ベクトル、nは前記法線ベクトル、Aは前記第2の変換行列をそれぞれ示す。
The projector according to claim 3, wherein the calculation unit calculates the normal vector by the following equation (1).
Figure 2014187515
Here, H is the first transformation matrix, λ is an arbitrary constant, B is the third transformation matrix, R is the rotation matrix, E is a unit matrix, t is the space vector, n is the normal vector, A represents the second transformation matrix.
前記第2の変換行列は既知である
ことを特徴とする請求項3または4に記載のプロジェクター。
The projector according to claim 3, wherein the second transformation matrix is known.
前記空間ベクトルは既知である
ことを特徴とする請求項3乃至5のいずれか一項に記載のプロジェクター。
The projector according to claim 3, wherein the space vector is known.
前記回転行列、前記第2の変換行列、前記空間ベクトル、前記法線ベクトル、および前記任意定数における未知のパラメーターの数の総和が、式(1)が示す方程式の数よりも少なく、
前記算出部は、反復法または最小二乗法により前記法線ベクトルを算出する
ことを特徴とする請求項4乃至6のいずれか一項に記載のプロジェクター。
The sum of the number of unknown parameters in the rotation matrix, the second transformation matrix, the space vector, the normal vector, and the arbitrary constant is less than the number of equations represented by Equation (1),
The projector according to claim 4, wherein the calculation unit calculates the normal vector by an iterative method or a least square method.
映像信号が示す画像を、レンズを介して投射面に投射する工程と、
前記画像が投射された投射面を撮像部が撮像する工程と、
前記レンズの光軸に対する前記撮像部の光軸の相対的な回転を示す3次の回転行列が未知の状態で、前記投射面の法線ベクトルを算出する工程と
を有するプロジェクターの制御方法。
Projecting an image indicated by the video signal onto a projection surface via a lens;
An imaging unit imaging the projection surface on which the image is projected;
Calculating a normal vector of the projection plane in a state where a third-order rotation matrix indicating the relative rotation of the optical axis of the imaging unit with respect to the optical axis of the lens is unknown.
JP2013060482A 2013-03-22 2013-03-22 Projector and projector control method Expired - Fee Related JP6221287B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013060482A JP6221287B2 (en) 2013-03-22 2013-03-22 Projector and projector control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013060482A JP6221287B2 (en) 2013-03-22 2013-03-22 Projector and projector control method

Publications (2)

Publication Number Publication Date
JP2014187515A true JP2014187515A (en) 2014-10-02
JP6221287B2 JP6221287B2 (en) 2017-11-01

Family

ID=51834639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013060482A Expired - Fee Related JP6221287B2 (en) 2013-03-22 2013-03-22 Projector and projector control method

Country Status (1)

Country Link
JP (1) JP6221287B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114845091A (en) * 2021-02-01 2022-08-02 扬智科技股份有限公司 Projection device and trapezoidal correction method thereof
CN115314689A (en) * 2022-08-05 2022-11-08 深圳海翼智新科技有限公司 Projection correction method, projection correction device, projector and computer program product
CN116886881A (en) * 2023-07-26 2023-10-13 深圳市极鑫科技有限公司 Projector based on omnidirectional trapezoidal technology

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002071315A (en) * 2000-09-05 2002-03-08 Nec Corp Projection planar measuring system
JP2010044255A (en) * 2008-08-14 2010-02-25 Seiko Epson Corp Projection display device and method for correcting image
JP2013042411A (en) * 2011-08-18 2013-02-28 Ricoh Co Ltd Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002071315A (en) * 2000-09-05 2002-03-08 Nec Corp Projection planar measuring system
JP2010044255A (en) * 2008-08-14 2010-02-25 Seiko Epson Corp Projection display device and method for correcting image
JP2013042411A (en) * 2011-08-18 2013-02-28 Ricoh Co Ltd Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114845091A (en) * 2021-02-01 2022-08-02 扬智科技股份有限公司 Projection device and trapezoidal correction method thereof
CN114845091B (en) * 2021-02-01 2023-11-10 扬智科技股份有限公司 Projection device and trapezoid correction method thereof
CN115314689A (en) * 2022-08-05 2022-11-08 深圳海翼智新科技有限公司 Projection correction method, projection correction device, projector and computer program product
CN116886881A (en) * 2023-07-26 2023-10-13 深圳市极鑫科技有限公司 Projector based on omnidirectional trapezoidal technology

Also Published As

Publication number Publication date
JP6221287B2 (en) 2017-11-01

Similar Documents

Publication Publication Date Title
JP3844076B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP3925521B2 (en) Keystone correction using part of the screen edge
JP3994290B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP5401940B2 (en) Projection optical system zoom ratio measurement method, projection image correction method using the zoom ratio measurement method, and projector for executing the correction method
JP6155717B2 (en) Image processing apparatus, projector, and image processing method
JP5997882B2 (en) Projector and projector control method
JP5069038B2 (en) Rear projection display
JP2005033703A (en) System and method for processing image, projector, program, and information storage medium
JP6201359B2 (en) Projection system, projection method, and projection program
JP2004312690A (en) Image processing system, projector, program, information storage medium and image processing method
JP2014187512A (en) Projection apparatus, projection method, and program for projection
US20210289182A1 (en) Method of controlling projector and projector
JP6749402B2 (en) Projection-type image display device and method for adjusting projection image
JP6221287B2 (en) Projector and projector control method
CN109076186B (en) Display system and information processing method
US11514592B2 (en) Control method for projector and projector
JP7347205B2 (en) Projection system control method, projection system and control program
JP6064699B2 (en) Image processing apparatus, projector, and image processing method
JP2010288062A (en) Projector, program, information storage medium, and image projection method
US20230209026A1 (en) Projection method and projector
JP7189515B2 (en) Two-dimensional flicker measuring device, two-dimensional flicker measuring method, and two-dimensional flicker measuring program
US20230188689A1 (en) Projection method and projector
JP7188176B2 (en) PROJECTOR, IMAGE DISPLAY SYSTEM AND CONTROL METHOD OF IMAGE DISPLAY SYSTEM
JP2023125177A (en) Method for adjusting projection image, projection system, and control unit
JP2023096575A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170918

R150 Certificate of patent or registration of utility model

Ref document number: 6221287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees