JP2014187515A - Projector and control method therefor - Google Patents
Projector and control method therefor Download PDFInfo
- Publication number
- JP2014187515A JP2014187515A JP2013060482A JP2013060482A JP2014187515A JP 2014187515 A JP2014187515 A JP 2014187515A JP 2013060482 A JP2013060482 A JP 2013060482A JP 2013060482 A JP2013060482 A JP 2013060482A JP 2014187515 A JP2014187515 A JP 2014187515A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- normal vector
- projection
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は、プロジェクター及びプロジェクターの制御方法に関する。 The present invention relates to a projector and a projector control method.
プロジェクターにより画像が投射される投射面の傾きを、三角測量を利用して測定する技術が知られている。特許文献1には、投射面に投射された三点のポイントをデジタルカメラで撮像し、投射光軸の投射面に対する傾斜角度を垂直方向と水平方向とについて算出することが記載されている。特許文献2には、同一の対象点を複数のカメラで撮像し、各撮像素子面上における対象点の物理的な位置から、対象点の3次元の位置を検出することが記載されている。 A technique for measuring the inclination of a projection surface on which an image is projected by a projector using triangulation is known. Patent Document 1 describes that three points projected on a projection surface are imaged with a digital camera, and an inclination angle of the projection optical axis with respect to the projection surface is calculated in the vertical direction and the horizontal direction. Patent Document 2 describes that the same target point is imaged by a plurality of cameras, and the three-dimensional position of the target point is detected from the physical position of the target point on each imaging element surface.
三角測量を利用するためには、投射光学系または撮像光学系などの光学系間の相対的な位置関係(位置および角度)が既知である必要がある。特許文献1に記載の技術により投射面の傾きを測定するためには、投射レンズと撮像レンズとの位置関係が既知でなければならない。特許文献2に記載の技術によって対象点の3次元の位置を検出するためには、2つのカメラのレンズの位置関係が既知でなければならない。したがって、光学系間の位置関係が何らかの外的な要因(例えば、プロジェクターに衝撃が加わった場合、または煽り投射によってプロジェクターの筐体が歪んだ場合など)によって変化した場合、三角測量を利用した方法では測定誤差が大きくなるという問題がある。
本発明は、投射面の法線ベクトルの測定誤差を低減することを目的の一つとする。
In order to use triangulation, the relative positional relationship (position and angle) between optical systems such as a projection optical system or an imaging optical system needs to be known. In order to measure the tilt of the projection surface by the technique described in Patent Document 1, the positional relationship between the projection lens and the imaging lens must be known. In order to detect the three-dimensional position of the target point by the technique described in Patent Document 2, the positional relationship between the lenses of the two cameras must be known. Therefore, when the positional relationship between the optical systems changes due to some external factor (for example, when an impact is applied to the projector, or when the projector housing is distorted due to turning projection), a method using triangulation Then, there is a problem that the measurement error increases.
An object of the present invention is to reduce the measurement error of the normal vector of the projection surface.
上述の課題を解決するため、本発明は、映像信号が示す画像を、レンズを介して投射面に投射する投射部と、前記投射部により画像が投射された投射面を撮像する撮像部と、前記レンズの光軸に対する前記撮像部の光軸の相対的な回転を示す3次の回転行列が未知の状態で、前記投射面の法線ベクトルを算出する算出部とを有するプロジェクターを提供する。このプロジェクターによれば、三角測量を利用した場合に比べて、投射面の法線ベクトルの測定誤差が低減される。 In order to solve the above-described problems, the present invention provides a projection unit that projects an image indicated by a video signal onto a projection surface via a lens, an imaging unit that captures a projection surface on which an image is projected by the projection unit, There is provided a projector including a calculation unit that calculates a normal vector of the projection plane in a state where a third-order rotation matrix indicating the relative rotation of the optical axis of the imaging unit with respect to the optical axis of the lens is unknown. According to this projector, the measurement error of the normal vector on the projection surface is reduced as compared with the case where triangulation is used.
別の好ましい態様において、前記投射部は、前記映像信号に応じて光を変調する光変調器を有し、前記算出部は、前記光変調器における画像を前記撮像部により撮像された撮像画像に射影変換する第1の変換行列に基づいて、前記法線ベクトルを算出することを特徴とする。このプロジェクターによれば、レンズの光軸に対する撮像部の光軸の相対的な回転が未知の状態で、投射面の法線ベクトルが算出される。 In another preferable aspect, the projection unit includes an optical modulator that modulates light according to the video signal, and the calculation unit converts an image in the optical modulator into a captured image captured by the imaging unit. The normal vector is calculated based on a first transformation matrix for projective transformation. According to this projector, the normal vector of the projection surface is calculated in a state where the relative rotation of the optical axis of the imaging unit with respect to the optical axis of the lens is unknown.
また、別の好ましい態様において、前記投射部は、4点以上の特徴点を含む較正画像を前記投射面に投射し、前記撮像部は、前記較正画像が投射された投射面を撮像し、前記算出部は、前記撮像画像に含まれる前記特徴点に基づいて算出された前記第1の変換行列と、世界座標を前記光変調器における座標に透視変換する第2の変換行列、前記世界座標を前記撮像画像における座標に透視変換する既知の第3の変換行列、前記レンズに対する前記撮像部の相対的な位置を示す空間ベクトル、前記回転行列、および前記法線ベクトルとの関係に基づいて、前記法線ベクトルを算出し、前記算出部により算出された法線ベクトルに基づいて、前記光変調器における画像を補正する補正部を有することを特徴とする。このプロジェクターによれば、光変調器における画像と撮像画像との関係に基づいて、投射面の法線ベクトルが算出される。 In another preferable aspect, the projection unit projects a calibration image including four or more feature points onto the projection surface, the imaging unit images the projection surface on which the calibration image is projected, and The calculation unit calculates the first conversion matrix calculated based on the feature points included in the captured image, a second conversion matrix for perspective-converting world coordinates to coordinates in the light modulator, and the world coordinates. Based on the relationship between a known third transformation matrix that is perspective-transformed into coordinates in the captured image, a spatial vector indicating the relative position of the imaging unit with respect to the lens, the rotation matrix, and the normal vector, The image processing apparatus includes a correction unit that calculates a normal vector and corrects an image in the optical modulator based on the normal vector calculated by the calculation unit. According to this projector, the normal vector of the projection surface is calculated based on the relationship between the image and the captured image in the optical modulator.
また、別の好ましい態様において、前記算出部は、次式(1)により前記法線ベクトルを算出することを特徴とする。
また、別の好ましい態様において、前記第2の変換行列は既知であることを特徴とする。このプロジェクターによれば、投射部のレンズが単焦点レンズである場合に、投射面の法線ベクトルの測定誤差が低減される。 In another preferred embodiment, the second transformation matrix is known. According to this projector, when the lens of the projection unit is a single focus lens, the measurement error of the normal vector of the projection surface is reduced.
また、別の好ましい態様において、前記空間ベクトルは既知であることを特徴とする。このプロジェクターによれば、投射部のレンズがズームレンズであっても、投射面の法線ベクトルの測定誤差が低減される。 In another preferred embodiment, the space vector is known. According to this projector, even if the lens of the projection unit is a zoom lens, the measurement error of the normal vector on the projection surface is reduced.
また、別の好ましい態様において、前記回転行列、前記第2の変換行列、前記空間ベクトル、前記法線ベクトル、および前記任意定数における未知のパラメーターの数の総和が、式(1)が示す方程式の数よりも少なく、前記算出部は、反復法または最小二乗法により前記法線ベクトルを算出することを特徴とする。このプロジェクターによれば、未知のパラメーターの数の総和が、式(1)が示す方程式の数と等しくない場合であっても、投射面の法線ベクトルが算出される。 In another preferred embodiment, the sum of the number of unknown parameters in the rotation matrix, the second transformation matrix, the space vector, the normal vector, and the arbitrary constant is expressed by an equation represented by Equation (1). The calculation unit may calculate the normal vector by an iterative method or a least square method. According to this projector, the normal vector of the projection surface is calculated even when the total number of unknown parameters is not equal to the number of equations indicated by Equation (1).
また、本発明は、映像信号が示す画像を、レンズを介して投射面に投射する工程と、前記画像が投射された投射面を撮像部が撮像する工程と、前記レンズの光軸に対する前記撮像部の光軸の相対的な回転を示す3次の回転行列が未知の状態で、前記投射面の法線ベクトルを算出する工程とを有するプロジェクターの制御方法を提供する。このプロジェクターの制御方法によれば、三角測量を利用した場合に比べて、投射面の法線ベクトルの測定誤差が低減される。 The present invention also includes a step of projecting an image indicated by a video signal onto a projection surface via a lens, a step of an imaging unit imaging the projection surface on which the image is projected, and the imaging with respect to the optical axis of the lens. And a step of calculating a normal vector of the projection plane in a state where a third-order rotation matrix indicating relative rotation of the optical axis of the unit is unknown. According to this projector control method, the measurement error of the normal vector on the projection surface is reduced as compared with the case where triangulation is used.
図1は、本発明の一実施形態に係るプロジェクター1の動作概要を説明する図である。プロジェクター1は、映像信号により示される画像(以下、「入力画像」という)をスクリーンSCに投射する装置である。スクリーンSCは、プロジェクター1から投射される画像を映し出す平面(投射面)である。プロジェクター1の投射軸がスクリーンSCに対して理想的な状態から傾いている場合、スクリーンSC上に映し出される画像(以下、「投射画像」という)は、破線で示したように台形に歪んだものとなる。プロジェクター1は、この歪み(台形歪み)を補正する機能を有する。図1の例で、プロジェクター1は、補正後の画像として画像IprをスクリーンSCに投射している。台形歪みの補正は、スクリーンSCの法線ベクトルを用いて行われる。 FIG. 1 is a diagram illustrating an outline of the operation of a projector 1 according to an embodiment of the invention. The projector 1 is a device that projects an image (hereinafter referred to as “input image”) indicated by a video signal onto a screen SC. The screen SC is a plane (projection surface) on which an image projected from the projector 1 is projected. When the projection axis of the projector 1 is tilted from an ideal state with respect to the screen SC, an image projected on the screen SC (hereinafter referred to as “projected image”) is distorted into a trapezoid as shown by a broken line. It becomes. The projector 1 has a function of correcting this distortion (trapezoidal distortion). In the example of FIG. 1, the projector 1 projects an image Ipr as a corrected image on the screen SC. The trapezoidal distortion is corrected using the normal vector of the screen SC.
図2は、プロジェクター1の機能的構成を示すブロック図である。プロジェクター1は、投射部101と、較正画像記憶部102と、撮像部103と、特徴点検出部104と、射影変換行列算出部105と、法線ベクトル算出部106と、補正値算出部107と、調整値算出部108と、レンズ駆動部109と、映像信号取得部110と、歪み補正部111とを有する。投射部101は、入力画像および較正画像を、レンズを介してスクリーンSCに投射する。較正画像は、台形歪みを補正するために用いられる、スクリーンSCの法線ベクトル(以下、「法線ベクトルn」と表現する)の算出に用いられる画像である。較正画像は、4点以上の特徴点を含む。投射部101は、映像信号に応じて光源(図示略)からの光を変調する光変調器を有する。較正画像記憶部102は、較正画像を示す画像データを記憶する。撮像部103は、投射部101により較正画像が投射されたスクリーンSCを撮像する。特徴点検出部104は、撮像部103により撮像された画像(以下、「撮像画像」という)に含まれる特徴点を検出する。射影変換行列算出部105は、特徴点検出部104により検出された特徴点に基づいて第1の変換行列(以下、「射影変換行列H」と表現する)を算出する。射影変換行列Hは、光変調器における画像を撮像画像に射影変換するための3次正方行列である。法線ベクトル算出部106(算出部の一例)は、射影変換行列算出部105により算出された射影変換行列Hに基づいて、レンズの光軸に対する撮像部103の光軸の相対的な回転(回転行列Rにより表される)が未知の状態で、法線ベクトルnを算出する。補正値算出部107は、法線ベクトル算出部106により算出された法線ベクトルnに基づいて、光変調器における画像を補正するための補正値を算出する。調整値算出部108は、法線ベクトル算出部106により算出された法線ベクトルnに基づいて、レンズのフォーカスを調整するための調整値を算出する。レンズ駆動部109は、調整値算出部108により算出された調整値を用いて、レンズのフォーカスを調整する。映像信号取得部110は、外部装置から映像信号を取得する。歪み補正部111は、補正値算出部107により算出された補正値を用いて、光変調器における画像を補正する。
FIG. 2 is a block diagram illustrating a functional configuration of the projector 1. The projector 1 includes a
図3は、プロジェクター1のハードウェア構成を示すブロック図である。プロジェクター1は、CPU(Central Processing Unit)10と、ROM(Read Only Memory)11と、RAM(Random Access Memory)12と、IF(インターフェース)部13と、画像処理回路14と、投射ユニット15と、カメラ16と、受光部17と、操作パネル18と、入力処理部19とを有する。CPU10は、制御プログラム11Aを実行することによりプロジェクター1の各部を制御する制御装置である。ROM11は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。ROM11は、CPU10が実行する制御プログラム11Aを記憶する。RAM12は、データを記憶する揮発性の記憶装置である。RAM12は、フレームメモリー12aを有する。フレームメモリー12aは、映像信号により示される映像のうち、1フレーム分の画像を記憶する領域である。
FIG. 3 is a block diagram illustrating a hardware configuration of the projector 1. The projector 1 includes a central processing unit (CPU) 10, a read only memory (ROM) 11, a random access memory (RAM) 12, an IF (interface)
IF部13は、DVD(Digital Versatile Disc)プレーヤー又はパーソナルコンピューターなどの外部装置と通信を行なう。IF部13は、外部装置と接続するための各種端子(例えば、VGA端子、USB端子、有線または無線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子など)を備える。IF部13は、外部装置から取得した映像信号から、垂直・水平の同期信号を抽出する。画像処理回路14は、映像信号により示される画像に所定の画像処理を施す。画像処理回路14は、画像処理後の画像をフレームメモリー12aに書き込む。
The
投射ユニット15は、光源151と、液晶パネル152と、光学系153と、光源駆動回路154と、パネル駆動回路155と、光学系駆動部156とを有する。光源151は、高圧水銀ランプ、ハロゲンランプ、若しくはメタルハライドランプなどのランプ、又はLED(Light Emitting Diode)若しくはレーザーダイオードなどの発光体を有し、液晶パネル152に光を照射する。液晶パネル152は、光源151から照射された光を画像データに応じて変調する光変調器である。この例で液晶パネル152は、マトリクス状に配置された複数の画素を有する。液晶パネル152は、例えば、XGA(eXtended Graphics Array)の解像度を有し、1024×768個の画素により構成される表示領域を有する。この例で、液晶パネル152は透過型の液晶パネルであり、各画素の透過率が画像データに応じて制御される。プロジェクター1は、RGBの三原色に対応した3枚の液晶パネル152を有する。光源151からの光はRGBの3色の色光に分離され、各色光は対応する液晶パネル152に入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等によって合成され、光学系153に射出される。光学系153は、液晶パネル603により画像光へと変調された光を拡大してスクリーンSCに投射する投射レンズ1531と、投射画像の焦点を調整するフォーカスレンズ1532とにより構成されている。投射レンズ1531には、単焦点レンズが用いられる。光源駆動回路154は、CPU10の制御に従って光源151を駆動する。パネル駆動回路155は、CPU10から出力された画像データに応じて液晶パネル152を駆動する。光学系駆動部156は、フォーカスレンズ1532のフォーカスを調整するモーター、および当該モーターをCPU10の制御に従って駆動する駆動回路を有する。
The
カメラ16は、スクリーンSCを撮像し、画像データを生成するデジタルカメラである。カメラ16は、例えば、投射ユニット15が投射画像を投射可能な最大範囲を含む画角でスクリーンSCを撮像する。受光部17は、コントローラーRCから送信される赤外線信号を受光し、受光した赤外線信号をデコードして入力処理部19に出力する。操作パネル18は、プロジェクター1の電源のオン/オフまたは各種操作を行うためのボタンおよびスイッチを有する。入力処理部19は、コントローラーRCまたは操作パネル18による操作内容を示す情報を生成し、CPU10に出力する。
The
プロジェクター1において、プログラムを実行しているCPU10は、特徴点検出部104、射影変換行列算出部105、法線ベクトル算出部106、補正値算出部107、および調整値算出部108の一例である。プログラムを実行しているCPU10により制御されている投射ユニット15(光学系駆動部156を除く)は、投射部101の一例である。プログラムを実行しているCPU10により制御されている光学系駆動部156は、レンズ駆動部109の一例である。プログラムを実行しているCPU10により制御されているカメラ16は、撮像部103の一例である。ROM11は、較正画像記憶部102の一例である。プログラムを実行しているCPU10により制御されているIF部13は、映像信号取得部110の一例である。プログラムを実行しているCPU10により制御されている画像処理回路14は、歪み補正部111の一例である。
In the projector 1, the
図4は、プロジェクター1が投射画像の台形歪みを補正する処理(以下、「歪み補正処理」という)を示すフローチャートである。歪み補正処理は、例えば、プロジェクター1の電源が投入されたことを契機として、または、ユーザーがコントローラーRCを操作して歪み補正処理を開始するための指示をプロジェクター1に入力したことを契機として開始される。ステップS1において、CPU10は、較正画像をスクリーンSCに投射する。具体的には、CPU10は、較正画像を示す画像データをROM11から読み出して、当該画像データをパネル駆動回路155に出力する。
FIG. 4 is a flowchart showing a process in which the projector 1 corrects the trapezoidal distortion of the projected image (hereinafter referred to as “distortion correction process”). The distortion correction processing is started when, for example, the projector 1 is turned on or when the user inputs an instruction to start the distortion correction processing by operating the controller RC to the projector 1. Is done. In step S1, the
図5は、較正画像の例を示す図である。図5は、液晶パネル152に表示された較正画像Icを示している。図5において、実線は液晶パネル152の表示領域の輪郭を表し、破線は較正画像Icの輪郭を表す。この例で、較正画像Icは、特徴点以外の領域が透明、且つ矩形の画像である。図5の例では、較正画像Icは、点U1から点U4の4つの特徴点を有する。この例では、4つの頂点がそれぞれ特徴点である。特徴点は、液晶パネル152において複数の画素の集合として表示される。液晶パネル152における各特徴点の座標(ここでは、特徴点を構成する複数の画素の中心の座標)は、予めROM11に記憶されている。図5において、点U1から点U4の各特徴点の液晶パネル152上の座標は、U1(X0,Y0)、U2(X1、Y1)、U3(X2、Y2)、U4(X3、Y3)である。投射レンズ1531の光軸がスクリーンSCに対して理想的な状態から傾いている場合、スクリーンSCに映し出される較正画像Icは、歪んだものとなる。
FIG. 5 is a diagram illustrating an example of a calibration image. FIG. 5 shows a calibration image Ic displayed on the
再び図4を参照する。ステップS2において、CPU10は、スクリーンSCに投射された較正画像Icを撮像する。CPU10は、較正画像Icが撮像された撮像画像をRAM12に記憶する。ステップS3において、CPU10は、較正画像Icが撮像された撮像画像から特徴点を検出する。具体的には、CPU10は、撮像画像に含まれる4つの特徴点を検出し、撮像画像における各特徴点の座標を算出する。CPU10は、算出された各特徴点の座標をRAM12に記憶する。
Refer to FIG. 4 again. In step S2, the
図6は、撮像画像Iphを示す図である。撮像画像Iphは、スクリーンSCに投射された較正画像Icを撮像した画像である。図6において、実線は撮像画像Iphの輪郭(カメラ16のフレーム)を表し、破線は較正画像Icの輪郭を表す。撮像画像Iphにおいて点u1から点u4の各特徴点は、較正画像Icにおける点U1から点U4の各特徴点にそれぞれ対応する。図6の例で、点u1から点u4の各特徴点の撮像画像Iph上の座標は、u1(x0、y0)、u2(x1、y1)、u3(x2、y2)、u4(x3、y3)である。 FIG. 6 is a diagram illustrating the captured image Iph. The captured image Iph is an image obtained by capturing the calibration image Ic projected on the screen SC. In FIG. 6, the solid line represents the contour of the captured image Iph (frame of the camera 16), and the broken line represents the contour of the calibration image Ic. Each feature point from point u1 to point u4 in the captured image Iph corresponds to each feature point from point U1 to point U4 in the calibration image Ic. In the example of FIG. 6, the coordinates on the captured image Iph of the feature points from the point u1 to the point u4 are u1 (x0, y0), u2 (x1, y1), u3 (x2, y2), u4 (x3, y3). ).
再び図4を参照する。ステップS4において、CPU10は、液晶パネル152における各特徴点の座標と、撮像画像Iphにおける各特徴点の座標とに基づいて、以下の式(2)に示す射影変換行列Hを算出する。
ステップS5において、CPU10は、射影変換行列Hを用いて法線ベクトルnを算出する。具体的には、CPU10は、RAM12から射影変換行列Hを読み出して、以下の式(4)に示す9元連立方程式を解くことにより、法線ベクトルn(3行1列の行列)を算出する。式(4)において「T」はある行列の転置を表す。
λ:任意定数
B:世界座標を撮像画像における座標に透視変換するための座標変換行列(3次正方行列)
R:投射レンズ1531の光軸に対するカメラ16の光軸の相対的な回転を示す3次の回転行列
E:3次の単位行列
t:投射レンズ1531に対するカメラ16の相対的な位置を示す空間ベクトル(3行1列の行列)
A:世界座標を液晶パネル152における座標に透視変換するための座標変換行列(3次正方行列)
なお、座標変換行列Aおよび座標変換行列Bは、3次元の世界座標を2次元の平面上の座標に変換する行列であり、ある2次元の平面上の座標を他の2次元の平面上の座標に変換する射影変換行列Hとは異なる種類の行列である。
In step S <b> 5, the
λ: Arbitrary constant B: Coordinate transformation matrix (third-order square matrix) for perspective transformation of world coordinates to coordinates in the captured image
R: Third-order rotation matrix indicating relative rotation of the optical axis of the
A: Coordinate transformation matrix (third-order square matrix) for perspective transformation of world coordinates to coordinates on the
Note that the coordinate transformation matrix A and the coordinate transformation matrix B are matrices for transforming three-dimensional world coordinates into coordinates on a two-dimensional plane. It is a different type of matrix from the projective transformation matrix H that converts to coordinates.
ここで、座標変換行列Bの各パラメーターは、カメラ16に固有の値であり、プロジェクター1の製造時に測定された既知の値がROM11に記憶されている。座標変換行列Aの各パラメーターは、投射レンズ1531により決まる値である。本実施形態では投射レンズ1531が単焦点レンズであるため(焦点距離が変化しないため)、座標変換行列Aの各パラメーターは一定の値となる。そのため、座標変換行列Aの各パラメーターについても、プロジェクター1の製造時に測定された既知の値がROM11に記憶されている。空間ベクトルtは、単位ベクトルに正規化することができ、3つのパラメーターのうち2つのパラメーターに基づいて残りのパラメーターを算出することができる。つまり、空間ベクトルtの未知のパラメーターの数は2つに減らすことができる。したがって、式(4)の右辺について、未知のパラメーターの数の総和は、任意定数λについて1つ、回転行列Rについて3つ、空間ベクトルtについて2つ、法線ベクトルnについて3つの合計9つとなる。これは式(4)から得られる方程式の数と等しいため、式(4)に示す9元連立方程式を解くことにより、法線ベクトルnが算出される。なお、式(4)に示す9元連立方程式を解くと、法線ベクトルnの解が2つ得られるが、CPU10は、算出された回転行列Rと空間ベクトルtとが初期値により近くなる一方の法線ベクトルnを採用する。回転行列Rと空間ベクトルtの初期値は、予めROM11に記憶されている。CPU10は、算出された法線ベクトルnを示すデータをRAM12に記憶する。
Here, each parameter of the coordinate transformation matrix B is a value unique to the
式(4)によれば、回転行列Rが未知の状態であっても、法線ベクトルnが算出される。したがって、三角測量を利用した場合に比べて、法線ベクトルnの測定誤差が低減される。例えば、投射レンズ1531の光軸に対するカメラ16の光軸の相対的な回転が外的な要因(例えば、プロジェクター1に衝撃が加わった場合、または煽り投射によってプロジェクター1の筐体が歪んだ場合など)によって変化した場合であっても、精度の高い法線ベクトルnが算出される。
According to equation (4), the normal vector n is calculated even when the rotation matrix R is unknown. Therefore, the measurement error of the normal vector n is reduced compared to the case where triangulation is used. For example, the relative rotation of the optical axis of the
ステップS6において、CPU10は、法線ベクトルnを用いて、投射レンズ1531に対するスクリーンSCの傾きを算出する。具体的には、CPU10は、RAM12から法線ベクトルnを示すデータと投射レンズ1531の光軸の方向ベクトルを示すデータとを読み出して、法線ベクトルnと投射レンズ1531の光軸とがなす角度θを算出する。投射レンズ1531の光軸の方向ベクトルを示すデータは、歪み補正処理が開始される前に予め測定され、RAM12に記憶されている。CPU10は、算出された角度θをRAM12に記憶する。
In step S <b> 6, the
ステップS7において、CPU10は、スクリーンSCの傾きに応じて、台形歪みを補正するための射影変換行列(以下、「射影変換行列F」と表現する)を算出する。射影変換行列Fは、液晶パネル152における座標を、入力画像における座標に射影変換する3次正方行列である。具体的には、CPU10は、スクリーンSCの傾きに基づいて台形歪みの補正が行われない場合の投射画像を特定し、特定された投射画像に基づいて以下の式(5)に示す射影変換行列Fを算出する。CPU10は、算出された射影変換行列FをRAM12に記憶する。射影変換行列Fの各パラメーターは、補正値の一例である。
ステップS8において、CPU10は、射影変換行列Fを用いて、入力画像を射影変換する。具体的には、CPU10は、以下の式(6)により、液晶パネル152における座標(Xj,Yj)に対して座標変換を行い、入力画像における座標(Xk,Yk)を算出する。
ステップS10において、CPU10は、法線ベクトルnを用いて、投射レンズ1531からスクリーンSCまでの距離dSCを算出する。具体的には、CPU10は、RAM12から法線ベクトルnを示すデータを読み出し、以下の式(7)により距離dSCを算出する。CPU10は、算出された距離dSCをRAM12に記憶する。
ステップS11において、CPU10は、距離dSCに応じて、フォーカスレンズ1532のフォーカスを調整するための調整値を算出する。CPU10は、予め定められた式をROM11から読み出して、距離dSCに応じた調整値を算出する。CPU10は、算出された調整値を示すデータをRAM12に記憶する。ステップS12において、CPU10は、調整値を用いてフォーカスレンズ1532のフォーカスを調整する。具体的には、CPU10は、調整値を示すデータをRAM12から読み出して、光学系駆動部156に出力する。このように、本実施形態では、式(4)により算出された法線ベクトルnに基づいてフォーカスの調整が行われるため、三角測量により法線ベクトルnが算出された場合に比べて、フォーカスの調整の精度が高くなる。
In step S11, the
<変形例>
本発明は、上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下で説明する変形例のうち、2つ以上のものが組み合わされて用いられても良い。
<Modification>
The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Of the modifications described below, two or more may be used in combination.
(1)変形例1
上述の実施形態では、投射レンズ1531が単焦点レンズであって、座標変換行列Aの各パラメーターが既知である場合について説明した。この点、投射レンズ1531は、焦点距離が変化するズームレンズであって、座標変換行列Aのパラメーターのうちの1つが未知であってもよい。この場合、式(4)に示す連立方程式において、空間ベクトルtの各パラメーターには、プロジェクター1の製造時に測定された既知の値が用いられる。空間ベクトルtの各パラメーターの値は、予めROM11に記憶されている。これにより、式(4)の右辺について、未知のパラメーターの数の総和は、任意定数λについて1つ、回転行列Rについて3つ、法線ベクトルnについて3つ、座標変換行列Aについて1つの合計8つとなる。これは式(4)から得られる方程式の数よりも少ないため、式(4)に示す9本の方程式からなる8元連立方程式を解くことにより、法線ベクトルnが算出される。未知のパラメーターの数が、式(4)から得られる方程式の数よりも少ない場合、CPU10は、反復法または最小二乗法により法線ベクトルnを算出する。なお、座標変換行列Aおよび空間ベクトルtの各パラメーターのいずれもが既知であってもよい。
(1) Modification 1
In the embodiment described above, the case where the
(2)変形例2
投射レンズ1531がズームレンズである場合、プロジェクター1は、投射レンズ1531の焦点距離を取得するための構成を備えていてもよい。例えば、投射レンズ1531の焦点距離が、可変抵抗の抵抗値を変化させることにより制御される場合には、当該抵抗値に基づいて焦点距離が取得されてもよい。この場合、式(4)の右辺について、未知のパラメーターの数の総和は、実施形態と同様に合計9つとなる。したがって、実施形態と同様の方法により法線ベクトルnが算出される。
(2) Modification 2
When the
(3)その他の変形例
歪み補正処理において行われる処理は、図4に示した処理に限らない。例えば、フォーカスレンズ1532のフォーカスの調整に関する処理(ステップS10からステップS12)が、入力画像の射影変換に関する処理(ステップS6からステップS9)よりも前に行われてもよい。
較正画像は、図5に示したものに限らない。較正画像は、例えば、輪郭がユーザーに知覚されるように液晶パネル152に表示されてもよい。別の例で、較正画像は、4点を超える特徴点を含んでいてもよい。
プロジェクター1のハードウェア構成は、図3に示した構成に限らない。プロジェクター1は、図4に示した各ステップの処理を実行できれば、どのようなハードウェア構成であってもよい。例えば、液晶パネル152に代えて、デジタルミラーデバイス(DMD)が光変調器として用いられてもよい。
(3) Other Modifications The processing performed in the distortion correction processing is not limited to the processing shown in FIG. For example, the process related to the focus adjustment of the focus lens 1532 (step S10 to step S12) may be performed before the process related to projective conversion of the input image (step S6 to step S9).
The calibration image is not limited to that shown in FIG. For example, the calibration image may be displayed on the
The hardware configuration of the projector 1 is not limited to the configuration shown in FIG. The projector 1 may have any hardware configuration as long as the processing of each step shown in FIG. 4 can be executed. For example, instead of the
1…プロジェクター、101…投射部、102…較正画像記憶部、103…撮像部、104…特徴点検出部、105…射影変換行列算出部、106…法線ベクトル算出部、107…補正値算出部、108…調整値算出部、109…レンズ駆動部、110…映像信号取得部、111…歪み補正部、10…CPU、11…ROM、12…RAM、13…IF部、14…画像処理回路、15…投射ユニット、151…光源、152…液晶パネル、153…光学系、1531…投射レンズ、1532…フォーカスレンズ、154…光源駆動回路、155…パネル駆動回路、156…光学系駆動部、16…カメラ、17…受光部、18…操作パネル、19…入力処理部。
DESCRIPTION OF SYMBOLS 1 ... Projector, 101 ... Projection part, 102 ... Calibration image memory | storage part, 103 ... Imaging part, 104 ... Feature point detection part, 105 ... Projection transformation matrix calculation part, 106 ... Normal vector calculation part, 107 ... Correction value calculation part , 108 ... adjustment value calculation unit, 109 ... lens drive unit, 110 ... video signal acquisition unit, 111 ... distortion correction unit, 10 ... CPU, 11 ... ROM, 12 ... RAM, 13 ... IF unit, 14 ... image processing circuit, DESCRIPTION OF
Claims (8)
前記投射部により画像が投射された投射面を撮像する撮像部と、
前記レンズの光軸に対する前記撮像部の光軸の相対的な回転を示す3次の回転行列が未知の状態で、前記投射面の法線ベクトルを算出する算出部と
を有するプロジェクター。 A projection unit that projects an image indicated by the video signal onto a projection surface via a lens;
An imaging unit that captures a projection surface on which an image is projected by the projection unit;
And a calculation unit that calculates a normal vector of the projection plane in a state where a third-order rotation matrix indicating the relative rotation of the optical axis of the imaging unit with respect to the optical axis of the lens is unknown.
前記算出部は、前記光変調器における画像を前記撮像部により撮像された撮像画像に射影変換する第1の変換行列に基づいて、前記法線ベクトルを算出する
ことを特徴とする請求項1に記載のプロジェクター。 The projection unit includes an optical modulator that modulates light according to the video signal,
The said calculation part calculates the said normal vector based on the 1st conversion matrix which carries out projective conversion of the image in the said optical modulator to the picked-up image imaged by the said imaging part. The projector described.
前記撮像部は、前記較正画像が投射された投射面を撮像し、
前記算出部は、前記撮像画像に含まれる前記特徴点に基づいて算出された前記第1の変換行列と、世界座標を前記光変調器における座標に透視変換する第2の変換行列、前記世界座標を前記撮像画像における座標に透視変換する既知の第3の変換行列、前記レンズに対する前記撮像部の相対的な位置を示す空間ベクトル、前記回転行列、および前記法線ベクトルとの関係に基づいて、前記法線ベクトルを算出し、
前記算出部により算出された法線ベクトルに基づいて、前記光変調器における画像を補正する補正部を有する
ことを特徴とする請求項2に記載のプロジェクター。 The projection unit projects a calibration image including four or more feature points onto the projection surface,
The imaging unit images a projection surface on which the calibration image is projected,
The calculation unit includes the first conversion matrix calculated based on the feature points included in the captured image, a second conversion matrix for perspective-converting world coordinates to coordinates in the light modulator, and the world coordinates. Based on a relationship between a known third transformation matrix for perspective-transforming into a coordinate in the captured image, a space vector indicating a relative position of the imaging unit with respect to the lens, the rotation matrix, and the normal vector, Calculating the normal vector;
The projector according to claim 2, further comprising: a correction unit that corrects an image in the optical modulator based on the normal vector calculated by the calculation unit.
ことを特徴とする請求項3に記載のプロジェクター。
ことを特徴とする請求項3または4に記載のプロジェクター。 The projector according to claim 3, wherein the second transformation matrix is known.
ことを特徴とする請求項3乃至5のいずれか一項に記載のプロジェクター。 The projector according to claim 3, wherein the space vector is known.
前記算出部は、反復法または最小二乗法により前記法線ベクトルを算出する
ことを特徴とする請求項4乃至6のいずれか一項に記載のプロジェクター。 The sum of the number of unknown parameters in the rotation matrix, the second transformation matrix, the space vector, the normal vector, and the arbitrary constant is less than the number of equations represented by Equation (1),
The projector according to claim 4, wherein the calculation unit calculates the normal vector by an iterative method or a least square method.
前記画像が投射された投射面を撮像部が撮像する工程と、
前記レンズの光軸に対する前記撮像部の光軸の相対的な回転を示す3次の回転行列が未知の状態で、前記投射面の法線ベクトルを算出する工程と
を有するプロジェクターの制御方法。 Projecting an image indicated by the video signal onto a projection surface via a lens;
An imaging unit imaging the projection surface on which the image is projected;
Calculating a normal vector of the projection plane in a state where a third-order rotation matrix indicating the relative rotation of the optical axis of the imaging unit with respect to the optical axis of the lens is unknown.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013060482A JP6221287B2 (en) | 2013-03-22 | 2013-03-22 | Projector and projector control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013060482A JP6221287B2 (en) | 2013-03-22 | 2013-03-22 | Projector and projector control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014187515A true JP2014187515A (en) | 2014-10-02 |
JP6221287B2 JP6221287B2 (en) | 2017-11-01 |
Family
ID=51834639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013060482A Expired - Fee Related JP6221287B2 (en) | 2013-03-22 | 2013-03-22 | Projector and projector control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6221287B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114845091A (en) * | 2021-02-01 | 2022-08-02 | 扬智科技股份有限公司 | Projection device and trapezoidal correction method thereof |
CN115314689A (en) * | 2022-08-05 | 2022-11-08 | 深圳海翼智新科技有限公司 | Projection correction method, projection correction device, projector and computer program product |
CN116886881A (en) * | 2023-07-26 | 2023-10-13 | 深圳市极鑫科技有限公司 | Projector based on omnidirectional trapezoidal technology |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002071315A (en) * | 2000-09-05 | 2002-03-08 | Nec Corp | Projection planar measuring system |
JP2010044255A (en) * | 2008-08-14 | 2010-02-25 | Seiko Epson Corp | Projection display device and method for correcting image |
JP2013042411A (en) * | 2011-08-18 | 2013-02-28 | Ricoh Co Ltd | Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon |
-
2013
- 2013-03-22 JP JP2013060482A patent/JP6221287B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002071315A (en) * | 2000-09-05 | 2002-03-08 | Nec Corp | Projection planar measuring system |
JP2010044255A (en) * | 2008-08-14 | 2010-02-25 | Seiko Epson Corp | Projection display device and method for correcting image |
JP2013042411A (en) * | 2011-08-18 | 2013-02-28 | Ricoh Co Ltd | Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114845091A (en) * | 2021-02-01 | 2022-08-02 | 扬智科技股份有限公司 | Projection device and trapezoidal correction method thereof |
CN114845091B (en) * | 2021-02-01 | 2023-11-10 | 扬智科技股份有限公司 | Projection device and trapezoid correction method thereof |
CN115314689A (en) * | 2022-08-05 | 2022-11-08 | 深圳海翼智新科技有限公司 | Projection correction method, projection correction device, projector and computer program product |
CN116886881A (en) * | 2023-07-26 | 2023-10-13 | 深圳市极鑫科技有限公司 | Projector based on omnidirectional trapezoidal technology |
Also Published As
Publication number | Publication date |
---|---|
JP6221287B2 (en) | 2017-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3844076B2 (en) | Image processing system, projector, program, information storage medium, and image processing method | |
JP3925521B2 (en) | Keystone correction using part of the screen edge | |
JP3994290B2 (en) | Image processing system, projector, program, information storage medium, and image processing method | |
JP5401940B2 (en) | Projection optical system zoom ratio measurement method, projection image correction method using the zoom ratio measurement method, and projector for executing the correction method | |
JP6155717B2 (en) | Image processing apparatus, projector, and image processing method | |
JP5997882B2 (en) | Projector and projector control method | |
JP5069038B2 (en) | Rear projection display | |
JP2005033703A (en) | System and method for processing image, projector, program, and information storage medium | |
JP6201359B2 (en) | Projection system, projection method, and projection program | |
JP2004312690A (en) | Image processing system, projector, program, information storage medium and image processing method | |
JP2014187512A (en) | Projection apparatus, projection method, and program for projection | |
US20210289182A1 (en) | Method of controlling projector and projector | |
JP6749402B2 (en) | Projection-type image display device and method for adjusting projection image | |
JP6221287B2 (en) | Projector and projector control method | |
CN109076186B (en) | Display system and information processing method | |
US11514592B2 (en) | Control method for projector and projector | |
JP7347205B2 (en) | Projection system control method, projection system and control program | |
JP6064699B2 (en) | Image processing apparatus, projector, and image processing method | |
JP2010288062A (en) | Projector, program, information storage medium, and image projection method | |
US20230209026A1 (en) | Projection method and projector | |
JP7189515B2 (en) | Two-dimensional flicker measuring device, two-dimensional flicker measuring method, and two-dimensional flicker measuring program | |
US20230188689A1 (en) | Projection method and projector | |
JP7188176B2 (en) | PROJECTOR, IMAGE DISPLAY SYSTEM AND CONTROL METHOD OF IMAGE DISPLAY SYSTEM | |
JP2023125177A (en) | Method for adjusting projection image, projection system, and control unit | |
JP2023096575A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6221287 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |