JP4645455B2 - Image projection apparatus, projection image correction method, and program - Google Patents

Image projection apparatus, projection image correction method, and program Download PDF

Info

Publication number
JP4645455B2
JP4645455B2 JP2006010484A JP2006010484A JP4645455B2 JP 4645455 B2 JP4645455 B2 JP 4645455B2 JP 2006010484 A JP2006010484 A JP 2006010484A JP 2006010484 A JP2006010484 A JP 2006010484A JP 4645455 B2 JP4645455 B2 JP 4645455B2
Authority
JP
Japan
Prior art keywords
image
projection
color
unit
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006010484A
Other languages
Japanese (ja)
Other versions
JP2007194865A (en
Inventor
哲司 牧野
克典 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006010484A priority Critical patent/JP4645455B2/en
Publication of JP2007194865A publication Critical patent/JP2007194865A/en
Application granted granted Critical
Publication of JP4645455B2 publication Critical patent/JP4645455B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像投影装置、投影画像補正方法及びプログラムに関するものである。   The present invention relates to an image projection apparatus, a projection image correction method, and a program.

プロジェクタは、この光軸がスクリーン面に対して垂直でないと、スクリーンに投影された画像は歪んでしまう。このため、プロジェクタは、この画像の歪みを補正する台形補正を行う必要がある。   In the projector, if the optical axis is not perpendicular to the screen surface, the image projected on the screen is distorted. Therefore, the projector needs to perform trapezoidal correction that corrects the distortion of the image.

近年、画像投影装置としてのプロジェクタは、小型化に伴い、カラーホイールでRGBの色表現を行う単板式のものが普及してきている(例えば、特許文献1参照)。この単板式のプロジェクタは、複数の色のフィルタが配置されたカラーホイールを回転し、色を時分割して、時分割した色の画像をスクリーンに投影するようにしたものである。かかるプロジェクタは、主に家庭でのホームシアターやオフィス内で用いられる持ち運び容易な小型機種である。   2. Description of the Related Art In recent years, as a projector as an image projection apparatus, a single-plate type projector that performs RGB color expression with a color wheel has become widespread (see, for example, Patent Document 1). This single-plate projector rotates a color wheel on which a plurality of color filters are arranged, time-divides the color, and projects a time-divided color image on a screen. Such projectors are small portable models that are mainly used in home theaters and offices at home.

また、このようなプロジェクタでは、スクリーンへの投影角度によって投影画像が歪むため、使用時に投影角度の調整、台形補正等、調整作業が必要になる。従来のプロジェクタでは、調整用画像を表示してこのような調整が行われる。   Further, in such a projector, the projection image is distorted depending on the projection angle on the screen. Therefore, adjustment operations such as adjustment of the projection angle and keystone correction are required at the time of use. In a conventional projector, such an adjustment is performed by displaying an adjustment image.

特開2004−72570号公報(第8−10頁、図1)JP 2004-72570 A (page 8-10, FIG. 1)

しかし、家庭等で用いられるような小型のプロジェクタでは、決まった場所に設置されるのではなく、持ち運んで使用されることが多い。このため、プロジェクタを移動させて使用する毎に、調整用画像を投影して調整作業を行う必要があり、調整作業が煩雑になる。   However, small projectors used in homes and the like are often not carried in a fixed place but carried around. For this reason, every time the projector is moved and used, it is necessary to project an adjustment image to perform the adjustment work, and the adjustment work becomes complicated.

本発明は、このような従来の問題点に鑑みてなされたもので、画像を投影するための調整を容易に行うことが可能な画像投影装置、投影画像補正方法及びコンピュータを提供することを目的とする。   The present invention has been made in view of such conventional problems, and an object of the present invention is to provide an image projection apparatus, a projection image correction method, and a computer capable of easily performing adjustment for projecting an image. And

この目的を達成するため、本発明の第1の観点に係る画像投影装置は、
異なる色毎に時分割された複数の色画像を投影面に投影する投影部と、
前記投影面に投影された投影画像を撮影する撮影部と、
撮影タイミングを設定し、前記投影面に投影された投影画像を異なる色毎に撮影するように前記撮影部を制御する制御部と、
前記撮影部の撮影によって得られた異なる色の複数の撮影画像の差を求めて差分画像を生成し、生成した差分画像から前記投影画像の輪郭線を取得する輪郭線取得部と、
前記輪郭線取得部が取得した前記投影画像の輪郭線の傾きを取得し、取得した前記輪郭線の傾きに基づいて、前記投影画像の歪み補正を行う補正部と、を備えたことを特徴とする。
In order to achieve this object, an image projection apparatus according to a first aspect of the present invention includes:
A projection unit that projects a plurality of color images time-divided for different colors onto a projection plane;
A photographing unit for photographing a projection image projected on the projection plane;
A control unit that sets the shooting timing and controls the shooting unit so as to shoot the projection image projected on the projection plane for each different color;
Obtaining a difference image by obtaining a difference between a plurality of captured images of different colors obtained by photographing of the photographing unit, and obtaining a contour line of the projection image from the generated difference image;
A correction unit that acquires the inclination of the outline of the projection image acquired by the outline acquisition unit and corrects distortion of the projection image based on the acquired inclination of the outline. To do.

前記投影部は、
色分解された光が供給されて、時分割された複数の色信号に基づいて形成された複数の色画像を、順次、出力する画像出力部と、
前記複数の色信号に対応する複数の色フィルタが配置されて、光源からの光を色分解して前記画像出力部に供給するカラーホイールと、
タイミング信号が供給されて、供給されたタイミング信号に基づく回転数で前記カラーホイールを回転制御する回転制御部と、
前記カラーホイールの回転を検出して検出信号を出力する回転検出部と、
前記回転検出部が前記検出信号を出力する毎に、前記回転制御部に前記タイミング信号を供給するとともに、映像信号を複数の色信号に時分割し、前記検出信号に基づいて、前記カラーホイールが前記画像出力部に供給する光の色に同期させ、前記時分割した色信号を前記画像出力部に供給する時分割駆動部と、を備えたものであってもよい。
The projection unit
An image output unit that sequentially supplies a plurality of color images formed based on a plurality of time-division color signals supplied with the color-separated light;
A plurality of color filters corresponding to the plurality of color signals, a color wheel for color-separating light from a light source and supplying the color output to the image output unit;
A rotation control unit that is supplied with a timing signal and controls rotation of the color wheel at a rotation speed based on the supplied timing signal;
A rotation detector that detects rotation of the color wheel and outputs a detection signal;
Each time the rotation detection unit outputs the detection signal, the timing signal is supplied to the rotation control unit, and the video signal is time-divided into a plurality of color signals. Based on the detection signal, the color wheel A time-division drive unit that synchronizes with the color of light supplied to the image output unit and supplies the time-division color signal to the image output unit.

前記制御部は、前記回転検出部が出力した検出信号を取得し、取得した前記検出信号と前記カラーホイールの複数の色フィルタの配置情報とに基づいて、異なる色毎に前記撮影タイミングを設定するようにしてもよい。   The control unit acquires a detection signal output from the rotation detection unit, and sets the shooting timing for each different color based on the acquired detection signal and arrangement information of a plurality of color filters of the color wheel. You may do it.

前記制御部は、前記カラーホイールの回転数と色変化数とに基づいて、異なる色毎に前記撮影タイミングを設定するようにしてもよい。   The control unit may set the photographing timing for each different color based on the number of rotations of the color wheel and the number of color changes.

前記制御部は、前記投影面に投影された前記投影画像の色を判別可能な第1の撮影間隔で前記投影画像を撮影するように前記撮影部を制御し、最初の撮影によって得られた撮影画像を基準として、撮影する毎に、前記最初の撮影画像との差分値を取得し、取得した差分値の極値を取得し、取得した極値と極値との時間と撮影時間と前記第1の撮影間隔とに基づいて、異なる色毎に、前記撮影タイミングを設定するようにしてもよい。   The control unit controls the photographing unit so as to photograph the projection image at a first photographing interval capable of discriminating the color of the projection image projected on the projection plane, and the photographing obtained by the first photographing is performed. Every time a photograph is taken with reference to an image, a difference value from the first photographed image is obtained, an extreme value of the obtained difference value is obtained, a time between the obtained extreme value and the extreme value, a photographing time, and the first time The shooting timing may be set for each different color based on one shooting interval.

カメラを備え、
前記撮影部と前記制御部とは、前記カメラに備えられたものであってもよい。
With a camera
The photographing unit and the control unit may be provided in the camera.

前記投影部は、ズーム機構部を有し、
前記制御部は、前記撮影部の撮影によって得られた撮影画像に基づいて、前記投影画像が画角に収まるか否かを判定し、前記投影画像が画角から外れたとき、前記投影画像が画角内に収まるように前記投影部のズーム機構部を制御するようにしてもよい。
The projection unit includes a zoom mechanism unit,
The control unit determines whether or not the projection image is within an angle of view based on a captured image obtained by imaging of the imaging unit, and when the projection image is out of the angle of view, the projection image is You may make it control the zoom mechanism part of the said projection part so that it may fall within an angle of view.

前記制御部は、前記投影画像が画角から外れたときに、前記投影画像が画角内に収まる方向を示すガイドを表示するようにしてもよい。   The control unit may display a guide indicating a direction in which the projection image falls within the angle of view when the projection image deviates from the angle of view.

本発明の第2の観点に係る投影画像補正方法は、
異なる色毎に時分割した複数の色画像を投影面に投影するステップと、
撮影タイミングを設定し、前記投影面に投影された投影画像を異なる色毎に撮影するステップと、
前記撮影によって得られた異なる色の複数の撮影画像の差を求めて差分画像を生成し、生成した前記差分画像から前記投影画像の輪郭線を取得するステップと、
取得した前記投影画像の輪郭線の傾きを取得し、取得した前記輪郭線の傾きに基づいて、前記投影画像の歪み補正を行うステップと、を備えたことを特徴とする。
The projected image correction method according to the second aspect of the present invention includes:
Projecting a plurality of color images time-divided for different colors onto a projection plane;
Setting shooting timing and shooting the projected image projected on the projection plane for each different color;
Obtaining a difference image by obtaining a difference between a plurality of photographed images of different colors obtained by the photographing, and acquiring a contour line of the projection image from the generated difference image;
Acquiring the inclination of the contour line of the acquired projection image, and correcting distortion of the projection image based on the acquired inclination of the contour line.

本発明の第3の観点に係るプログラムは、
コンピュータに、
異なる色毎に時分割した複数の色画像を投影面に投影する手順、
撮影タイミングを設定し、前記投影面に投影された投影画像を異なる色毎に撮影する手順、
前記撮影によって得られた異なる色の複数の撮影画像の差を求めて差分画像を生成し、生成した差分画像から前記投影画像の輪郭線を取得する手順、
取得した前記投影画像の輪郭線の傾きを取得し、取得した前記輪郭線の傾きに基づいて、前記投影画像の歪み補正を行う手順、
を実行させるためのものである。
The program according to the third aspect of the present invention is:
On the computer,
Projecting multiple color images time-divided for different colors onto the projection surface,
A procedure for setting the shooting timing and shooting the projected image projected on the projection plane for each different color;
A procedure for obtaining a difference image by obtaining a difference between a plurality of photographed images of different colors obtained by the photographing, and acquiring a contour line of the projection image from the generated difference image;
A procedure for acquiring the inclination of the contour line of the acquired projection image and correcting distortion of the projection image based on the acquired inclination of the contour line;
Is to execute.

本発明によれば、画像を投影するための調整を容易に行うことができる。   According to the present invention, adjustment for projecting an image can be easily performed.

以下、本発明の実施の形態に係る画像投影装置を図面を参照して説明する。尚、以下の実施形態では、コンピュータを含む画像投影システムとして説明する。
(実施形態1)
実施形態1に係る画像投影システムの構成を図1に示す。
実施形態1に係る画像投影システムは、コンピュータ1と、プロジェクタ2と、からなる。コンピュータ1とプロジェクタ2とは、USB(Universal Serial Bus)ケーブル3を介して接続される。
Hereinafter, an image projection apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the following embodiments, an image projection system including a computer will be described.
(Embodiment 1)
FIG. 1 shows the configuration of the image projection system according to the first embodiment.
The image projection system according to the first embodiment includes a computer 1 and a projector 2. The computer 1 and the projector 2 are connected via a USB (Universal Serial Bus) cable 3.

コンピュータ1は、スクリーンSに投影するグラフ、表等のデータを作成、記憶するものである。   The computer 1 creates and stores data such as graphs and tables to be projected on the screen S.

プロジェクタ2は、スクリーンSに画像を投影するものであり、前面パネルには、投影レンズ112と撮影レンズ21aとが配置される。スクリーンSは、図2(b)に示すように、壁Wに掲げられる。プロジェクタ2は、図2(a)に示すように、撮影レンズ21aの画角α内にスクリーンSが収まるように撮影して、スクリーンSに投影された投影画像Grを取得する。   The projector 2 projects an image on the screen S, and a projection lens 112 and a photographing lens 21a are arranged on the front panel. The screen S is raised on the wall W as shown in FIG. As shown in FIG. 2A, the projector 2 takes an image so that the screen S is within the angle of view α of the taking lens 21a, and obtains a projection image Gr projected on the screen S.

投影レンズ112と撮影レンズ21aとの間には、図2(b)に示すように、視差δがある。また、プロジェクタ2の光軸c1がスクリーンSの垂直軸c2に対して傾いている場合、図2(a)に示すように、スクリーンSを正面(垂直軸c2の方向)から見ると、投影画像は歪む。プロジェクタ2は、このような場合でも、投影画像の歪みを補正するように構成されている。   As shown in FIG. 2B, there is a parallax δ between the projection lens 112 and the photographing lens 21a. When the optical axis c1 of the projector 2 is inclined with respect to the vertical axis c2 of the screen S, as shown in FIG. 2A, when the screen S is viewed from the front (in the direction of the vertical axis c2), a projected image is displayed. Is distorted. Even in such a case, the projector 2 is configured to correct the distortion of the projected image.

このプロジェクタ2は、図3に示すように、投影部11と、撮影部12と、データ処理部13と、からなる。   As shown in FIG. 3, the projector 2 includes a projection unit 11, a photographing unit 12, and a data processing unit 13.

投影部11は、データ処理部13から供給された画像データ又は外部から供給されたRGB信号に基づいて画像を投影するものである。投影部11は、図4に示すように、空間光変調器101と、光源ランプ102と、リフレクタ103と、ミラートンネル104と、カラーホイール105と、カラーホイールモータ106と、カラーホイール制御部107と、光センサ108と、ビデオ入力装置109と、時分割駆動回路110と、光源レンズ111と、投影レンズ112と、を備える。   The projection unit 11 projects an image based on image data supplied from the data processing unit 13 or RGB signals supplied from the outside. As shown in FIG. 4, the projection unit 11 includes a spatial light modulator 101, a light source lamp 102, a reflector 103, a mirror tunnel 104, a color wheel 105, a color wheel motor 106, and a color wheel control unit 107. , An optical sensor 108, a video input device 109, a time-division drive circuit 110, a light source lens 111, and a projection lens 112.

空間光変調器101は、複数のマイクロミラー(図示せず)によって構成されたものである。各マイクロミラーは、10〜20μm程度の例えばアルミニウム片からなるものであり、受光した光を反射する。空間光変調器101は、このマイクロミラー素子が行列方向に配列されて形成され、時分割駆動回路110によって駆動制御されて、各マイクロミラーを傾斜させることにより、カラーホイール105から出射された出射光を、複数の色画像として、順次、スクリーンSに投光する。   The spatial light modulator 101 is composed of a plurality of micromirrors (not shown). Each micromirror is made of, for example, an aluminum piece having a thickness of about 10 to 20 μm, and reflects received light. The spatial light modulator 101 is formed by arranging the micromirror elements in the matrix direction, and is driven and controlled by the time-division drive circuit 110 to tilt each micromirror to emit light emitted from the color wheel 105. Are sequentially projected onto the screen S as a plurality of color images.

光源ランプ102は、白色光を発するものである。
リフレクタ103は、光源ランプ102が発する光をミラートンネル104方向に反射するものである。
The light source lamp 102 emits white light.
The reflector 103 reflects light emitted from the light source lamp 102 toward the mirror tunnel 104.

ミラートンネル104は、光源ランプ102が発した白色光を内面で反射することにより、その光分布を均一にしつつ、白色光をカラーホイール105へと導くためのものである。   The mirror tunnel 104 is for guiding the white light to the color wheel 105 while making the light distribution uniform by reflecting the white light emitted from the light source lamp 102 on the inner surface.

カラーホイール105は、投光された光の色の原色として、RGB色に色分解する複数のフィルタが配置されたものである。   The color wheel 105 is provided with a plurality of filters for color separation into RGB colors as primary colors of the projected light.

カラーホイール105は、図5に示すように、円盤状のものであり、4つのフィルタ105R,105G,105B,105Wが周方向に配置される。フィルタ105R,105G,105Bは、それぞれ、投光された光を、赤(R;Red)色、緑(G;Green)色、青(B;Blue)色の3原色に分解する原色(成分)フィルタである。   As shown in FIG. 5, the color wheel 105 has a disk shape, and four filters 105R, 105G, 105B, and 105W are arranged in the circumferential direction. Filters 105R, 105G, and 105B are primary colors (components) that separate the projected light into three primary colors of red (R; Red), green (G; Green), and blue (B; Blue). It is a filter.

フィルタ105Wは、輝度を調整するためのものであり、ミラートンネル104から出射した光をそのまま通過させる。フィルタ105R,105G,105B,105Wは、いずれもカラーホイール105の中心に対し、90°の角度を有し、均等に配置される。   The filter 105W is for adjusting the luminance, and allows the light emitted from the mirror tunnel 104 to pass through as it is. The filters 105R, 105G, 105B, and 105W all have an angle of 90 ° with respect to the center of the color wheel 105, and are evenly arranged.

ミラートンネル104から出射した光は、光スポットとして、各フィルタ105R,105G,105B,105Wに照射される。各フィルタ105R,105G,105B,105Wの領域は、光スポットよりも広くなっており、カラーホイール105が回転することにより、赤、緑、青、白色の光がカラーホイール105から時分割で出射される。   The light emitted from the mirror tunnel 104 is irradiated to each of the filters 105R, 105G, 105B, and 105W as a light spot. The areas of the filters 105R, 105G, 105B, and 105W are wider than the light spot. As the color wheel 105 rotates, red, green, blue, and white light is emitted from the color wheel 105 in a time-sharing manner. The

カラーホイール105には、孔105aが設けられる。この孔105aは、各フィルタ105R,105G,105B,105Wの位置判別用のものである。   The color wheel 105 is provided with a hole 105a. The hole 105a is for determining the position of each filter 105R, 105G, 105B, 105W.

このカラーホイール105は、回転して各フィルタに光源ランプ102からの光が投射される。   The color wheel 105 rotates to project light from the light source lamp 102 onto each filter.

そして、カラーホイール105は、分解したRGBW色の光を、順次、空間光変調器101へと供給する。カラーホイールモータ106は、カラーホイール105を回転するためのものである。   Then, the color wheel 105 sequentially supplies the decomposed RGBW light to the spatial light modulator 101. The color wheel motor 106 is for rotating the color wheel 105.

カラーホイール制御部107は、カラーホイールモータ106を介してカラーホイール105を回転制御するものである。カラーホイール制御部107は、時分割駆動回路110から、タイミング信号が供給される。カラーホイール制御部107は、供給されたタイミング信号に従ってカラーホイールモータ106を一定回転速度で回転駆動することにより、カラーホイール105を回転制御する。   The color wheel control unit 107 controls the rotation of the color wheel 105 via the color wheel motor 106. The color wheel control unit 107 is supplied with a timing signal from the time division drive circuit 110. The color wheel control unit 107 controls the rotation of the color wheel 105 by rotating the color wheel motor 106 at a constant rotational speed in accordance with the supplied timing signal.

光センサ108は、フォトカプラによって構成されたものであり、カラーホイール105に設けられた孔105aを通る光を検知することにより、カラーホイール105の回転を検出し、1周期毎に光検知信号を時分割駆動回路110に出力する。   The optical sensor 108 is configured by a photocoupler, detects rotation of the color wheel 105 by detecting light passing through a hole 105a provided in the color wheel 105, and outputs a light detection signal for each cycle. Output to the time division drive circuit 110.

ビデオ入力装置109は、コンピュータ1から供給された投影画像のRGB信号を入力するものであり、ビデオRAM(図示せず)を備える。また、ビデオ入力装置109は、CPU36から、画像データが供給されると、供給された画像データのRGB信号をビデオRAMに一時記憶する。   The video input device 109 inputs RGB signals of a projection image supplied from the computer 1 and includes a video RAM (not shown). Further, when image data is supplied from the CPU 36, the video input device 109 temporarily stores the RGB signals of the supplied image data in the video RAM.

時分割駆動回路110は、ビデオ入力装置109に入力されたRGB信号に対して演算を行って輝度信号を生成するとともに、RGB信号と生成した輝度信号とを時分割するものである。   The time division drive circuit 110 performs an operation on the RGB signal input to the video input device 109 to generate a luminance signal, and time-divides the RGB signal and the generated luminance signal.

時分割駆動回路110は、光センサ108から光検知信号が供給される毎に、カラーホイール制御部107にタイミング信号を供給する。   The time division drive circuit 110 supplies a timing signal to the color wheel control unit 107 every time a light detection signal is supplied from the light sensor 108.

また、時分割駆動回路110は、カラーホイール105における各フィルタ105R,105G,105B,105Wの配置が図5に示すように既知であることから、光センサ108から光検知信号が供給されるタイミングに基づいて、フィルタ105R,105G,105B,105Wのうち、光スポットが照射されているフィルタを判別する。   In addition, since the arrangement of the filters 105R, 105G, 105B, and 105W in the color wheel 105 is known as shown in FIG. 5, the time division drive circuit 110 has a timing at which a light detection signal is supplied from the light sensor 108. Based on the filter 105R, 105G, 105B, 105W, the filter irradiated with the light spot is determined.

そして、時分割駆動回路110は、判別したフィルタの情報に基づいて、フィルタ105R,105G,105B,105Wへの照射タイミングと時分割した各信号とを同期させ、時分割した各信号を空間光変調器101に供給する。そして、時分割駆動回路110は、空間光変調器101を駆動制御する。   Then, the time division drive circuit 110 synchronizes the irradiation timings to the filters 105R, 105G, 105B, and 105W and the time-divided signals based on the determined filter information, and spatially modulates the time-divided signals. Supply to the vessel 101. Then, the time division driving circuit 110 drives and controls the spatial light modulator 101.

光源レンズ111は、カラーホイール105から出射された光を空間光変調器101に集光するためのものである。   The light source lens 111 is for condensing the light emitted from the color wheel 105 on the spatial light modulator 101.

投影レンズ112は、空間光変調器101が投光した光による画像をスクリーンS上に結像させるためのものであり、図1,2に示すように、プロジェクタ2の前面パネルに配置される。
このようにして、投影部11は、異なる色毎に時分割された複数の色画像をスクリーンSに投影する
The projection lens 112 is for forming an image of the light projected by the spatial light modulator 101 on the screen S, and is disposed on the front panel of the projector 2 as shown in FIGS.
In this manner, the projection unit 11 projects a plurality of color images time-divided for different colors onto the screen S.

撮影部12は、スクリーンSに投影された図2(a)に示すような投影画像Grを撮影するものであり、撮影レンズ装置21とイメージセンサ22と、から構成される。   The photographing unit 12 photographs a projected image Gr as shown in FIG. 2A projected on the screen S, and includes a photographing lens device 21 and an image sensor 22.

撮影レンズ装置21は、投影画像Grを撮影するためのものであり、図1,図2に示すように撮影レンズ21aを備える。撮影レンズ21aは、プロジェクタ2の前面パネルに備えられて光を集光する。撮影レンズ装置21は、この撮影レンズ21aとともに、焦点、露出、ホワイトバランス等のカメラ設定パラメータを調整するための周辺回路(図示せず)を備える。   The photographing lens device 21 is for photographing the projection image Gr, and includes a photographing lens 21a as shown in FIGS. The photographing lens 21a is provided on the front panel of the projector 2 and condenses light. The photographing lens device 21 includes a peripheral circuit (not shown) for adjusting camera setting parameters such as focus, exposure, and white balance, in addition to the photographing lens 21a.

イメージセンサ22は、撮影レンズ装置21が光を集光することによって結像した画像を取り込んで、デジタル化した画像データを取得するものであり、CCD(Charge Coupled Device;電荷結合素子)等によって構成される。   The image sensor 22 captures an image formed by the photographic lens device 21 condensing light and acquires digitized image data, and is configured by a CCD (Charge Coupled Device) or the like. Is done.

撮影部12は、高解像度画像撮影と低解像度画像撮影とが可能なものである。低解像度画像撮影は、例えば、画像解像度がXGA(1024×768ドット)程度の撮影であり、解像度は低いものの、画像を30fps(フレーム/秒)の速さで読み出すことが可能な撮影であり、動画撮影に適している。   The photographing unit 12 can perform high-resolution image photographing and low-resolution image photographing. Low-resolution image capturing is, for example, image capturing with an image resolution of about XGA (1024 × 768 dots), and is capable of reading an image at a speed of 30 fps (frames / second) although the resolution is low. Suitable for movie shooting.

高解像度画像撮影は、イメージセンサ22の最大画素数で行われる画像撮影である。例えば、イメージセンサ22の最大画素数が400万画素の場合、撮影部12は、この高解像度画像撮影において、最大画素数400万画素で画像撮影を行う。   The high-resolution image capturing is image capturing performed with the maximum number of pixels of the image sensor 22. For example, when the maximum number of pixels of the image sensor 22 is 4 million pixels, the image capturing unit 12 performs image capturing with the maximum number of pixels of 4 million pixels in this high-resolution image capturing.

このように構成された撮影部12は、CPU36によって制御されて、投影画像Grの投影固定設定撮影を行う。即ち、撮影部12は、カラーホイール105のフィルタ105R,105Bに光スポットが照射されているそれぞれのタイミングで投影画像Grを撮影し、青の投影画像、赤の投影画像を取得する。   The imaging unit 12 configured as described above is controlled by the CPU 36 to perform projection fixed setting imaging of the projection image Gr. That is, the imaging unit 12 captures the projection image Gr at each timing when the light spots are applied to the filters 105R and 105B of the color wheel 105, and acquires a blue projection image and a red projection image.

データ処理部13は、インタフェース部31と、メモリ32と、画像処理装置33と、操作部34と、プログラムコード記憶装置35と、CPU36と、からなる。   The data processing unit 13 includes an interface unit 31, a memory 32, an image processing device 33, an operation unit 34, a program code storage device 35, and a CPU 36.

インタフェース部31は、USBケーブル3を介してコンピュータ1との間でデータ等の入出力を行うものである。   The interface unit 31 inputs and outputs data and the like with the computer 1 via the USB cable 3.

メモリ32は、画像データを一時記憶するためのものであり、図6に示すように、処理画像記憶領域32aと、作業データ記憶領域32bと、閾値記憶領域32cと、からなる。   The memory 32 is for temporarily storing image data, and includes a processed image storage area 32a, a work data storage area 32b, and a threshold storage area 32c, as shown in FIG.

処理画像記憶領域32aは、画像処理装置33が画像処理に用いる画像データを記憶するための領域である。作業データ記憶領域32bは、CPU36が作業に必要なデータを記憶するための領域である。閾値記憶領域32cは、閾値等を記憶するための領域である。   The processed image storage area 32a is an area for storing image data used by the image processing apparatus 33 for image processing. The work data storage area 32b is an area for the CPU 36 to store data necessary for work. The threshold storage area 32c is an area for storing a threshold and the like.

画像処理装置33は、画像データに対して画像処理を施すものである。画像処理装置33は、画像処理として、投影画像の輪郭を取得し、取得した輪郭に基づいて投影画像の補正を行う。   The image processing device 33 performs image processing on the image data. As the image processing, the image processing device 33 acquires the contour of the projection image, and corrects the projection image based on the acquired contour.

画像処理装置33は、投影画像の輪郭を取得するため、輪郭取得処理を実行する。画像処理装置33は、まず、撮影部12が取得した青の投影画像、赤の投影画像の差分画像dを生成する。   The image processing device 33 executes contour acquisition processing in order to acquire the contour of the projection image. First, the image processing device 33 generates a difference image d between the blue projection image and the red projection image acquired by the imaging unit 12.

画像処理装置33は、次の数1に示す式に基づいて差分画像dを生成する。

Figure 0004645455
例えば、撮影部12が、それぞれ、図7(a)に示す青の投影画像Gr_Bと図7(b)に示す赤の投影画像Gr_Rとを取得した場合に、投影画像Gr_Bと投影画像Gr_Rとを比較すると、4番目の棒グラフ、スクリーンS、壁Wの部分等の画像では、差が生じない。 The image processing device 33 generates a difference image d based on the following equation (1).
Figure 0004645455
For example, when the photographing unit 12 acquires the blue projection image Gr_B shown in FIG. 7A and the red projection image Gr_R shown in FIG. 7B, the projection image Gr_B and the projection image Gr_R are obtained. In comparison, there is no difference in the fourth bar graph, the image of the screen S, the wall W, and the like.

この場合、画像処理装置33は、差がある領域を明るく、差がない領域を暗くしたグレイスケールで表して、図7(c)に示すような差分画像dを生成する。   In this case, the image processing apparatus 33 generates a difference image d as shown in FIG. 7C by expressing a region with a difference in a bright gray scale and a region without a difference in a dark gray scale.

尚、撮影部12のホワイトバランスがオートの場合、中央に合わせるようにするため、背景の領域も、赤と青とで画像が相違する。これを避けるため、撮影設定は、マニュアルとし、同じ設定で撮影を行う必要がある。   When the white balance of the photographing unit 12 is auto, the image is different between red and blue in the background area so as to be centered. In order to avoid this, it is necessary to set the shooting setting to manual and perform shooting with the same setting.

そして、画像処理装置33は、この差分画像dに基づいて、図8に示すような2値エッジ画像Geを生成する。   Then, the image processing device 33 generates a binary edge image Ge as shown in FIG. 8 based on the difference image d.

2値エッジ画像Geを作成するには、例えば、Robertsフィルタと呼ばれるエッジ検出用のフィルタを用いる。このRobertsフィルタとは、2つの4近傍画素の重み付けを行って2つのフィルタΔ1、Δ2を取得し、平均化することによって、画像のエッジを検出するフィルタである。   In order to create the binary edge image Ge, for example, a filter for edge detection called a Roberts filter is used. The Roberts filter is a filter that detects the edge of an image by weighting two 4-neighboring pixels to obtain two filters Δ1 and Δ2 and averaging them.

ある着目した座標(x,y)の画素の画素値f(x,y)にRobertsフィルタを適用すると、変換後の画素値e(x,y)は、次の数2によって表される。

Figure 0004645455
次に、画像処理装置33は、このようにして得られたエッジ画像を2値化する。画像処理装置33は、画素値e(x,y)を予め設定された閾値e_thと比較することにより、エッジ画像の2値化を行う。 When the Roberts filter is applied to the pixel value f (x, y) of the pixel at a certain coordinate (x, y), the converted pixel value e (x, y) is expressed by the following equation (2).
Figure 0004645455
Next, the image processing device 33 binarizes the edge image obtained in this way. The image processing device 33 binarizes the edge image by comparing the pixel value e (x, y) with a preset threshold value e_th.

閾値e_thは、固定値であってもよいし、可変閾値法等の方法によって求められた可変値であってもよく、メモリ32の閾値記憶領域32cに予め記憶される。画像処理装置33は、数2に基づいて得られたエッジ画像の画素値e(x,y)から、数3を用いてエッジ2値画像の座標(x,y)における画素値f(x,y)を求める。

Figure 0004645455
画像処理装置33は、投影画像の輪郭を取得するため、生成したエッジ2値画像に対して、ハフ変換を行い、投影画像の輪郭線を検出する。 The threshold value e_th may be a fixed value or a variable value obtained by a method such as a variable threshold method, and is stored in advance in the threshold storage area 32c of the memory 32. The image processing device 33 uses the pixel value e (x, y) of the edge image obtained based on Equation 2 to calculate the pixel value f (x, y) at the coordinate (x, y) of the edge binary image using Equation 3. y) is obtained.
Figure 0004645455
In order to acquire the contour of the projection image, the image processing device 33 performs Hough transform on the generated edge binary image and detects the contour line of the projection image.

ハフ変換とは、図9(a)に示すようなX−Y平面上の直線を構成する点を、次の数4によって表される図9(b)に示すようなρ-θ平面上に投票して、ρ-θ平面上の投票数に変換する変換手法である。

Figure 0004645455
The Hough transform is a point that forms a straight line on the XY plane as shown in FIG. 9A on the ρ-θ plane as shown in FIG. This is a conversion method for voting and converting the number of votes on the ρ-θ plane.
Figure 0004645455

各点の座標(x,y)において角度θを0から360°まで変化させた場合、同一直線はρ-θ平面では一点で表される。このため、投票数の多いρ-θ座標を直線と判断することができる。この際、投票数は、直線上のピクセル数になるため、直線の長さとみなすことができる。したがって、投票数の極端に少ないρ-θ座標は、短い直線を表し、直線の候補から除外される。   When the angle θ is changed from 0 to 360 ° in the coordinates (x, y) of each point, the same straight line is represented by one point on the ρ-θ plane. For this reason, the ρ-θ coordinate having a large number of votes can be determined as a straight line. At this time, since the number of votes is the number of pixels on the straight line, it can be regarded as the length of the straight line. Therefore, the ρ-θ coordinate with an extremely small number of votes represents a short straight line and is excluded from the straight line candidates.

ハフ変換を用いる手法では、調査対象の点、角度θが多くなるに従って、処理速度が低下するため、検出できる角度の精度が得られるまで画像を縮小した方が好ましい。この理由から矩形取得に用いる画像は縮小画像が用いられる。これにより、調査対象を減らすことができる。   In the method using the Hough transform, the processing speed decreases as the point to be investigated and the angle θ increases, so it is preferable to reduce the image until the accuracy of the detectable angle is obtained. For this reason, a reduced image is used as an image used for rectangle acquisition. As a result, the number of survey targets can be reduced.

さらに、以下の方法により調査角度を減らすことができる。
調査対象であるエッジ画像において画像中心を原点とした座標系で考えると、ρはマイナスの値も取ることになるため、角度θを0°≦θ<180°の範囲で測定すれば、ρは残りの180°≦θ<0°の範囲で負になる。
Further, the investigation angle can be reduced by the following method.
Considering the coordinate system with the image center as the origin in the edge image to be investigated, ρ also takes a negative value. Therefore, if the angle θ is measured in the range of 0 ° ≦ θ <180 °, ρ is The remaining 180 ° ≦ θ <0 ° is negative.

しかし、撮影対象の中心が画像の中心近辺に位置する場合、実際に撮影される撮影対象(四角形)の各辺は、上下左右に存在することになる。この場合、ρ-θ平面上の投票数を0°≦θ<180°の範囲で調査するよりは、以下の数9で表される範囲で測定した方が、より効率的である。

Figure 0004645455
However, when the center of the shooting target is located near the center of the image, each side of the shooting target (rectangle) that is actually shot exists vertically and horizontally. In this case, it is more efficient to measure the number of votes on the ρ-θ plane in the range represented by the following formula 9 than to investigate in the range of 0 ° ≦ θ <180 °.
Figure 0004645455

また、ρの値が正の値か負の値かによって、辺の上下、または辺の左右を特定することが可能である。従って、撮影対象の中心が画像の中心近辺に位置する場合、輪郭を構成する辺をより効率的に選択することが可能となる。   Moreover, it is possible to specify the upper and lower sides or the left and right sides of the side depending on whether the value of ρ is a positive value or a negative value. Therefore, when the center of the photographing target is located in the vicinity of the center of the image, it is possible to more efficiently select the sides constituting the contour.

また、画像処理装置33は、CPU36から投影画像の補正を行うように指示されると、取得した撮影画像の輪郭線の傾きに基づいて、台形補正を行う。そして、画像処理装置33は、スクリーンSをあたかも正面からみたように、縦横比と角度とが正しく補正された投影画像を生成する。画像処理装置33は、このように画像処理した画像をメモリ32の処理画像記憶領域32aに記憶する。   Further, when instructed by the CPU 36 to correct the projection image, the image processing device 33 performs keystone correction based on the inclination of the contour line of the acquired captured image. Then, the image processing device 33 generates a projection image in which the aspect ratio and the angle are correctly corrected as if the screen S was viewed from the front. The image processing device 33 stores the image processed in this way in the processed image storage area 32 a of the memory 32.

図3に戻り、操作部34は、プロジェクタ2の電源スイッチのようなプロジェクタ2を制御するためのスイッチ、キー、撮影ボタン等を備えたものである。操作部34は、ユーザが、これらのキー、スイッチを押下すると、応答してこの操作情報をCPU36に送信する。   Returning to FIG. 3, the operation unit 34 includes a switch for controlling the projector 2 such as a power switch of the projector 2, a key, a photographing button, and the like. When the user presses these keys and switches, the operation unit 34 responds and transmits this operation information to the CPU 36.

プログラムコード記憶装置35は、CPU36が実行するプログラムを記憶するためのものであり、ROM等によって構成される。   The program code storage device 35 is for storing a program executed by the CPU 36, and is constituted by a ROM or the like.

CPU36は、プログラムコード記憶装置35に格納されているプログラムに従って、システム全体を制御するものである。   The CPU 36 controls the entire system according to a program stored in the program code storage device 35.

具体的に、CPU36は、投影画像補正処理(1)を実行する。
CPU36は、この投影画像補正処理(1)において、まず、補正パラメータの初期化を行う。補正パラメータは、台形補正に用いるパラメータ、輝度ヒストグラムの最大値、最小値、ピーク値、色差ヒストグラムのピーク値、平均値といった画像効果処理に必要なパラメータ等である。CPU36は、これらの補正パラメータを投影画像の補正を行わない状態の値に初期化する。
Specifically, the CPU 36 executes the projection image correction process (1).
In the projection image correction process (1), the CPU 36 first initializes correction parameters. The correction parameters are parameters necessary for image effect processing, such as parameters used for trapezoidal correction, maximum value, minimum value, peak value of luminance histogram, peak value, average value of color difference histogram, and the like. The CPU 36 initializes these correction parameters to values in a state where the projection image is not corrected.

また、CPU36は、カウンタを有し、このカウンタのカウント値Countの初期化を行う。カウンタは、投影画像の輪郭線を検出できなかった場合に、画像処理装置33の輪郭取得処理の実行回数をカウントするものである。CPU36は、このカウンタのカウント値Countをメモリ32の作業データ記憶領域32bに記憶する。CPU36は、このような初期化を行うと、投影処理を開始するように、投影部11を制御する。   The CPU 36 has a counter and initializes the count value Count of the counter. The counter counts the number of executions of the contour acquisition process of the image processing device 33 when the contour line of the projection image cannot be detected. The CPU 36 stores the count value Count of this counter in the work data storage area 32b of the memory 32. When such initialization is performed, the CPU 36 controls the projection unit 11 to start the projection process.

投影部11が投影処理を開始すると、CPU36は、撮影タイミングを設定し、設定した撮影タイミングで投影画像を撮影するように撮影部12を制御する。CPU36は、撮影タイミングを設定するため、投影部11の光センサ108が出力する光検出信号を取得する。   When the projection unit 11 starts the projection process, the CPU 36 sets the shooting timing, and controls the shooting unit 12 to shoot a projection image at the set shooting timing. The CPU 36 acquires a light detection signal output from the optical sensor 108 of the projection unit 11 in order to set the photographing timing.

CPU36は、光センサ108が出力する光検出信号の出力タイミングに基づいて、カラーホイール105の1周期を判別する。前述のように、カラーホイール制御部107がカラーホイールモータ106を一定回転速度で回転駆動し、このカラーホイール105の各フィルタの配置も変化しない。   The CPU 36 determines one cycle of the color wheel 105 based on the output timing of the light detection signal output from the optical sensor 108. As described above, the color wheel control unit 107 drives the color wheel motor 106 to rotate at a constant rotational speed, and the arrangement of the filters of the color wheel 105 does not change.

このため、CPU36は、カラーホイール105の回転数を判別することができ、光スポットが照射しているカラーホイール105の各フィルタの位置を判別することができる。   For this reason, the CPU 36 can determine the number of rotations of the color wheel 105 and can determine the position of each filter of the color wheel 105 irradiated with the light spot.

CPU36は、この光センサ108の光検出信号の出力タイミングとカラーホイール105の各フィルタの配置情報とをカラーホイール情報として取得し、取得したカラーホイール情報に基づいて、カラーホイール105の異なる色毎に撮影タイミングを設定する。本実施形態1では、撮影タイミングを、光スポットがフィルタ105B(青)とフィルタ105R(赤)とに照射されているタイミングとする。   The CPU 36 acquires the output timing of the light detection signal of the optical sensor 108 and the arrangement information of each filter of the color wheel 105 as color wheel information, and for each different color of the color wheel 105 based on the acquired color wheel information. Set the shooting timing. In the first embodiment, the imaging timing is set to the timing at which the light spot is applied to the filter 105B (blue) and the filter 105R (red).

CPU36は、設定した撮影タイミングで、投影固定設定撮影を行うように撮影部12を制御する。尚、撮影のタイムラグがあるため、CPU36は、このタイムラグを含めて撮影タイミングを設定する。そして、CPU36は、投影固定設定撮影によって得られた画像をメモリ32の処理画像記憶領域32aに記憶する。   The CPU 36 controls the photographing unit 12 to perform the projection fixed setting photographing at the set photographing timing. Since there is a shooting time lag, the CPU 36 sets the shooting timing including this time lag. Then, the CPU 36 stores the image obtained by the projection fixed setting shooting in the processed image storage area 32 a of the memory 32.

このような画像が得られると、CPU36は、輪郭取得処理を実行するように画像処理装置33に指示する。そして、CPU36は、画像処理装置33が輪郭取得処理を実行した結果に基づいて、投影画像の輪郭線を検出できたか否かを判定する。CPU36は、この判定を、例えば、画像処理装置33がハフ変換を行ったときの投票数に基づいて行う。   When such an image is obtained, the CPU 36 instructs the image processing device 33 to execute a contour acquisition process. Then, the CPU 36 determines whether or not the contour line of the projection image has been detected based on the result of the image processing device 33 executing the contour acquisition process. The CPU 36 makes this determination based on, for example, the number of votes when the image processing apparatus 33 performs Hough conversion.

即ち、投票数に予め閾値を設定し、投票数がこの閾値を越えた場合に、CPU36は、輪郭線を検出できたと判定する。メモリ32は、この閾値を予め閾値記憶領域32cに記憶する。   That is, a threshold is set in advance for the number of votes, and if the number of votes exceeds this threshold, the CPU 36 determines that the contour line has been detected. The memory 32 stores this threshold value in the threshold value storage area 32c in advance.

輪郭線を検出できたと判定した場合、CPU36は、画像処理装置33に対し、この検出した輪郭線に基づいて投影画像の補正を行うように指示する。CPU36は、画像処理装置33が投影画像の補正を行った後、メモリ32の処理画像記憶領域32aから、補正された画像データを取り出して、投影部11のビデオ入力装置109に供給する。   When it is determined that the contour line has been detected, the CPU 36 instructs the image processing device 33 to correct the projection image based on the detected contour line. After the image processing device 33 corrects the projected image, the CPU 36 extracts the corrected image data from the processed image storage area 32 a of the memory 32 and supplies it to the video input device 109 of the projection unit 11.

一方、輪郭線を検出できなかった場合、CPU36は、再度、投影固定設定撮影を行うように撮影部12を制御する。しかし、何度、投影固定設定撮影を行っても投影画像を得られない場合もあるため、CPU36は、この投影画像の補正の実行回数に上限値を設定する。   On the other hand, when the contour line cannot be detected, the CPU 36 controls the photographing unit 12 to perform the projection fixed setting photographing again. However, there are cases where the projection image cannot be obtained no matter how many times the projection fixed setting shooting is performed, and therefore the CPU 36 sets an upper limit value for the number of executions of the correction of the projection image.

CPU36は、実行回数がこの上限値を越えると、この投影補正処理を終了させる。具体的には、CPU36は、カウンタのカウント値Countをインクリメントする毎に、インクリメントしたカウント値Countを上限値CountMaxと比較する。   When the number of executions exceeds the upper limit value, the CPU 36 ends the projection correction process. Specifically, every time the count value Count of the counter is incremented, the CPU 36 compares the incremented count value Count with the upper limit value CountMax.

この上限値CountMaxは、投影補正処理の実行回数を制限するためのものであり、メモリ32は、この上限値CountMaxを、予め閾値記憶領域32cに記憶する。また、CPU36は、カウンタのカウント値Countをインクリメントする毎に、このカウント値Countをメモリ32の作業データ記憶領域32bに記憶する。   The upper limit value CountMax is for limiting the number of times the projection correction process is executed, and the memory 32 stores the upper limit value CountMax in the threshold value storage area 32c in advance. The CPU 36 stores the count value Count in the work data storage area 32b of the memory 32 every time the count value Count of the counter is incremented.

そして、カウンタのカウント値Countが上限値CountMaxを越えると、CPU36は、投影画像を得ることはできないと判定し、この補正投影処理を終了させる。   When the count value Count of the counter exceeds the upper limit value CountMax, the CPU 36 determines that a projection image cannot be obtained, and ends this correction projection processing.

次に実施形態1に係る画像投影システムの動作を説明する。
ユーザがプロジェクタ2の電源をONすると、CPU36は、プログラムコード記憶装置35からプログラムコードを読み出して投影補正処理を実行する。CPU36は、図10に示すフローチャートに従って、この投影画像補正処理(1)を実行する。
Next, the operation of the image projection system according to the first embodiment will be described.
When the user turns on the power of the projector 2, the CPU 36 reads out the program code from the program code storage device 35 and executes projection correction processing. The CPU 36 executes this projection image correction process (1) according to the flowchart shown in FIG.

CPU36は、補正パラメータとカウンタのカウント値Countとの初期化を行う(ステップS11)。
CPU36は、投影部11に、初期化されたパラメータに従って投影処理を開始するように制御する(ステップS12)。
The CPU 36 initializes the correction parameter and the counter count value Count (step S11).
The CPU 36 controls the projection unit 11 to start projection processing according to the initialized parameters (step S12).

CPU36は、投影部11が投影処理の開始後、撮影処理を実行する(ステップS13)。   The CPU 36 performs a shooting process after the projection unit 11 starts the projection process (step S13).

CPU36は、図11に示すフローチャートに従って、撮影処理(1)を実行する。   The CPU 36 executes the photographing process (1) according to the flowchart shown in FIG.

CPU36は、投影部11の光センサ108の光検出信号の出力タイミングとカラーホイール105の各フィルタの色配置とをカラーホイール情報として取得する(ステップS21)。   The CPU 36 acquires the output timing of the light detection signal of the optical sensor 108 of the projection unit 11 and the color arrangement of each filter of the color wheel 105 as color wheel information (step S21).

CPU36は、取得したカラーホイール情報に基づいて、投影画像の撮影タイミングか否かを判定する(ステップS22)。撮影タイミングではないと判定した場合(ステップS22においてNo)、CPU36は、再度、カラーホイール情報を取得する(ステップS21)。   Based on the acquired color wheel information, the CPU 36 determines whether or not it is a projection image capturing timing (step S22). When it is determined that it is not the photographing timing (No in Step S22), the CPU 36 acquires the color wheel information again (Step S21).

撮影タイミングであると判定した場合(ステップS22においてYes)、CPU36は、投影画像の投影固定設定撮影を行うように撮影部12を制御する(ステップS23)。   When it is determined that it is the photographing timing (Yes in Step S22), the CPU 36 controls the photographing unit 12 to perform the projection fixed setting photographing of the projected image (Step S23).

次に、CPU36は、カラーホイール情報を取得する(ステップS24)。CPU36は、取得したカラーホイール情報に基づいて、もう1つの投影画像の撮影タイミングか否かを判定する(ステップS25)。   Next, the CPU 36 acquires color wheel information (step S24). Based on the acquired color wheel information, the CPU 36 determines whether it is the timing for shooting another projection image (step S25).

撮影タイミングではないと判定した場合(ステップS25においてNo)、CPU36は、再度、カラーホイール情報を取得する(ステップS24)。   When it is determined that it is not the photographing timing (No in step S25), the CPU 36 acquires the color wheel information again (step S24).

撮影タイミングであると判定した場合(ステップS25においてYes)、CPU36は、投影画像の投影固定設定撮影を実行する(ステップS26)。   When it is determined that it is the photographing timing (Yes in Step S25), the CPU 36 performs the projection fixed setting photographing of the projected image (Step S26).

CPU36は、このように、撮影処理(1)を実行すると、画像処理装置33に対し、輪郭取得処理を実行するように指示する(図10のステップS14)。   As described above, when executing the photographing process (1), the CPU 36 instructs the image processing apparatus 33 to execute the contour acquisition process (step S14 in FIG. 10).

画像処理装置33は、図12に示すフローチャートに従って、輪郭取得処理を実行する。
画像処理装置33は、数1に従って、演算を行い、差分画像dを生成する(ステップS31)。
The image processing device 33 executes contour acquisition processing according to the flowchart shown in FIG.
The image processing device 33 performs a calculation according to Equation 1 and generates a difference image d (step S31).

画像処理装置33は、数2,3に従って演算を行い、エッジ2値画像を作成する(ステップS32)。
画像処理装置33は、輪郭線を検出するため、数4を用いてハフ変換を行う(ステップS33)。
The image processing device 33 performs calculations according to Equations 2 and 3 to create an edge binary image (step S32).
The image processing device 33 performs Hough transform using Equation 4 in order to detect the contour line (step S33).

画像処理装置33は、数4に示す演算を数5に示す範囲において行い、上下の辺を形成する輪郭線の候補として、ρが+、−それぞれにおいて、投票数が多い座標を候補として、複数の座標を取得する(ステップS34)。   The image processing apparatus 33 performs the calculation shown in Equation 4 in the range shown in Equation 5, and uses a plurality of coordinates with a large number of votes as candidates for contour lines forming upper and lower sides, with ρ being + and −, respectively. Are obtained (step S34).

画像処理装置33は、上下左右それぞれで一番得票数が多いρ,θを最長のものとして選択し、その角度と中央からの辺の距離とを算出する(ステップS35)。   The image processing device 33 selects ρ and θ having the largest number of votes in the top, bottom, left, and right as the longest, and calculates the angle and the distance of the side from the center (step S35).

このように画像処理装置33が輪郭取得処理を実行すると、CPU36は、投影画像の輪郭線を検出できたか否かを判定する(図10のステップS15)。検出できたと判定した場合(ステップS15においてYes)、CPU36は、画像処理装置33に対して、投影画像の補正を行うように指示する(ステップS16)。   When the image processing device 33 executes the contour acquisition process in this way, the CPU 36 determines whether or not the contour line of the projection image has been detected (step S15 in FIG. 10). When it determines with having detected (Yes in step S15), CPU36 instruct | indicates to correct | amend a projection image with respect to the image processing apparatus 33 (step S16).

一方、輪郭線を検出できなかったと判定した場合(ステップS15においてNo)、CPU36は、メモリ32の作業データ記憶領域32bに記憶されているカウンタのカウント値Countをインクリメントする(ステップS17)。   On the other hand, when it is determined that the outline has not been detected (No in step S15), the CPU 36 increments the count value Count of the counter stored in the work data storage area 32b of the memory 32 (step S17).

CPU36は、カウント値Countと、メモリ32の閾値記憶領域32cに記憶されている上限値CountMaxと、を比較し、カウント値Countが上限値CountMaxを越えたか否かを判定する(ステップS18)。   The CPU 36 compares the count value Count with the upper limit value CountMax stored in the threshold value storage area 32c of the memory 32, and determines whether or not the count value Count exceeds the upper limit value CountMax (step S18).

カウント値Countが上限値CountMaxを越えていないと判定した場合(ステップS18においてNo)、CPU36は、再び、撮影処理、輪郭取得処理を実行する(ステップS13,S14)。   When it is determined that the count value Count does not exceed the upper limit value CountMax (No in step S18), the CPU 36 executes the imaging process and the contour acquisition process again (steps S13 and S14).

輪郭線を検出できないまま、カウント値Countが上限値CountMaxを越えたと判定した場合(ステップS18においてYes)、CPU36は、この投影画像補正処理(1)を終了させる。   When it is determined that the count value Count has exceeded the upper limit value CountMax without detecting the contour line (Yes in step S18), the CPU 36 ends the projection image correction process (1).

以上説明したように、実施形態1によれば、CPU36は、投影タイミングを設定して、画像処理装置33は、投影画像Gr_Rと投影画像Gr_Gとの差分画像dを生成し、投影画像の輪郭線を取得するようにした。そして、画像処理装置33は、取得した輪郭線に基づいて投影画像の補正を行うようにした。   As described above, according to the first embodiment, the CPU 36 sets the projection timing, the image processing device 33 generates the difference image d between the projection image Gr_R and the projection image Gr_G, and the contour line of the projection image To get. The image processing device 33 corrects the projection image based on the acquired contour line.

従って、調整用画像を表示しなくても、投影画像の補正を行うことができ、調整を容易なものとすることができる。このため、特に、家庭でのホームシアターやオフィス内で用いられる持ち運び容易な小型機種であっても、初心者にとって調整作業は容易となる。   Therefore, the projection image can be corrected without displaying the adjustment image, and the adjustment can be facilitated. For this reason, even for a small model that is easy to carry, particularly used in home theaters and offices at home, adjustment work is easy for beginners.

また、この補正処理を一定期間毎に行うことにより、補正投影開始後にプロジェクタ2を動かしてしまった場合でも、補正パターンの投影を行うことなく、その変化に対応した補正を行うことができる。   Further, by performing this correction processing at regular intervals, even when the projector 2 is moved after the start of correction projection, correction corresponding to the change can be performed without projecting the correction pattern.

また、CPU36は、投影部11の光センサ108の光検出信号の出力タイミングとカラーホイール105の各フィルタの色配置とをカラーホイール情報を取得し、取得したカラーホイール情報に基づいて、投影画像Gr_R,Gr_Bの撮影タイミングを設定するようにした。従って、プロジェクタ2の内部において、時分割された投影画像Gr_R,Gr_Bを判別することができる。   Further, the CPU 36 acquires color wheel information on the output timing of the light detection signal of the optical sensor 108 of the projection unit 11 and the color arrangement of each filter of the color wheel 105, and based on the acquired color wheel information, the projection image Gr_R. , Gr_B shooting timing was set. Therefore, the time-divided projection images Gr_R and Gr_B can be determined inside the projector 2.

(実施形態2)
実施形態2に係る画像投影システムは、プロジェクタとカメラとからなり、カメラでスクリーンに投影された画像を撮影して、閲覧者の位置において補正された画像が投影されるようにしたものである。
(Embodiment 2)
The image projection system according to the second embodiment includes a projector and a camera. The camera projects an image projected on a screen so that a corrected image is projected at the viewer's position.

実施形態2に係る画像投影システムの構成を図13に示す。
実施形態2に係る画像投影システムは、プロジェクタ2とは別にカメラ4を備える。カメラ4は、スクリーンSに投影された投影画像を撮影するためのものであり、撮影位置は任意に設定される。
FIG. 13 shows the configuration of the image projection system according to the second embodiment.
The image projection system according to the second embodiment includes a camera 4 separately from the projector 2. The camera 4 is for photographing a projection image projected on the screen S, and the photographing position is arbitrarily set.

カメラ4は、図14に示すように、撮影部41と、データ処理部42と、を備える。撮影部41は、図3に示す実施形態1の構成と同様に、撮影レンズ装置51と、イメージセンサ52と、を備える。撮影レンズ装置51、イメージセンサ52は、それぞれ、実施形態1の撮影レンズ装置21、イメージセンサ22と同様のものである。   As shown in FIG. 14, the camera 4 includes a photographing unit 41 and a data processing unit 42. The photographing unit 41 includes a photographing lens device 51 and an image sensor 52 as in the configuration of the first embodiment illustrated in FIG. The photographing lens device 51 and the image sensor 52 are the same as the photographing lens device 21 and the image sensor 22 of the first embodiment, respectively.

データ処理部42は、インタフェース部61と、メモリ62と、画像処理装置63と、操作部64と、プログラムコード記憶装置65と、CPU66と、を備える。   The data processing unit 42 includes an interface unit 61, a memory 62, an image processing device 63, an operation unit 64, a program code storage device 65, and a CPU 66.

これらのものは、それぞれ、図3に示すインタフェース部31、メモリ32、画像処理装置33、操作部34、プログラムコード記憶装置35、CPU36と同様のものである。カメラ4のインタフェース部61とプロジェクタ2のインタフェース部31とは、USBケーブル3を介して接続される。   These are the same as the interface unit 31, the memory 32, the image processing device 33, the operation unit 34, the program code storage device 35, and the CPU 36 shown in FIG. The interface unit 61 of the camera 4 and the interface unit 31 of the projector 2 are connected via the USB cable 3.

カメラ4が投影画像を撮影する場合、カメラ4は、プロジェクタ2から、投影部11の光センサ108から光検出信号が供給されなければ、カラーホイール情報を利用することができず、このままでは、最適な差分画像を得ることができない。   When the camera 4 captures a projection image, the color wheel information cannot be used unless the light detection signal is supplied from the light sensor 108 of the projection unit 11 from the projector 2. A differential image cannot be obtained.

しかし、カラーホイール情報を利用することができなくても、カメラ4は、カラーホイール105の回転数と1周における色変化数とを判別できれば、撮影間隔を設定して特定の撮影タイミングで撮影を行うことにより、図7(a),(b)に示すような画像を得ることができる。   However, even if the color wheel information cannot be used, if the camera 4 can discriminate between the number of rotations of the color wheel 105 and the number of color changes in one turn, the shooting interval is set and shooting is performed at a specific shooting timing. By doing so, an image as shown in FIGS. 7A and 7B can be obtained.

実施形態2では、プロジェクタ2のCPU36が、USBケーブル3を介してカメラ4に、このカラーホイール105の1周における色変化数と回転数との情報を供給する。そして、カメラ4のCPU66は、供給されたこれらの情報に基づいて撮影間隔waitを設定する。   In the second embodiment, the CPU 36 of the projector 2 supplies information on the number of color changes and the number of rotations in one turn of the color wheel 105 to the camera 4 via the USB cable 3. Then, the CPU 66 of the camera 4 sets the shooting interval wait based on the supplied information.

次に実施形態2に係る画像投影システムの動作を説明する。
プロジェクタ2のCPU36は、カメラ4に、カラーホイール105の1周における色変化数と回転数との情報を供給する。
Next, the operation of the image projection system according to the second embodiment will be described.
The CPU 36 of the projector 2 supplies the camera 4 with information on the number of color changes and the number of rotations in one turn of the color wheel 105.

カメラ4のCPU66は、実施形態1と同様に、図10に示すフローチャートに従って、投影画像補正処理(1)を実行する。   Similarly to the first embodiment, the CPU 66 of the camera 4 executes the projection image correction process (1) according to the flowchart shown in FIG.

CPU66は、投影処理の開始後(図10のステップS12)、図15に示すフローチャートに従って撮影処理(2)を実行する。
CPU66は、供給されたカラーホイール105の1周における色変化数と回転数との情報に基づいて撮影間隔を設定する(ステップS41)。
After starting the projection process (step S12 in FIG. 10), the CPU 66 executes the photographing process (2) according to the flowchart shown in FIG.
The CPU 66 sets a photographing interval based on the supplied information on the number of color changes and the number of rotations in one turn of the color wheel 105 (step S41).

CPU66は、投影固定設定撮影を行うように、撮影レンズ装置51を制御する(ステップS42)。
CPU66は、撮影間隔waitだけ待機する(ステップS43)。
The CPU 66 controls the photographing lens device 51 so as to perform the projection fixed setting photographing (step S42).
The CPU 66 waits for the photographing interval wait (step S43).

CPU66は、投影固定設定撮影を行い(ステップS44)、この撮影処理(2)を終了させる。   The CPU 66 performs projection fixed setting shooting (step S44), and ends the shooting process (2).

このように、撮影処理(2)を実行すると、CPU66は、画像処理装置63に対し、輪郭取得処理を実行するように指示する(図10のステップS14)。そして、CPU66は、投影補正処理の実行回数が上限値CountMaxを越える前に、輪郭線が検出されたと判定した場合(ステップS15においてYes)、画像処理装置63に対し、カメラ4の撮影によって得られた撮影画像に基づいて補正投影を行うように指示する(ステップS16)。   As described above, when the shooting process (2) is executed, the CPU 66 instructs the image processing apparatus 63 to execute the contour acquisition process (step S14 in FIG. 10). When the CPU 66 determines that the contour line has been detected before the number of executions of the projection correction process exceeds the upper limit value CountMax (Yes in step S15), the CPU 66 obtains the image processing device 63 by photographing with the camera 4. Instructed to perform correction projection based on the captured image (step S16).

以上説明したように、本実施形態2によれば、プロジェクタ2は、カメラ4を備え、スクリーンSに投影された投影画像をカメラ4で撮影するようにした。また、CPU66は、カラーホイール105の回転数と1周期における色変化数の情報をプロジェクタ2から取得して、異なる色毎に撮影タイミングを設定するようにした。従って、カメラ4を閲覧者の位置に設置して、投影画像の輪郭線の傾き状態を調べることができ、閲覧者の位置において、あたかも正面から見たような投影画像に補正することができる。   As described above, according to the second embodiment, the projector 2 includes the camera 4 and the camera 4 captures a projection image projected on the screen S. Further, the CPU 66 obtains information on the number of rotations of the color wheel 105 and the number of color changes in one cycle from the projector 2, and sets the photographing timing for each different color. Therefore, the camera 4 can be installed at the viewer's position to check the inclination state of the outline of the projected image, and the viewer can correct the projected image as if viewed from the front.

(実施形態3)
実施形態3に係る画像投影システムは、カラーホイール情報を用いない場合、カラーホイールキャリブレーションを行って、色変化が最大になる最適な差分画像が得られるような撮影間隔を取得するようにしたものである。
(Embodiment 3)
In the image projection system according to the third embodiment, when the color wheel information is not used, color wheel calibration is performed so that an imaging interval is obtained so as to obtain an optimal difference image that maximizes the color change. It is.

実施形態3に係る画像投影システムは、実施形態2と同様の構成を有する。CPU66は、システムクロックCLKに従って、動作する。
実施形態3では、カメラ4の撮影部41が連続撮影した結果、取得した撮影画像に基づいてカラーホイールキャリブレーション処理を行う。
The image projection system according to the third embodiment has the same configuration as that of the second embodiment. The CPU 66 operates according to the system clock CLK.
In the third embodiment, as a result of continuous shooting by the shooting unit 41 of the camera 4, color wheel calibration processing is performed based on acquired captured images.

即ち、カメラ4の撮影部41は、カラーホイール105の色の1周期と比較して短い間隔の高速シャッターで連続撮影を行う。この撮影間隔を第1の撮影間隔とする。この場合、この撮影画像は補正画像生成用のものではないため、撮影部41は、低解像度画像撮影で連続撮影を行う。   That is, the photographing unit 41 of the camera 4 performs continuous photographing with a high-speed shutter having a short interval compared to one period of the color of the color wheel 105. This shooting interval is defined as a first shooting interval. In this case, since the captured image is not for generating a corrected image, the capturing unit 41 performs continuous capturing with low-resolution image capturing.

画像処理装置63は、撮影画像の画像番号をnとして、最初の撮影画像g(0)と次の撮影画像g(1)との間で数1に従って、差分d(x,y)を取得する。画像処理装置63は、各差分を比較しやすくするため、1枚の撮影画像のすべての画素についての差分d(x.y)を加算し、加算した差分累積値k(1)を取得する。   The image processing device 63 obtains the difference d (x, y) according to Equation 1 between the first captured image g (0) and the next captured image g (1), where n is the image number of the captured image. . In order to make it easy to compare the differences, the image processing device 63 adds the differences d (x.y) for all the pixels of one captured image, and acquires the added difference accumulated value k (1).

同様に、画像処理装置63は、最初の撮影画像g(0)と2番目の撮影画像g(2)との間の差分累積値k(2)を取得する。このようにして画像処理装置63は、順次、差分累積値k(n)を取得する。   Similarly, the image processing device 63 acquires a cumulative difference value k (2) between the first captured image g (0) and the second captured image g (2). In this way, the image processing device 63 sequentially acquires the difference accumulated value k (n).

各差分累積値k(n)が図16に示すような値になった場合、CPU66は、差分累積値k(1)とk(2)とを比較する。   When each difference accumulation value k (n) becomes a value as shown in FIG. 16, the CPU 66 compares the difference accumulation values k (1) and k (2).

この場合、画像番号n=(s-1),s,(s+1)の撮影画像g(s-1),g(s),g(s+1)における差分累積値k(s-1),k(s),k(s+1)を比較すると、システムクロックタイミングCLK_sにおける差分累積値k(s)がこの近辺における極小値となる。CPU66は、この差分累積値k(n)が極小値になる時点のシステムクロックタイミングCLK_sを同期点としてメモリ62の作業データ記憶領域に記憶する。   In this case, the difference accumulated value k (s-1) in the captured images g (s-1), g (s), g (s + 1) of the image numbers n = (s-1), s, (s + 1). ), K (s), and k (s + 1) are compared, the difference accumulated value k (s) at the system clock timing CLK_s becomes a local minimum value in this vicinity. The CPU 66 stores the system clock timing CLK_s at the time when the difference accumulated value k (n) becomes the minimum value in the work data storage area of the memory 62 as a synchronization point.

また、画像番号n=(p-1),p,(p+1)の撮影画像g(p-1),g(p),g(p+1)における差分累積値k(p-1),k(p),k(p+1)を比較すると、システムクロックタイミングCLK_pにおける差分累積値k(p)がこの近辺における極大値となる。このシステムクロックタイミングCLK_sとCLK_pとの間隔が最適な差分画像が得られる撮影間隔となる。この撮影間隔を第2の撮影間隔とする。   Further, the difference accumulated value k (p-1) in the captured images g (p-1), g (p), g (p + 1) of the image numbers n = (p-1), p, (p + 1). , K (p), k (p + 1), the difference accumulated value k (p) at the system clock timing CLK_p becomes a local maximum value in this vicinity. The interval between the system clock timings CLK_s and CLK_p is an imaging interval at which an optimal difference image is obtained. This shooting interval is set as a second shooting interval.

尚、実際には、システムクロックタイミングCLK_sとCLK_pとの間隔だけでなく、撮影時間も考慮する必要があるため、CPU66は、次の数6に従って、撮影間隔waitを取得する。

Figure 0004645455
この同期点からの時間をこの撮影間隔waitで割り算して得られた時間を次の撮影タイミングとして、この撮影タイミングにて次の撮影を行えば、色変化が最大になる差分画像dが得られる。CPU66は、このようにして、色変化が最大になる差分画像dを取得する。 Actually, since it is necessary to consider not only the interval between the system clock timings CLK_s and CLK_p but also the imaging time, the CPU 66 acquires the imaging interval wait according to the following equation (6).
Figure 0004645455
Using the time obtained by dividing the time from the synchronization point by the photographing interval wait as the next photographing timing, if the next photographing is performed at this photographing timing, a difference image d having the maximum color change can be obtained. . In this way, the CPU 66 acquires the difference image d that maximizes the color change.

次に実施形態3に係る画像投影システムの動作を説明する。
カメラ4のCPU66は、図17のフローチャートに従って、投影画像補正処理(2)を実行する。
CPU66は、補正パラメータの初期化を行う(ステップS51)。
CPU66は、カラーホイールキャリブレーション処理を実行する(ステップS52)。
Next, the operation of the image projection system according to the third embodiment will be described.
The CPU 66 of the camera 4 executes the projection image correction process (2) according to the flowchart of FIG.
The CPU 66 initializes correction parameters (step S51).
The CPU 66 executes color wheel calibration processing (step S52).

CPU66は、図18及び図19に示すフローチャートに従って、カラーホイールキャリブレーション処理を実行する。
CPU66は、高速シャッタで連続撮影を行う(ステップS61)。
CPU66は、画像番号nに1を設定する(ステップS62)。
The CPU 66 executes color wheel calibration processing according to the flowcharts shown in FIGS.
The CPU 66 performs continuous shooting with a high-speed shutter (step S61).
The CPU 66 sets 1 to the image number n (step S62).

CPU66は、数1に従い、画像番号n=1の撮影画像g(1)と画像番号nの撮影画像g(n)との間の各画素の差分d(x,y)を求め、さらに、差分累積値k(n)を算出する(ステップS63)。
CPU66は、画像番号nをインクリメントする(ステップS64)。
The CPU 66 obtains a difference d (x, y) of each pixel between the captured image g (1) of the image number n = 1 and the captured image g (n) of the image number n according to the equation 1, and further calculates the difference. The cumulative value k (n) is calculated (step S63).
The CPU 66 increments the image number n (Step S64).

画像処理装置63は、数1に従い、撮影画像g(0)と撮影画像g(n)との間の各画素の差分d(x,y)を求め、さらに差分累積値k(n)を算出する(ステップS65)。   The image processing device 63 calculates the difference d (x, y) of each pixel between the captured image g (0) and the captured image g (n) according to Equation 1, and further calculates the difference accumulated value k (n). (Step S65).

CPU66は、差分累積値k(n-1)と差分累積値k(n)とを比較して、差分累積値k(n)が差分累積値k(n-1)未満であるか否かを判定する(ステップS66)。   The CPU 66 compares the difference accumulation value k (n-1) with the difference accumulation value k (n) to determine whether or not the difference accumulation value k (n) is less than the difference accumulation value k (n-1). Determination is made (step S66).

差分累積値k(n)が差分累積値k(n-1)以上と判定した場合(ステップS66においてNo)、CPU66は、画像番号nをインクリメントし、撮影画像g(0)と撮影画像g(n)との間の差分累積値k(n)を算出する(ステップS64,S65)。そして、CPU66は、差分累積値k(n-1)と差分累積値k(n)とを比較して、差分累積値k(n)が差分累積値k(n-1)未満か否かを判定する(ステップS66)。   When it is determined that the difference accumulated value k (n) is equal to or greater than the difference accumulated value k (n−1) (No in step S66), the CPU 66 increments the image number n, and the captured image g (0) and the captured image g ( The difference accumulated value k (n) with respect to n) is calculated (steps S64 and S65). Then, the CPU 66 compares the difference accumulated value k (n−1) with the difference accumulated value k (n) to determine whether or not the difference accumulated value k (n) is less than the difference accumulated value k (n−1). Determination is made (step S66).

差分累積値k(n)が差分累積値k(n-1)未満と判定した場合(ステップS66においてYes)、CPU66は、画像番号nをインクリメントする(ステップS67)。   When it is determined that the difference accumulated value k (n) is less than the difference accumulated value k (n−1) (Yes in Step S66), the CPU 66 increments the image number n (Step S67).

画像処理装置63は、数1に従い、撮影画像g(0)と撮影画像g(n)との間の各画素の差分d(x,y)を求め、さらに差分累積値k(n)を算出する(ステップS68)。
CPU66は、差分累積値k(n)が差分累積値k(n-1)を越えたか否かを判定する(ステップS69)。
The image processing device 63 calculates the difference d (x, y) of each pixel between the captured image g (0) and the captured image g (n) according to Equation 1, and further calculates the difference accumulated value k (n). (Step S68).
The CPU 66 determines whether or not the accumulated difference value k (n) exceeds the accumulated difference value k (n−1) (step S69).

差分累積値k(n)が差分累積値k(n-1)未満と判定した場合(ステップS69においてNo)、CPU66は、画像番号nをインクリメントし、撮影画像g(0)と撮影画像g(n)との間の差分累積値k(n)を算出する(ステップS67,S68)。そして、CPU66は、差分累積値k(n-1)と差分累積値k(n)とを比較し、差分累積値k(n)が差分累積値k(n-1)を越えたか否かを判定する(ステップS69)。   When it is determined that the difference accumulated value k (n) is less than the difference accumulated value k (n−1) (No in step S69), the CPU 66 increments the image number n, and the photographed image g (0) and the photographed image g ( The difference accumulated value k (n) with respect to n) is calculated (steps S67, S68). Then, the CPU 66 compares the difference accumulated value k (n−1) with the difference accumulated value k (n), and determines whether or not the difference accumulated value k (n) exceeds the difference accumulated value k (n−1). Determination is made (step S69).

差分累積値k(n)が差分累積値k(n-1)を越えたと判定した場合(ステップS69においてYes)、CPU66は、この撮影画像g(n)を取得した時刻を同期点として、メモリ62に記憶する(ステップS70)。   When it is determined that the difference accumulated value k (n) exceeds the difference accumulated value k (n-1) (Yes in step S69), the CPU 66 uses the time when the captured image g (n) is acquired as a synchronization point, 62 (step S70).

CPU66は、この同期点の画像番号nをsとして保存する(ステップS71)。
CPU66は、画像番号nをインクリメントする(ステップS72)。
画像処理装置63は、数1に従い、撮影画像g(0)と撮影画像g(n)との間の各画素の差分d(x,y)を求め、さらに差分累積値k(n)を算出する(ステップS73)。
The CPU 66 stores the synchronization point image number n as s (step S71).
The CPU 66 increments the image number n (step S72).
The image processing device 63 calculates the difference d (x, y) of each pixel between the captured image g (0) and the captured image g (n) according to Equation 1, and further calculates the difference accumulated value k (n). (Step S73).

CPU66は、差分累積値k(n-1)と差分累積値k(n)とを比較して、差分累積値k(n)が差分累積値k(n-1)未満か否かを判定する(ステップS74)。   The CPU 66 compares the difference accumulated value k (n-1) with the difference accumulated value k (n) and determines whether or not the difference accumulated value k (n) is less than the difference accumulated value k (n-1). (Step S74).

差分累積値k(n)が差分累積値k(n-1)以上と判定した場合(ステップS74においてNo)、CPU66は、画像番号nをインクリメントし、画像処理装置63は、数1に従い、撮影画像g(0)と撮影画像g(n)との間の各画素の差分d(x,y)を求め、さらに差分累積値k(n)を算出する(ステップS72,S73)。   When it is determined that the difference accumulated value k (n) is equal to or greater than the difference accumulated value k (n−1) (No in step S74), the CPU 66 increments the image number n, and the image processing device 63 takes the image according to the equation 1. A difference d (x, y) of each pixel between the image g (0) and the captured image g (n) is obtained, and a difference accumulated value k (n) is further calculated (steps S72 and S73).

差分累積値k(n)が差分累積値k(n-1)未満と判定した場合(ステップS74においてYes)、CPU66は、数6に従い、撮影間隔waitを算出する(ステップS75)。そして、CPU66は、このカラーホイールキャリブレーション処理を終了させる。   When it is determined that the difference accumulated value k (n) is less than the difference accumulated value k (n−1) (Yes in Step S74), the CPU 66 calculates the shooting interval wait according to Equation 6 (Step S75). Then, the CPU 66 ends the color wheel calibration process.

次に、CPU66は、撮影処理(3)を実行する(図17のステップS53)。CPU66は、図20に示すフローチャートに従って、この撮影処理(3)を実行する。
まず、CPU66は、同期点において、投影固定設定撮影を行うように撮影部41を制御する(ステップS81)。
CPU66は、撮影間隔waitだけ待機する(ステップS82)。
Next, the CPU 66 executes a photographing process (3) (step S53 in FIG. 17). The CPU 66 executes this photographing process (3) according to the flowchart shown in FIG.
First, the CPU 66 controls the photographing unit 41 to perform the projection fixed setting photographing at the synchronization point (step S81).
The CPU 66 waits for the photographing interval wait (step S82).

CPU66は、投影固定設定撮影を行うように撮影部41を制御する(ステップS83)。
CPU66は、人間の目に見えるのと同じカラーの画像を撮影できる設定値で撮影を行う(ステップS84)。
The CPU 66 controls the photographing unit 41 to perform the projection fixed setting photographing (step S83).
The CPU 66 shoots with a setting value that can shoot an image of the same color that is visible to the human eye (step S84).

次に、CPU66は、撮影によって得られた画像データを、インタフェース部61を介してプロジェクタ2に送信する(図17のステップS54)。
プロジェクタ2のCPU36は、USBケーブル3,インタフェース部31を介してこの画像データを受信する(ステップS55)。
Next, the CPU 66 transmits the image data obtained by photographing to the projector 2 via the interface unit 61 (step S54 in FIG. 17).
The CPU 36 of the projector 2 receives this image data via the USB cable 3 and the interface unit 31 (step S55).

CPU36は、画像処理装置33に対し、輪郭取得処理(図12)を実行するように指示する(ステップS56)。
CPU36は、画像処理装置33に対し、投影画像の補正を行うように指示する(ステップS57)。
The CPU 36 instructs the image processing device 33 to execute the contour acquisition process (FIG. 12) (step S56).
The CPU 36 instructs the image processing device 33 to correct the projection image (step S57).

以上説明したように、実施形態3によれば、カメラ4が連続撮影を行って、撮影画像の間の差分累積値k(n)を算出し、差分累積値k(n)の極値を求めることにより、撮影間隔waitを取得するようにした。   As described above, according to the third embodiment, the camera 4 continuously captures, calculates the difference accumulated value k (n) between the captured images, and obtains the extreme value of the difference accumulated value k (n). As a result, the shooting interval wait is acquired.

従って、カラーホイール情報を用いずに、色変化が最大になる撮影間隔を算出することができ、投影画像が最も鮮明になる撮影間隔を探すことにより、異なる色毎に撮影タイミングを設定することができる。   Therefore, it is possible to calculate the shooting interval at which the color change is maximized without using the color wheel information, and to set the shooting timing for each different color by searching for the shooting interval at which the projected image is the clearest. it can.

また、取得した投影領域に従って正面化補正を行うことにより、特別な投影を必要とすることなく、正面化補正した画像を投影することができる。   Further, by performing the front-facing correction according to the acquired projection area, it is possible to project the front-corrected image without requiring a special projection.

(実施形態4)
実施形態4に係る画像投影システムは、ズーム制御を行えるようにしたものである。
(Embodiment 4)
The image projection system according to Embodiment 4 can perform zoom control.

実施形態4に係る画像投影システムは、実施形態1と同様に、図1に示す構成を有する。投影部11は、ズーム機構部(図示せず)を有している。
CPU36は、撮影部12の撮影によって得られた撮影画像に基づいて、投影画像Grが画角α内に収まるように投影部11のズーム機構部を制御する。
The image projection system according to the fourth embodiment has the configuration shown in FIG. The projection unit 11 has a zoom mechanism unit (not shown).
The CPU 36 controls the zoom mechanism unit of the projection unit 11 so that the projection image Gr falls within the angle of view α based on the photographed image obtained by the photographing of the photographing unit 12.

次に実施形態4に係る画像投影システムの動作を説明する。
CPU36は、図21のフローチャートに従って、投影画像補正処理(3)を実行する。
CPU36は、補正パラメータの初期化を行い(ステップS91)、カラーホイールキャリブレーション処理(図18)を実行する(ステップS92)。
Next, the operation of the image projection system according to the fourth embodiment will be described.
The CPU 36 executes the projection image correction process (3) according to the flowchart of FIG.
The CPU 36 initializes correction parameters (step S91) and executes a color wheel calibration process (FIG. 18) (step S92).

CPU36は、撮影処理(3)(図20)を実行する(ステップS93)。
CPU36は、輪郭取得処理(図12)を実行する(ステップS94)。
CPU36は、投影画像の輪郭が画角α内に収まっているか否かを判定する(ステップS95)。
The CPU 36 executes the photographing process (3) (FIG. 20) (step S93).
The CPU 36 executes contour acquisition processing (FIG. 12) (step S94).
The CPU 36 determines whether or not the contour of the projection image is within the angle of view α (step S95).

投影画像の輪郭が画角α内に収まっていると判定した場合(ステップS95においてYes)、拡大可能量を算出する(ステップS96)。   If it is determined that the contour of the projected image is within the angle of view α (Yes in step S95), an enlargeable amount is calculated (step S96).

CPU36は、拡大が可能か否かを判定する(ステップS97)。
拡大が可能と判定した場合(ステップS97においてYes)、CPU36は、テレ方向へ拡大可能量だけ拡大するように投影部11のズーム機構部を制御し(ステップS98)、再び、撮影処理(3)(図20)を実行する(ステップS93)。
The CPU 36 determines whether enlargement is possible (step S97).
When it is determined that enlargement is possible (Yes in step S97), the CPU 36 controls the zoom mechanism unit of the projection unit 11 so as to enlarge the enlargement amount in the tele direction (step S98), and again performs the imaging process (3). (FIG. 20) is executed (step S93).

拡大不能と判定した場合(ステップS97においてNo)、CPU36は、画像装置に対して撮影画像の補正を行うように指示し(ステップS99)、この投影画像補正処理(3)を終了させる。   When it is determined that enlargement is impossible (No in step S97), the CPU 36 instructs the image apparatus to correct the captured image (step S99), and ends the projection image correction process (3).

一方、輪郭が画角α内に収まっていないと判定した場合(ステップS95においてYes)、CPU36は、縮小量を算出する(ステップS100)。   On the other hand, if it is determined that the contour does not fall within the angle of view α (Yes in step S95), the CPU 36 calculates a reduction amount (step S100).

CPU36は、画角α内に収まるか否かを判定する(ステップS101)。
画角α内に収まると判定した場合(ステップS101においてYes)、CPU36は、wide方向への縮小量だけ縮小するように投影部11のズーム機構部を制御し(ステップS102)、再び、撮影処理(3)(図20)を実行する。
The CPU 36 determines whether or not it falls within the angle of view α (step S101).
If it is determined that the angle falls within the angle of view α (Yes in step S101), the CPU 36 controls the zoom mechanism of the projection unit 11 so as to reduce the reduction amount in the width direction (step S102), and again performs the imaging process. (3) (FIG. 20) is executed.

画角α内に収まらないと判定した場合(ステップS101においてNo)、CPU36は、画像処理装置63に対して撮影画像の補正を行うように指示し(ステップS99)、この投影画像補正処理(3)を終了させる。   When it is determined that the image does not fall within the angle of view α (No in step S101), the CPU 36 instructs the image processing device 63 to correct the captured image (step S99), and this projection image correction process (3 ).

以上説明したように、実施形態4によれば、CPU36は、投影画像Grが画角α内の収まるようにズーム制御するようにしたので、画角αに対応するサイズの差分画像dを取得することができ、最適な投影画像の補正を行うことができる。   As described above, according to the fourth embodiment, the CPU 36 performs zoom control so that the projection image Gr falls within the angle of view α, and thus acquires the difference image d having a size corresponding to the angle of view α. And an optimal projection image can be corrected.

(実施形態5)
実施形態5に係る画像投影システムは、投影画像が画角内に収まらない場合に、その旨を示すガイド表示を行うようにしたものである。
(Embodiment 5)
In the image projection system according to the fifth embodiment, when the projection image does not fall within the angle of view, a guide display indicating that fact is performed.

実施形態5に係る画像投影システムは、実施形態1と同様に、図1に示す構成を有する。   The image projection system according to the fifth embodiment has the configuration shown in FIG.

図22(a)に示すように、投影画像Grが画角αからはずれた場合、図22(b)に示すように、投影画像Grの輪郭線をすべて取得できず、投影画像の正しい補正を行うことができなくなる。この場合、CPU36は、図22(c)に示すように、投影画像Grが画角α内に収まる方向を示すガイドGdを表示する。   As shown in FIG. 22A, when the projected image Gr deviates from the angle of view α, as shown in FIG. 22B, all the contour lines of the projected image Gr cannot be acquired, and correct correction of the projected image is performed. It becomes impossible to do. In this case, as shown in FIG. 22C, the CPU 36 displays a guide Gd indicating the direction in which the projection image Gr falls within the angle of view α.

次に実施形態5に係る画像投影システムの動作を説明する。
CPU36は、図23に示すフローチャートに従って投影画像補正処理(4)を実行する。
Next, the operation of the image projection system according to the fifth embodiment will be described.
The CPU 36 executes the projection image correction process (4) according to the flowchart shown in FIG.

まず、CPU36は、補正パラメータの初期化を行い(ステップS111)、カラーホイールキャリブレーション処理(図18,19)を実行する(ステップS112)。   First, the CPU 36 initializes correction parameters (step S111), and executes a color wheel calibration process (FIGS. 18 and 19) (step S112).

CPU36は、撮影処理(2)(図15)を実行する(ステップS113)。
CPU36は、輪郭取得処理(図12)を実行する(ステップS114)。
The CPU 36 executes the photographing process (2) (FIG. 15) (step S113).
The CPU 36 executes contour acquisition processing (FIG. 12) (step S114).

CPU36は、画角αからはみ出した辺があるか否かを判定する(ステップS115)。   The CPU 36 determines whether or not there is a side protruding from the angle of view α (step S115).

画角αからはみ出した辺がないと判定した場合(ステップS115においてNo)、CPU36は、画像処理装置63に対して、撮影画像の補正を行うように指示する(ステップS116)。   If it is determined that there is no side protruding from the angle of view α (No in step S115), the CPU 36 instructs the image processing device 63 to correct the captured image (step S116).

一方、画角αからはみ出した辺があると判定した場合(ステップS115においてYes)、CPU36は、はみ出した辺があることを指示するガイドGdを表示する(ステップS117)。   On the other hand, when it is determined that there is a side protruding from the angle of view α (Yes in step S115), the CPU 36 displays a guide Gd instructing that there is a side protruding (step S117).

図22(c)に示すようなガイドGdが表示されれば、閲覧者は、投影画像が画角α内に収まる方向が左方向であることを判別することができる。閲覧者がこの方向にプロジェクタ2の投影部11の位置、角度調整を行い、CPU36が、再度、撮影処理(2)(ステップS113)、輪郭取得処理(ステップS114)を実行した結果、投影画像Grが画角α内に収まるようになれば、投影画像Grの輪郭線をすべて取得できるようになる。   If the guide Gd as shown in FIG. 22C is displayed, the viewer can determine that the direction in which the projection image falls within the angle of view α is the left direction. The viewer adjusts the position and angle of the projection unit 11 of the projector 2 in this direction, and the CPU 36 executes the imaging process (2) (step S113) and the contour acquisition process (step S114) again. Becomes within the angle of view α, all the contour lines of the projection image Gr can be acquired.

以上説明したように、実施形態5によれば、画角αからはみ出した辺がある場合に、CPU36は、投影画像Grを画角α内に収まる方向を示すガイドGdを表示するようにした。   As described above, according to the fifth embodiment, when there is a side protruding from the angle of view α, the CPU 36 displays the guide Gd indicating the direction in which the projection image Gr is within the angle of view α.

従って、CPU36は、投影画像Grが画角αから外れた方向を、閲覧者に分かり易く指示することができる。このため、この表示に従って投影部11の位置、角度が調整されれば、CPU36が、再度、撮影処理(2)、輪郭取得処理を実行することにより、投影画像Grの輪郭線をすべて取得できるようになり、投影画像Grの正しい補正を行うことができる。   Therefore, the CPU 36 can instruct the viewer in an easy-to-understand direction in which the projection image Gr deviates from the angle of view α. Therefore, if the position and angle of the projection unit 11 are adjusted according to this display, the CPU 36 can acquire all the contour lines of the projection image Gr by executing the imaging process (2) and the contour acquisition process again. Thus, correct correction of the projection image Gr can be performed.

尚、本発明を実施するにあたっては、種々の形態が考えられ、上記実施形態に限られるものではない。
例えば、上記各実施形態では、撮影タイミングを、光スポットがフィルタ105B(青)とフィルタ105R(赤)とに照射されているタイミングとした。しかし、撮影タイミングを、光スポットがフィルタ105G(緑)に照射されるタイミングも含むものであってもよい。
In carrying out the present invention, various forms are conceivable and the present invention is not limited to the above embodiment.
For example, in each of the above embodiments, the imaging timing is set to the timing at which the light spot is applied to the filter 105B (blue) and the filter 105R (red). However, the imaging timing may include the timing at which the light spot is applied to the filter 105G (green).

上記実施形態2,3において、必ずしもカメラ4を用いなくてもよく、プロジェクタ2が投影画像補正処理(2)を実行することにより、カラーホイール情報を利用せずに、実施形態2,3を適用することができる。   In the second and third embodiments, the camera 4 is not necessarily used, and the second and third embodiments are applied without using the color wheel information when the projector 2 executes the projection image correction process (2). can do.

この場合、カラーホイール情報を利用しなくてもよいため、プロジェクタ2は、時分割で各色の画像を投影するものであれば、必ずしも単板式のものである必要はなく、さらに、カラーホイールを用いたものである必要もない。また、実施形態4,5において、実施形態2,3と同様にカメラ4が備えられた構成であってもよい。   In this case, since it is not necessary to use the color wheel information, the projector 2 does not necessarily have to be a single-plate type as long as it projects images of each color in a time division manner. It doesn't have to be. In the fourth and fifth embodiments, the camera 4 may be provided as in the second and third embodiments.

上記各実施形態では、コンピュータ1とプロジェクタ2とは、USBケーブル3を介して接続されるものとして説明した。しかし、無線LAN等を介して接続されてもよい。同様に、実施形態2におけるカメラ4とプロジェクタ2とが、無線LAN等を介して接続されてもよい。   In the above embodiments, the computer 1 and the projector 2 are described as being connected via the USB cable 3. However, it may be connected via a wireless LAN or the like. Similarly, the camera 4 and the projector 2 in the second embodiment may be connected via a wireless LAN or the like.

また、プロジェクタ2にグラフ、表等の画像データを記憶するようにしてコンピュータ1を省くこともできる。   Further, the computer 1 can be omitted by storing image data such as graphs and tables in the projector 2.

上記各実施形態では、プログラムが、プログラムコード記憶装置のようなメモリ等に予め記憶されているものとして説明した。しかし、撮影装置を、装置の全部又は一部として動作させ、あるいは、上述の処理を実行させるためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。   In each of the above embodiments, the program has been described as being stored in advance in a memory such as a program code storage device. However, a program for operating the photographing apparatus as all or a part of the apparatus or executing the above-described processing is a flexible disk, a CD-ROM (Compact Disk Read-Only Memory), a DVD (Digital Versatile Disk). It may be stored in a computer-readable recording medium such as MO (Magneto Optical disk) and distributed, installed in another computer, operated as the above-mentioned means, or the above-mentioned steps may be executed.

さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。   Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

本発明の実施形態1に係る画像投影システムの構成を示す図である。It is a figure which shows the structure of the image projection system which concerns on Embodiment 1 of this invention. 図1に示すプロジェクタとスクリーンの位置関係及びこの位置関係による投影画像を示す図である。It is a figure which shows the positional relationship of the projector and screen shown in FIG. 1, and the projection image by this positional relationship. 図1に示すプロジェクタの構成を示すブロック図である。It is a block diagram which shows the structure of the projector shown in FIG. 図3に示す投影部の構成を示す図である。It is a figure which shows the structure of the projection part shown in FIG. 図4に示すカラーホイールを示す図である。It is a figure which shows the color wheel shown in FIG. 図3に示すメモリの記憶領域を示す図である。FIG. 4 is a diagram showing a storage area of the memory shown in FIG. 3. 差分画像を取得する処理を示す図である。It is a figure which shows the process which acquires a difference image. 投影画像の2値エッジ画像を示す図である。It is a figure which shows the binary edge image of a projection image. 図3に示す画像処理装置が行うハフ変換を示す図である。It is a figure which shows the Hough transformation which the image processing apparatus shown in FIG. 3 performs. 図1に示すプロジェクタが実行する投影画像補正処理(1)を示すフローチャートである。It is a flowchart which shows the projection image correction process (1) which the projector shown in FIG. 1 performs. 図3に示すCPUが実行する撮影処理(1)を示すフローチャートである。It is a flowchart which shows the imaging | photography process (1) which CPU shown in FIG. 3 performs. 画像処理装置が実行する投影画像の輪郭取得処理を示すフローチャートである。It is a flowchart which shows the outline acquisition process of the projection image which an image processing apparatus performs. 本発明の実施形態2に係る画像投影システムの構成を示す図である。It is a figure which shows the structure of the image projection system which concerns on Embodiment 2 of this invention. 図13に示すカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera shown in FIG. 図14に示すCPUが実行する撮影処理(2)を示すフローチャートである。It is a flowchart which shows the imaging | photography process (2) which CPU shown in FIG. 14 performs. 本発明の実施形態3の処理内容を示す図である。It is a figure which shows the processing content of Embodiment 3 of this invention. 図3に示すプロジェクタのCPUと図14に示すカメラのCPUとが実行する投影画像補正処理(2)の内容を示すフローチャートである。It is a flowchart which shows the content of the projection image correction process (2) which CPU of the projector shown in FIG. 3 and CPU of the camera shown in FIG. 14 perform. カメラのCPUが実行するカラーホイールキャリブレーション処理(その1)を示すフローチャートである。It is a flowchart which shows the color wheel calibration process (the 1) which CPU of a camera performs. カメラのCPUが実行するカラーホイールキャリブレーション処理(その2)を示すフローチャートである。It is a flowchart which shows the color wheel calibration process (the 2) which CPU of a camera performs. プロジェクタのカメラのCPUが実行する撮影処理(3)を示すフローチャートである。It is a flowchart which shows the imaging | photography process (3) which CPU of the camera of a projector performs. 本発明の実施形態4に係るプロジェクタのCPUが実行する投影画像補正処理(3)を示すフローチャートである。It is a flowchart which shows the projection image correction process (3) which CPU of the projector which concerns on Embodiment 4 of this invention performs. 本発明の実施形態5の処理内容を示す図である。It is a figure which shows the processing content of Embodiment 5 of this invention. プロジェクタのCPUが実行する投影画像補正処理(4)を示すフローチャートである。It is a flowchart which shows the projection image correction process (4) which CPU of a projector performs.

符号の説明Explanation of symbols

1・・・コンピュータ、2・・・プロジェクタ、4・・・カメラ、11・・・投影部、12,41・・・撮影部、33,63・・・画像処理装置、36,66・・・CPU   DESCRIPTION OF SYMBOLS 1 ... Computer, 2 ... Projector, 4 ... Camera, 11 ... Projection part, 12, 41 ... Shooting part, 33, 63 ... Image processing apparatus, 36, 66 ... CPU

Claims (10)

異なる色毎に時分割された複数の色画像を投影面に投影する投影部と、
前記投影面に投影された投影画像を撮影する撮影部と、
撮影タイミングを設定し、前記投影面に投影された投影画像を異なる色毎に撮影するように前記撮影部を制御する制御部と、
前記撮影部の撮影によって得られた異なる色の複数の撮影画像の差を求めて差分画像を生成し、生成した差分画像から前記投影画像の輪郭線を取得する輪郭線取得部と、
前記輪郭線取得部が取得した前記投影画像の輪郭線の傾きを取得し、取得した前記輪郭線の傾きに基づいて、前記投影画像の歪み補正を行う補正部と、を備えた、
ことを特徴とする画像投影装置。
A projection unit that projects a plurality of color images time-divided for different colors onto a projection plane;
A photographing unit for photographing a projection image projected on the projection plane;
A control unit that sets the shooting timing and controls the shooting unit so as to shoot the projection image projected on the projection plane for each different color;
Obtaining a difference image by obtaining a difference between a plurality of captured images of different colors obtained by photographing of the photographing unit, and obtaining a contour line of the projection image from the generated difference image;
A correction unit that acquires the inclination of the contour line of the projection image acquired by the contour line acquisition unit and corrects the distortion of the projection image based on the acquired inclination of the contour line;
An image projection apparatus characterized by that.
前記投影部は、
色分解された光が供給されて、時分割された複数の色信号に基づいて形成された複数の色画像を、順次、出力する画像出力部と、
前記複数の色信号に対応する複数の色フィルタが配置されて、光源からの光を色分解して前記画像出力部に供給するカラーホイールと、
タイミング信号が供給されて、供給されたタイミング信号に基づく回転数で前記カラーホイールを回転制御する回転制御部と、
前記カラーホイールの回転を検出して検出信号を出力する回転検出部と、
前記回転検出部が前記検出信号を出力する毎に、前記回転制御部に前記タイミング信号を供給するとともに、映像信号を複数の色信号に時分割し、前記検出信号に基づいて、前記カラーホイールが前記画像出力部に供給する光の色に同期させ、前記時分割した色信号を前記画像出力部に供給する時分割駆動部と、を備えたものである、
ことを特徴とする請求項1に記載の画像投影装置。
The projection unit
An image output unit that sequentially supplies a plurality of color images formed based on a plurality of time-division color signals supplied with the color-separated light;
A plurality of color filters corresponding to the plurality of color signals, a color wheel for color-separating light from a light source and supplying the color output to the image output unit;
A rotation control unit that is supplied with a timing signal and controls rotation of the color wheel at a rotation speed based on the supplied timing signal;
A rotation detector that detects rotation of the color wheel and outputs a detection signal;
Each time the rotation detection unit outputs the detection signal, the timing signal is supplied to the rotation control unit, and the video signal is time-divided into a plurality of color signals. Based on the detection signal, the color wheel A time-division driving unit that synchronizes with the color of light supplied to the image output unit and supplies the time-divided color signal to the image output unit,
The image projection apparatus according to claim 1.
前記制御部は、前記回転検出部が出力した検出信号を取得し、取得した前記検出信号と前記カラーホイールの複数の色フィルタの配置情報とに基づいて、異なる色毎に前記撮影タイミングを設定する、
ことを特徴とする請求項2に記載の画像投影装置。
The control unit acquires a detection signal output from the rotation detection unit, and sets the shooting timing for each different color based on the acquired detection signal and arrangement information of a plurality of color filters of the color wheel. ,
The image projection apparatus according to claim 2, wherein:
前記制御部は、前記カラーホイールの回転数と色変化数とに基づいて、異なる色毎に前記撮影タイミングを設定する、
ことを特徴とする請求項2に記載の画像投影装置。
The control unit sets the photographing timing for each different color based on the number of rotations of the color wheel and the number of color changes.
The image projection apparatus according to claim 2, wherein:
前記制御部は、前記投影面に投影された前記投影画像の色を判別可能な第1の撮影間隔で前記投影画像を撮影するように前記撮影部を制御し、最初の撮影によって得られた撮影画像を基準として、撮影する毎に、前記最初の撮影画像との差分値を取得し、取得した差分値の極値を取得し、取得した極値と極値との時間と撮影時間と前記第1の撮影間隔とに基づいて、異なる色毎に、前記撮影タイミングを設定する、
ことを特徴とする請求項1に記載の画像投影装置。
The control unit controls the photographing unit so as to photograph the projection image at a first photographing interval capable of discriminating the color of the projection image projected on the projection plane, and the photographing obtained by the first photographing is performed. Every time a photograph is taken with reference to an image, a difference value from the first photographed image is obtained, an extreme value of the obtained difference value is obtained, a time between the obtained extreme value and the extreme value, a photographing time, and the first time Setting the shooting timing for each different color based on one shooting interval;
The image projection apparatus according to claim 1.
カメラを備え、
前記撮影部と前記制御部とは、前記カメラに備えられたものである、
ことを特徴とする請求項4又は5に記載の画像投影装置。
With a camera
The photographing unit and the control unit are provided in the camera.
The image projection apparatus according to claim 4, wherein the image projection apparatus is an image projection apparatus.
前記投影部は、ズーム機構部を有し、
前記制御部は、前記撮影部の撮影によって得られた撮影画像に基づいて、前記投影画像が画角に収まるか否かを判定し、前記投影画像が画角から外れたとき、前記投影画像が画角内に収まるように前記投影部のズーム機構部を制御する、
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像投影装置。
The projection unit includes a zoom mechanism unit,
The control unit determines whether or not the projection image is within an angle of view based on a captured image obtained by imaging of the imaging unit, and when the projection image is out of the angle of view, the projection image is Controlling the zoom mechanism of the projection unit to be within an angle of view;
The image projection apparatus according to claim 1, wherein the image projection apparatus is an image projection apparatus.
前記制御部は、前記投影画像が画角から外れたときに、前記投影画像が画角内に収まる方向を示すガイドを表示する、
ことを特徴とする請求項7に記載の画像投影装置。
The control unit displays a guide indicating a direction in which the projection image falls within the angle of view when the projection image deviates from the angle of view.
The image projection apparatus according to claim 7.
異なる色毎に時分割した複数の色画像を投影面に投影するステップと、
撮影タイミングを設定し、前記投影面に投影された投影画像を異なる色毎に撮影するステップと、
前記撮影によって得られた異なる色の複数の撮影画像の差を求めて差分画像を生成し、生成した前記差分画像から前記投影画像の輪郭線を取得するステップと、
取得した前記投影画像の輪郭線の傾きを取得し、取得した前記輪郭線の傾きに基づいて、前記投影画像の歪み補正を行うステップと、を備えた、
ことを特徴とする投影画像補正方法。
Projecting a plurality of color images time-divided for different colors onto a projection plane;
Setting shooting timing and shooting the projected image projected on the projection plane for each different color;
Obtaining a difference image by obtaining a difference between a plurality of photographed images of different colors obtained by the photographing, and acquiring a contour line of the projection image from the generated difference image;
Obtaining the inclination of the contour line of the acquired projection image, and performing distortion correction of the projection image based on the acquired inclination of the contour line, and
The projected image correction method characterized by the above-mentioned.
コンピュータに、
異なる色毎に時分割した複数の色画像を投影面に投影する手順、
撮影タイミングを設定し、前記投影面に投影された投影画像を異なる色毎に撮影する手順、
前記撮影によって得られた異なる色の複数の撮影画像の差を求めて差分画像を生成し、生成した差分画像から前記投影画像の輪郭線を取得する手順、
取得した前記投影画像の輪郭線の傾きを取得し、取得した前記輪郭線の傾きに基づいて、前記投影画像の歪み補正を行う手順、
を実行させるためのプログラム。
On the computer,
Projecting multiple color images time-divided for different colors onto the projection surface,
A procedure for setting the shooting timing and shooting the projected image projected on the projection plane for each different color;
A procedure for obtaining a difference image by obtaining a difference between a plurality of photographed images of different colors obtained by the photographing, and acquiring a contour line of the projection image from the generated difference image;
A procedure for acquiring the inclination of the contour line of the acquired projection image and correcting distortion of the projection image based on the acquired inclination of the contour line;
A program for running
JP2006010484A 2006-01-18 2006-01-18 Image projection apparatus, projection image correction method, and program Expired - Fee Related JP4645455B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006010484A JP4645455B2 (en) 2006-01-18 2006-01-18 Image projection apparatus, projection image correction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006010484A JP4645455B2 (en) 2006-01-18 2006-01-18 Image projection apparatus, projection image correction method, and program

Publications (2)

Publication Number Publication Date
JP2007194865A JP2007194865A (en) 2007-08-02
JP4645455B2 true JP4645455B2 (en) 2011-03-09

Family

ID=38450211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006010484A Expired - Fee Related JP4645455B2 (en) 2006-01-18 2006-01-18 Image projection apparatus, projection image correction method, and program

Country Status (1)

Country Link
JP (1) JP4645455B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5386883B2 (en) * 2008-08-20 2014-01-15 セイコーエプソン株式会社 Projector and projector control method
JP5966624B2 (en) * 2012-05-29 2016-08-10 株式会社リコー Information processing apparatus and information display system
JP6427888B2 (en) * 2014-02-06 2018-11-28 株式会社リコー Image display system, image display apparatus, and image display method
JP7190701B2 (en) 2019-03-27 2022-12-16 パナソニックIpマネジメント株式会社 Projected image adjustment system and method
CN113259637B (en) * 2020-02-12 2022-07-12 青岛海信激光显示股份有限公司 Projection image correction method and laser projection system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005037771A (en) * 2003-07-17 2005-02-10 Nec Viewtechnology Ltd Projector
JP2005148131A (en) * 2003-11-11 2005-06-09 Nec Viewtechnology Ltd Projector
JP2005269449A (en) * 2004-03-19 2005-09-29 Casio Comput Co Ltd Image processor, image processing method and program
JP2005275447A (en) * 2004-03-22 2005-10-06 Casio Comput Co Ltd Image processing device, image processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005037771A (en) * 2003-07-17 2005-02-10 Nec Viewtechnology Ltd Projector
JP2005148131A (en) * 2003-11-11 2005-06-09 Nec Viewtechnology Ltd Projector
JP2005269449A (en) * 2004-03-19 2005-09-29 Casio Comput Co Ltd Image processor, image processing method and program
JP2005275447A (en) * 2004-03-22 2005-10-06 Casio Comput Co Ltd Image processing device, image processing method and program

Also Published As

Publication number Publication date
JP2007194865A (en) 2007-08-02

Similar Documents

Publication Publication Date Title
CN107018389B (en) Image projection system, projector, and control method for image projection system
CN108989777B (en) Projection apparatus, control method of projection apparatus, and non-transitory storage medium
CN101989028B (en) Projector and method of controlling the same
US7494229B2 (en) Projector and processing line specification method
JP6503756B2 (en) Projector and projector control method
JP5549667B2 (en) Multi-projection display system and screen forming method
CN105372916B (en) Image projecting equipment and its control method
JP3741119B2 (en) Projection adjustment system for projection type image display device
JP4645455B2 (en) Image projection apparatus, projection image correction method, and program
CN100460995C (en) Projector and projector control method
JP4415377B2 (en) Light source driving method and projector
JP2011244044A (en) Image projector
JP5206081B2 (en) Projector, program and storage medium
JP6914969B2 (en) Projection type video display device
JP2011135445A (en) Image projection apparatus
JP2018142856A (en) Projector, and method for controlling projector
WO2011142197A1 (en) Control device and projection video display device
JP5845566B2 (en) Projector and projector control method
JP2021127998A (en) Distance information acquisition device and distance information acquisition method
JP5845565B2 (en) Projector and projector control method
JP6642032B2 (en) Projector and projector control method
JP2015159460A (en) Projection system, projection device, photographing device, method for generating guide frame, and program
JP6866915B2 (en) Image projection system and control method of image projection system
JP2006023400A (en) Projector device and focal point adjustment method for the same
JP2023123126A (en) Image processing device, imaging device, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4645455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees