JP2007264413A - Projector, projection method and program - Google Patents

Projector, projection method and program Download PDF

Info

Publication number
JP2007264413A
JP2007264413A JP2006091121A JP2006091121A JP2007264413A JP 2007264413 A JP2007264413 A JP 2007264413A JP 2006091121 A JP2006091121 A JP 2006091121A JP 2006091121 A JP2006091121 A JP 2006091121A JP 2007264413 A JP2007264413 A JP 2007264413A
Authority
JP
Japan
Prior art keywords
projection
measurement
plane
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006091121A
Other languages
Japanese (ja)
Inventor
Kiyoshi Oda
潔 尾田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006091121A priority Critical patent/JP2007264413A/en
Publication of JP2007264413A publication Critical patent/JP2007264413A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To restrain a blur by achieving an image correction in which projected images are corrected even if a projection surface is not smooth. <P>SOLUTION: This projector comprises: a projection section that projects images to the projection surface; a focusing section that focuses images to be projected by the projection section; a distance measurement section that measures the distances of at least three measurement positions in the display range of an image displayed on the projection surface; and a control section that controls the projection section and focusing section based on the measurement results of the distance measurement section. From the measurement results of the distance measurement section obtained in the corresponding measurement positions, the control section determines whether the measurement positions are on the same plane or not. If they are not on the same plane, an imaginary plane is calculated based on the measured distance of each measurement position. Also, the focusing section is controlled so that an image projected by the projection section is focused on the imaginary plane. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、投影装置、投影方法及びプログラムに係り、特に、投影画像を補正することのできる投影装置、投影方法及びプログラムに関する。   The present invention relates to a projection apparatus, a projection method, and a program, and more particularly, to a projection apparatus, a projection method, and a program capable of correcting a projection image.

従来、壁面や、スクリーン等に画像を投影する投影装置においては、例えば壁面やスクリーン等の投影面に対して傾いて設置されている場合に、その傾きを検出して投影画像を補正することで、好適な投影画像を表示するものが開発されている(例えば、特許文献1参照)。
特開2005−70415号公報
Conventionally, in a projection device that projects an image on a wall surface, a screen or the like, for example, when the projector is installed with an inclination with respect to a projection surface such as a wall surface or a screen, the inclination is detected and the projected image is corrected. A device that displays a suitable projection image has been developed (see, for example, Patent Document 1).
JP 2005-70415 A

しかしながら、特許文献1に記載されるような投影装置では、投影面の傾きにのみ対応して補正をするものの、投影面上の凹凸については考慮されていないために、投影面上に凹凸があった場合には好適な投影画像が形成されていないのが現状であった。特に大抵の場合投影面上の凹部や凸部に焦点が合うことになるので、例えば、凹部に焦点があっている場合には凸部では画像がボケてしまうことになっていた。   However, in the projection apparatus described in Patent Document 1, although correction is performed corresponding to only the inclination of the projection surface, since the unevenness on the projection surface is not taken into consideration, there is unevenness on the projection surface. In such a case, a suitable projection image has not been formed. In particular, in most cases, the concave portion or the convex portion on the projection surface is in focus. For example, when the concave portion is in focus, the image is blurred on the convex portion.

本発明の課題は、投影面の凹凸に対しても投影画像が補正される画像補正を実現し、ボケを抑制することである。   The subject of this invention is implement | achieving the image correction | amendment by which a projection image is corrected also with respect to the unevenness | corrugation of a projection surface, and is suppressing blurring.

請求項1記載の投影装置は、
投影面に対して画像を投影する投影手段と、
前記投影手段が投影する画像を合焦させる合焦手段と、
前記投影面の少なくとも3つの測定位置に対する各距離を測定する測距手段と、
前記測距手段の測定結果を基に前記投影手段及び前記合焦手段を制御する制御手段とを備え、
前記制御手段は、前記複数位置における前記測距手段の各測定結果から前記各測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合には、前記各測定位置の測定距離を基に仮想平面を算出して、前記投影手段より投影された画像が前記仮想平面上に合焦されるように、前記合焦手段を制御することを特徴としている。
The projection apparatus according to claim 1,
Projection means for projecting an image onto the projection plane;
Focusing means for focusing an image projected by the projection means;
Distance measuring means for measuring each distance to at least three measurement positions of the projection plane;
Control means for controlling the projection means and the focusing means based on the measurement result of the distance measuring means,
The control means determines whether or not the measurement positions are on the same plane from the measurement results of the distance measurement means at the plurality of positions, and if they are not on the same plane, A virtual plane is calculated based on the measurement distance, and the focusing unit is controlled so that an image projected by the projection unit is focused on the virtual plane.

請求項2記載の発明は、請求項1記載の投影装置において、
前記制御手段は、
前記各測定位置における前記測距手段で測定した各距離について、投影光軸方向成分の光軸方向成分距離が最大となる前記光軸成分距離と、最小となる前記前記光軸成分距離との中間値である前記光軸成分距離となる前記測定位置群が存在する位置に前記仮想平面が配置されるように、前記仮想平面を算出することを特徴としている。
A second aspect of the present invention is the projection apparatus according to the first aspect,
The control means includes
For each distance measured by the distance measuring means at each measurement position, an intermediate between the optical axis component distance at which the optical axis direction component distance of the projection optical axis direction component is maximum and the optical axis component distance at which the optical axis component distance is minimum. The virtual plane is calculated so that the virtual plane is arranged at a position where the measurement position group corresponding to the optical axis component distance as a value exists.

請求項3記載の発明は、請求項1記載の投影装置において、
前記制御手段は、
前記各測定位置における前記測距手段で測定した各距離について、投影光軸方向成分の光軸方向成分距離の平均値をとり、その平均値となる前記測定位置群が存在する位置に前記仮想平面が配置されるように、前記仮想平面を算出することを特徴としている。
According to a third aspect of the present invention, in the projection apparatus according to the first aspect,
The control means includes
For each distance measured by the distance measuring means at each measurement position, an average value of the optical axis direction component distances of the projection optical axis direction components is taken, and the virtual plane is located at the position where the measurement position group serving as the average value exists. The virtual plane is calculated so as to be arranged.

請求項4記載の発明は、請求項1記載の投影装置において、
前記制御手段は、前記各測定位置が所定の割合以上同一平面上にあると判断した場合には、その平面を仮想平面とすることを特徴としている。
According to a fourth aspect of the present invention, in the projection apparatus according to the first aspect,
The control means is characterized in that, when it is determined that the measurement positions are on the same plane for a predetermined ratio or more, the plane is set as a virtual plane.

請求項5記載の発明の投影方法は、
投影面に対して画像を投影する投影工程と、
前記投影面の少なくとも3つの測定位置に対する各距離を測定する測距工程と、
前記投影する画像を前記投影面に合焦する合焦工程とを有し、
前記合焦工程は、
前記測距工程により得られた前記各測定位置の測定結果から前記各測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合には、前記各測定位置の測定結果を基に仮想平面を算出して、前記投影する画像を前記仮想平面上に合焦することを特徴としている。
The projection method of the invention according to claim 5 is:
A projection step of projecting an image onto the projection plane;
A distance measuring step for measuring distances to at least three measurement positions on the projection plane;
A focusing step of focusing the image to be projected on the projection plane,
The focusing step includes
It is determined whether or not the measurement positions are on the same plane from the measurement results of the measurement positions obtained by the ranging step. If the measurement positions are not on the same plane, the measurement results of the measurement positions are determined. A virtual plane is calculated based on the above, and the projected image is focused on the virtual plane.

請求項6記載の発明のプログラムは、
投影面に対して画像を投影する投影ステップと、
投影面の少なくとも3つの測定位置に対する各距離を測定する測距ステップと、
前記投影する画像を前記投影面に合焦する合焦ステップとを有し、
前記合焦ステップは、
前記測距ステップにより得られた前記各測定位置の測定結果から前記各測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合には、前記各測定位置の測定結果を基に仮想平面を算出して、前記投影する画像を前記仮想平面上に合焦することを特徴としている。
The program of the invention described in claim 6 is:
A projecting step for projecting an image onto a projection surface;
A ranging step of measuring each distance to at least three measurement positions on the projection plane;
A focusing step of focusing the image to be projected on the projection plane,
The focusing step includes
It is determined whether or not the measurement positions are on the same plane from the measurement results of the measurement positions obtained by the ranging step. If the measurement positions are not on the same plane, the measurement results of the measurement positions are determined. A virtual plane is calculated based on the above, and the projected image is focused on the virtual plane.

本発明によれば、少なくとも3つの測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合、つまり投影面上に表示された画像の表示範囲中に凹凸がある場合には、測定位置の各測定距離を基に仮想平面を算出して、この仮想平面上に画像を合焦するので、投影面上の凹部や凸部に焦点が合うことを防止することができる。これにより、投影画像のボケを抑制することが可能となる。   According to the present invention, it is determined whether or not at least three measurement positions are on the same plane, and if they are not on the same plane, that is, if there is an unevenness in the display range of the image displayed on the projection plane Since the virtual plane is calculated based on each measurement distance of the measurement position and the image is focused on the virtual plane, it is possible to prevent the concave portion or the convex portion on the projection surface from being focused. . As a result, it is possible to suppress blurring of the projected image.

[第1の実施の形態]
以下、図面を参照しつつ、本発明に係る第1の実施の形態について説明する。本実施形態の投影装置には、投影面に対して画像を投影する投影部と、投影部が投影する画像を合焦させる合焦部と、投影面上に表示された画像の表示範囲中の少なくとも3つの測定位置に対する各距離を測定する測距部と、測距部の測定結果を基に投影部及び合焦部を制御する制御部とが備えられている。そして、制御部は、複数位置における測距部の各測定結果から全ての測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合には、各測定位置の測定距離を基に仮想平面を算出して、投影部により投影された画像が仮想平面上に合焦されるように、合焦部を制御するようになっている。
[First Embodiment]
Hereinafter, a first embodiment according to the present invention will be described with reference to the drawings. The projection apparatus according to the present embodiment includes a projection unit that projects an image on a projection plane, a focusing unit that focuses an image projected by the projection unit, and a display range of an image displayed on the projection plane. A distance measuring unit that measures each distance to at least three measurement positions, and a control unit that controls the projection unit and the focusing unit based on the measurement results of the distance measuring unit are provided. Then, the control unit determines whether or not all the measurement positions are on the same plane from each measurement result of the distance measurement unit at a plurality of positions, and if not, the measurement distance of each measurement position A virtual plane is calculated based on the above, and the focusing unit is controlled so that the image projected by the projection unit is focused on the virtual plane.

具体的に本発明に係る投影装置について説明する。この図1は投影装置としてのプロジェクタ装置の外観構成を示すものであり、(a)はプロジェクタ装置の上側を表す斜視図であり、(b)はプロジェクタ装置の下側を表す斜視図である。   The projector according to the present invention will be specifically described. FIG. 1 shows an external configuration of a projector device as a projection device. FIG. 1A is a perspective view showing an upper side of the projector device, and FIG. 1B is a perspective view showing a lower side of the projector device.

図1に示すように、プロジェクタ装置10は、直方体状の本体ケーシング11の前面に、投影レンズ12、2対の測距レンズ13a,13b,13c,13d及びIr送受信部14が配設されている。   As shown in FIG. 1, the projector device 10 is provided with a projection lens 12, two pairs of distance measuring lenses 13 a, 13 b, 13 c, 13 d and an Ir transmission / reception unit 14 on the front surface of a rectangular parallelepiped main body casing 11. .

投影レンズ12は、後述するマイクロミラー素子等の空間的光学変調素子で形成された光像を投影するためのものであり、ここでは合焦位置およびズーム位置(投影画角)を任意に可変できるものとする。   The projection lens 12 is for projecting a light image formed by a spatial optical modulation element such as a micromirror element to be described later. Here, the focus position and the zoom position (projection angle of view) can be arbitrarily changed. Shall.

2対の測距レンズ13a,13b,13c,13dのうち、一対の測距レンズ13a,13bは上下方向に沿って配設されていて、他の一対の測距レンズ13c,13dは水平方向に沿って配設されている。これらの測距レンズ13a,13b,13c,13dは、それぞれ後述する位相差センサ131,132の一部を構成するものであり、被写体像に対するこれら両レンズでの視差から三角測距の原理の基づいて被写体までの距離、具体的には投影画像面までの距離を測距する。   Of the two pairs of distance measuring lenses 13a, 13b, 13c, and 13d, the pair of distance measuring lenses 13a and 13b are disposed along the vertical direction, and the other pair of distance measuring lenses 13c and 13d are horizontally aligned. It is arranged along. These distance measuring lenses 13a, 13b, 13c, and 13d constitute part of phase difference sensors 131 and 132, which will be described later, respectively, and are based on the principle of triangulation based on the parallax between these two lenses with respect to the subject image. Then, the distance to the subject, specifically, the distance to the projected image plane is measured.

Ir送受信部14は、後述するリモートコントローラ40からのキー操作信号が重畳された赤外線光を受信するとともに、リモートコントローラ40に対して指示信号を送信する。   The Ir transmission / reception unit 14 receives infrared light on which a key operation signal from a remote controller 40 described later is superimposed and transmits an instruction signal to the remote controller 40.

また、本体ケーシング11の上面には、カバー17及びインジケータ15が配設されている。
カバー17は、ここでは図示しない本体サブキーを操作する際に開閉されるようになっている。本体サブキーは、リモートコントローラ40を使用せずにインジケータ15のキーでは設定指示できない詳細な各種動作等が操作できるようになっている。
A cover 17 and an indicator 15 are disposed on the upper surface of the main body casing 11.
The cover 17 is opened and closed when operating a main body subkey (not shown). The main body sub key can operate various detailed operations that cannot be set by the key of the indicator 15 without using the remote controller 40.

本体ケーシング11の背面には、入力部18、Ir送受信部19及びACアダプタ接続部20が配設されている。   An input unit 18, an Ir transmission / reception unit 19, and an AC adapter connection unit 20 are disposed on the back surface of the main body casing 11.

入力部18は、例えばパーソナルコンピュータ等の外部機器との映像入出力の接続のためのUSB端子、映像入力用のミニD−SUB端子、S端子及びRCA端子と、音声入力用のステレオミニ端子等からなる。   The input unit 18 is, for example, a USB terminal for video input / output connection with an external device such as a personal computer, a mini D-SUB terminal for video input, an S terminal and an RCA terminal, a stereo mini terminal for audio input, and the like. Consists of.

Ir送受信部19は、上記Ir送受信部14と同様にリモートコントローラ40からのキー操作信号が重畳された赤外光を受信するとともに、リモートコントローラ40に対して指示信号を送信する。   The Ir transmitter / receiver 19 receives the infrared light on which the key operation signal from the remote controller 40 is superimposed, as well as the Ir transmitter / receiver 14, and transmits an instruction signal to the remote controller 40.

ACアダプタ接続部20には、電源となるACアダプタ(図示省略)からのケーブルが接続される。   The AC adapter connection unit 20 is connected with a cable from an AC adapter (not shown) serving as a power source.

また、本体ケーシング11の下面には、背面側に一対の固定脚部21,21が取り付けられるとともに、前面側に高さ調節が可能な調整脚部22が取り付けられている。
調整脚部22は、そのネジ回転位置を手動で操作することにより、正確には上記投影レンズ12の投影方向の垂直方向成分、すなわち仰角を調整するようになっている。
A pair of fixed legs 21 and 21 are attached to the lower surface of the main body casing 11 on the rear side, and an adjustment leg 22 capable of height adjustment is attached to the front side.
The adjustment leg 22 is configured to adjust the vertical component of the projection direction of the projection lens 12, that is, the elevation angle, by manipulating the screw rotation position manually.

次に、インジケータ15について図2を参照にして説明する。図2は、インジケータ15のキー配列等を表す説明図である。図2に示すように、インジケータ15には、電源キー15a、ズーム(Zoom)キー15b、フォーカス(Focus)キー15c、「AFK」キー15d、「Input」キー15e、「Auto」キー15f、「menu」キー15g、「Adjust」キー15h、「HELP」キー15i、「Esc」キー15j、「アップ(↑)」キー15k、「ダウン(↓)」キー15l、「レフト(←)」キー15m、「ライト(→)」キー15n、及び「Enter」キー15oと、電源/待機(power/standby)インジケータ15p及び温度(TEMP)インジケータ15qが備えられている。   Next, the indicator 15 will be described with reference to FIG. FIG. 2 is an explanatory diagram showing the key layout and the like of the indicator 15. As shown in FIG. 2, the indicator 15 includes a power key 15a, a zoom key 15b, a focus key 15c, an “AFK” key 15d, an “Input” key 15e, an “Auto” key 15f, and a “menu”. ”Key 15 g,“ Adjust ”key 15 h,“ HELP ”key 15 i,“ Esc ”key 15 j,“ Up (↑) ”key 15 k,“ Down (↓) ”key 15 l,“ Left (←) ”key 15 m,“ A “write (→)” key 15n, an “Enter” key 15o, a power / standby indicator 15p, and a temperature (TEMP) indicator 15q are provided.

電源キー15aは、電源のオン/オフを指示する。
ズームキー15bは、「△」「▽」の操作によりズームアップ(tele)及びズームダウン(wide)を指示する。
The power key 15a instructs on / off of the power.
The zoom key 15b instructs zoom-in (tele) and zoom-down (wide) by operating “Δ” and “▽”.

フォーカスキー15cは、「△」「▽」の操作により合焦位置の前方向及び後方向への移動を指示する。
「AFK」キー15dは、自動合焦(Automatic Focus)等の各種処理の即時実行を指示する。
The focus key 15c instructs to move the in-focus position forward and backward by the operation of “Δ” and “▽”.
The “AFK” key 15d instructs immediate execution of various processes such as automatic focusing.

「Input」キー15eは、上記入力部18のいずれかに入力される画像信号の手動切換えを指示し、「Auto」キー15fは、同入力部18のいずれかに入力される画像信号の自動切換えを指示する。   The “Input” key 15 e instructs manual switching of the image signal input to any of the input units 18, and the “Auto” key 15 f automatically switches the image signal input to any of the input units 18. Instruct.

「menu」キー15gは、投影動作に関する各種メニュー項目の表示を指示し、「Adjust」キー15hは、投影面の状態を検出するための解析処理の開始を指示する。
「HELP」キー15iは、指示操作が不明な場合の各種ヘルプ情報の表示を指示し、「Esc」キー15jはその時点での操作の解除を指示する。
The “menu” key 15g instructs display of various menu items related to the projection operation, and the “Adjust” key 15h instructs the start of analysis processing for detecting the state of the projection plane.
The “HELP” key 15i instructs display of various help information when the instruction operation is unknown, and the “Esc” key 15j instructs release of the operation at that time.

「アップ」キー15k、「ダウン」キー15l、「レフト」キー15m及び「ライト」キー15nは、メニュー項目、ポインタやカーソル等その時点で選択または移動方向を指示する場合に応じて操作される。これら以外にも、「アップ」キー15k、「ダウン」キー15l、「レフト」キー15m、及び「ライト」キー15nは、プレゼンテーションの発表時間の入力操作や、投影されている画像の頁送り操作などが操作される。このように、これらの「アップ」キー15k、「ダウン」キー15l、「レフト」キー15m及び「ライト」キー15nが、プレゼンテーションの発表時間が登録される本発明に係る登録部である。   The “up” key 15k, the “down” key 15l, the “left” key 15m, and the “right” key 15n are operated in accordance with a menu item, a pointer, a cursor, or the like when a selection or movement direction is instructed at that time. In addition to these, an “up” key 15k, a “down” key 15l, a “left” key 15m, and a “right” key 15n are used to input the presentation presentation time, and to page the projected image. Is operated. As described above, the “up” key 15k, the “down” key 15l, the “left” key 15m, and the “right” key 15n are the registration unit according to the present invention in which the presentation presentation time is registered.

電源/待機インジケータ15pは、電源のオン/オフ状態と画像信号の入力がない状態を例えば緑色と赤色のLEDの点灯/消灯あるいは点滅により表示する。
温度インジケータ15qは、画像投影の光源となるランプの温度が投影に適した状態となっているか否かを例えば緑色と赤色のLEDの点灯/消灯あるいは点滅により表示する。
The power / standby indicator 15p displays a power on / off state and a state in which no image signal is input, for example, by turning on / off or blinking green and red LEDs.
The temperature indicator 15q displays whether or not the temperature of a lamp serving as a light source for image projection is in a state suitable for projection, for example, by turning on / off or blinking green and red LEDs.

次に、リモートコントローラ40について説明する。図3はリモートコントローラ40のキー配列等を表す説明図である。図3に示すように、リモートコントローラ40には、インジケータ15と同様に電源キー40a、ズーム(Zoom)キー40b、フォーカス(Focus)キー40c、「AFK」キー40d、「Input」キー40e、「Auto」キー40f、「menu」キー40g、「Adjust」キー40h、「HELP」キー40i、「Esc」キー40j、「アップ(↑)」キー40k、「ダウン(↓)」キー40l、「レフト(←)」キー40m、「ライト(→)」キー40n及び「Enter」キー40oが備えられている。
これら各キーは、それぞれ対応するインジケータ15の各キーと同様の指示を出力するようになっている。
Next, the remote controller 40 will be described. FIG. 3 is an explanatory diagram showing the key arrangement and the like of the remote controller 40. As shown in FIG. 3, similarly to the indicator 15, the remote controller 40 includes a power key 40a, a zoom key 40b, a focus key 40c, an “AFK” key 40d, an “Input” key 40e, and “Auto”. ”Key 40f,“ menu ”key 40g,“ Adjust ”key 40h,“ HELP ”key 40i,“ Esc ”key 40j,“ Up (↑) ”key 40k,“ Down (↓) ”key 40l,“ Left (← ) ”Key 40m,“ write (→) ”key 40n, and“ Enter ”key 40o.
Each of these keys outputs an instruction similar to each key of the corresponding indicator 15.

図4は、プロジェクタ装置10の電子回路の機能構成を表すブロック図である。この図4に示すように、プロジェクタ装置10には、画像を投影する投影部(投影手段)50が設けられている。この投影部50には、表示エンコーダ33、ビデオRAM34、表示駆動部35、表示素子36、光源部37、投影レンズ12、レンズモータ(M)38が備えられている。   FIG. 4 is a block diagram illustrating a functional configuration of the electronic circuit of the projector device 10. As shown in FIG. 4, the projector device 10 is provided with a projection unit (projection unit) 50 that projects an image. The projection unit 50 includes a display encoder 33, a video RAM 34, a display drive unit 35, a display element 36, a light source unit 37, the projection lens 12, and a lens motor (M) 38.

図5は、投影部50の具体的な概略構成を表すブロック図である。
光源部37には、光源ランプ61と、当該光源ランプ61からの出射光を前方に集光する方向に反射するリフレクタ62と、リフレクタ62の前方に出射した光の輝度分布を均一にするための導光部材63とが設けられている。
FIG. 5 is a block diagram illustrating a specific schematic configuration of the projection unit 50.
The light source unit 37 includes a light source lamp 61, a reflector 62 that reflects light emitted from the light source lamp 61 in a direction for condensing the light forward, and a luminance distribution of light emitted forward of the reflector 62. A light guide member 63 is provided.

導光部材63はガラス等からなる透明な角棒体からなっており、その一端が光の入射端とされ、他端が入射端から入射した光の出射端とされている。導光部材63は、その入射端をリフレクタ62の出射面に対向させて配置されており、リフレクタ62の前方に出射した光を入射端から入射させ、その光を内部で反射しながら導いて、均一な輝度分布の光を出射端から出射する。   The light guide member 63 is made of a transparent rectangular bar made of glass or the like, and has one end as an incident end of light and the other end as an exit end of light incident from the incident end. The light guide member 63 is disposed with its incident end opposed to the exit surface of the reflector 62. The light emitted from the incident end is incident on the front side of the reflector 62, and the light is guided while being reflected internally. Light having a uniform luminance distribution is emitted from the emission end.

また光源部37の出射側に配置されたカラーホイール64は、モータ65により低速回転される中心部材67の周囲にその周方向に並べて複数色のカラーフィルタと当該カラーフィルタのない少なくとも1つの空間部とを設けたものである。カラーホイール64は、そのホイール面を光源部37からの出射光の集光点に合わせて、複数の色のカラーフィルタ及び空間部が並ぶ円周の一部が光源部37から出射光の光路と交差するように配置されている。   In addition, the color wheel 64 disposed on the emission side of the light source unit 37 is arranged around the central member 67 rotated at a low speed by the motor 65 in the circumferential direction thereof, and includes at least one space part without the color filters and the color filter. Are provided. The color wheel 64 has its wheel surface aligned with the condensing point of the emitted light from the light source unit 37, and a part of the circumference in which the color filters and the spaces of the plurality of colors are arranged is the optical path of the emitted light from the light source unit 37. It is arranged to intersect.

表示素子36は、縦横の幅がそれぞれ10〜20μmの極薄金属片からなるマイクロミラー素子である。マイクロミラー素子はCOMSをベースとするミラー駆動素子により一方の方向と他方の方向とに傾動されるマイクロミラーにより形成された複数の画素が行方向及び列方向に配列した表示エリアを有しており、正面方向に対して一方の方向に傾いた入射方向から所定の入射角で入射した光を、マイクロミラーの傾き方向の切り替えにより表示の観察方向と他の方向のいずれかに反射し、複数の画素から観察方向への光の出射を制御して画像を表示する。   The display element 36 is a micromirror element made of ultrathin metal pieces each having a vertical and horizontal width of 10 to 20 μm. The micromirror element has a display area in which a plurality of pixels formed by micromirrors tilted in one direction and the other by a mirror drive element based on COMS are arranged in a row direction and a column direction. The light incident at a predetermined incident angle from the incident direction inclined in one direction with respect to the front direction is reflected in one of the display observation direction and the other direction by switching the inclination direction of the micromirror, and a plurality of An image is displayed by controlling the emission of light from the pixel in the observation direction.

表示素子36と光源部37との間には、光源部37からの出射光を平行に補正して表示素子36に入射させる光源側レンズ71が配置されている。投影レンズ12は、表示素子36からの観察方向への出射光をその光束を拡大してスクリーン等の投影面に投影するようになっている。
なお、本実施形態では、光源側レンズ71と投影レンズ12とをそれぞれ1枚のレンズで例示しているが、光源側レンズ71及び投影レンズ12はそれぞれレンズ収差を小さくするために複数枚のレンズを組み合わせて構成されている。
Between the display element 36 and the light source unit 37, a light source side lens 71 that corrects the emitted light from the light source unit 37 in parallel and enters the display element 36 is disposed. The projection lens 12 projects the light emitted from the display element 36 in the observation direction on a projection surface such as a screen by enlarging the luminous flux.
In the present embodiment, each of the light source side lens 71 and the projection lens 12 is illustrated as a single lens, but each of the light source side lens 71 and the projection lens 12 includes a plurality of lenses in order to reduce lens aberration. It is configured by combining.

また、表示素子36を制御する表示駆動部35は、カラーホイール64の回転に同期して当該カラーホイールの各色のカラーフィルタが光源部37からの出射光の光路を通過するときにそのカラーフィルタの色にそれぞれ対応した色成分の単色画像を表示素子27に表示させ、カラーホイール64の空間部が光源部37からの出射光の光路を通過するときに表示素子36の複数の画素からの光の出射時間を調整する。
この表示駆動部35は、カラーホイール制御部68と、時分割駆動回路69と、カラーシーケンス制御回路70とにより構成されている。
Further, the display driving unit 35 that controls the display element 36 is synchronized with the rotation of the color wheel 64 when the color filter of each color of the color wheel passes through the optical path of the emitted light from the light source unit 37. A monochromatic image of a color component corresponding to each color is displayed on the display element 27, and light from a plurality of pixels of the display element 36 is displayed when the space portion of the color wheel 64 passes through the optical path of the emitted light from the light source unit 37. Adjust the emission time.
The display drive unit 35 includes a color wheel control unit 68, a time division drive circuit 69, and a color sequence control circuit 70.

カラーホイール制御部68は、カラーホイール64を回転させるモータ65を、時分割駆動回路69から与えられるタイミング信号に同期して制御するものであり、モータ65は、カラーホイール制御部68により制御され、カラーホイール64を定速回転させる。   The color wheel control unit 68 controls a motor 65 that rotates the color wheel 64 in synchronization with a timing signal given from the time-division drive circuit 69. The motor 65 is controlled by the color wheel control unit 68, The color wheel 64 is rotated at a constant speed.

時分割駆動回路69は、カラーシーケンス制御回路70から送られてくる表示モード信号に従い、カラーホイール制御部68にタイミング信号を与えるとともに、図示しない外部回路から与えられる赤,緑,青の各色成分の単色画像信号R,G,Bに基づいてマトリックス演算により白黒画像信号Wを生成し、カラーホイール64の回転に同期して、前記赤,緑,青の各色成分の単色画像信号R,G,Bと白黒画像信号Wとを順次表示素子36に供給する。   The time-division drive circuit 69 gives a timing signal to the color wheel control unit 68 according to the display mode signal sent from the color sequence control circuit 70, and each of red, green, and blue color components given from an external circuit (not shown). A monochrome image signal W is generated by matrix calculation based on the monochrome image signals R, G, and B, and the monochrome image signals R, G, and B of the respective color components of red, green, and blue are synchronized with the rotation of the color wheel 64. And the monochrome image signal W are sequentially supplied to the display element 36.

すなわち、この時分割駆動回路69は、カラーホイール64の回転に同期して、カラーホイール64のカラーフィルタが光源部37からの出射光の光路を通過するときに、そのカラーフィルタの色に対応した色成分の単色画像信号R,G,Bを表示素子36に供給して単色画像を表示させ、カラーホイール64の空間部が光源部37からの出射光の光路を通過するときに、白黒画像信号Wを表示素子36に供給し、表示素子36の複数の画素からの光の出射を制御する。   That is, the time division drive circuit 69 corresponds to the color of the color filter when the color filter of the color wheel 64 passes through the optical path of the emitted light from the light source unit 37 in synchronization with the rotation of the color wheel 64. The monochrome image signals R, G, and B of the color component are supplied to the display element 36 to display a monochrome image, and when the space portion of the color wheel 64 passes the optical path of the emitted light from the light source unit 37, the monochrome image signal W is supplied to the display element 36 to control light emission from a plurality of pixels of the display element 36.

さらに、この時分割駆動回路69は、カラーシーケンス制御回路70からの表示モード信号に応じて表示素子36への白黒画像信号Wの供給時間を調整し、前記画像信号Wの供給時間中、表示素子36に前記白黒画像信号Wに対応する白黒画像を表示させる。   Further, the time-division drive circuit 69 adjusts the supply time of the monochrome image signal W to the display element 36 in accordance with the display mode signal from the color sequence control circuit 70, and during the supply time of the image signal W, the display element A monochrome image corresponding to the monochrome image signal W is displayed on 36.

つまり、時分割駆動回路69は、カラーホイール64の空間部が光源部37からの出射光の光路を通過するときに、表示素子36の複数の画素からの光の出射時間を白黒画像信号Wの供給時間により調整する。   That is, the time-division drive circuit 69 determines the light emission time from the plurality of pixels of the display element 36 when the space portion of the color wheel 64 passes through the optical path of the light emitted from the light source unit 37. Adjust according to the supply time.

なお、この実施形態では上述したように、光源部37からの出射光を、カラーホイール64が1回転する間に、緑色光、青色光、赤色光、非着色光の順で変化させるようにしており、したがって時分割駆動回路69は、表示素子36に対して、緑の単色画像信号、青の単色画像信号、赤の単色画像信号、白黒画像信号を順に供給する。   In this embodiment, as described above, the emitted light from the light source unit 37 is changed in the order of green light, blue light, red light, and non-colored light while the color wheel 64 rotates once. Therefore, the time-division drive circuit 69 supplies the display element 36 with a green monochrome image signal, a blue monochrome image signal, a red monochrome image signal, and a monochrome image signal in order.

また、前記カラーシーケンス制御回路70は、投影型表示装置の使用者により選択される投影画像の明るさを指定するための表示モード信号を時分割駆動回路69に送出する。   The color sequence control circuit 70 sends a display mode signal for designating the brightness of the projection image selected by the user of the projection display device to the time division drive circuit 69.

そして、図4に示すように、プロジェクタ装置10の入力部18より入力された各種規格の画像信号や、後述する記憶部60内の画像データによる画像信号は、入出力インタフェース(I/F)31、システムバスSBを介して画像変換部32で所定のフォーマットの画像信号に統一された後に、表示エンコーダ33へ送られる。   As shown in FIG. 4, image signals of various standards input from the input unit 18 of the projector device 10 and image signals based on image data in the storage unit 60 described later are input / output interfaces (I / F) 31. Then, after being unified into an image signal of a predetermined format by the image conversion unit 32 via the system bus SB, it is sent to the display encoder 33.

表示エンコーダ33は、送られてきた画像信号をビデオRAM34に展開記憶させた上でこのビデオRAM34の記憶内容からビデオ信号を発生して表示駆動部35に出力する。   The display encoder 33 develops and stores the transmitted image signal in the video RAM 34, generates a video signal from the stored contents of the video RAM 34, and outputs the video signal to the display drive unit 35.

表示駆動部35は、送られてきた画像信号に対応して適宜フレームレート、例えば30[フレーム/秒]で上記したように表示素子36を制御する。   The display driver 35 controls the display element 36 as described above at an appropriate frame rate, for example, 30 [frames / second] in accordance with the transmitted image signal.

上記投影レンズ12はレンズモータ(M)38に駆動されることでズーム位置及びフォーカス位置を適宜移動させる。つまり、この投影レンズ12及びレンズモータ38が、投影部50により投影された画像を合焦する本発明に係る合焦手段である。
上記各回路のすべての動作制御を司るのが制御部(制御手段)39である。この制御部39は、CPUと、動作プログラムを固定的に記憶したROM及びワークメモリとして使用されるRAM等により構成される。
The projection lens 12 is driven by a lens motor (M) 38 to appropriately move the zoom position and the focus position. That is, the projection lens 12 and the lens motor 38 are focusing means according to the present invention that focuses the image projected by the projection unit 50.
A control unit (control means) 39 controls all the operations of the circuits. The control unit 39 includes a CPU, a ROM that stores an operation program fixedly, a RAM that is used as a work memory, and the like.

制御部39には、システムバスSBを介して記憶部60、音声処理部41、加速度センサ42及び測距部(測距手段)43が接続されている。
記憶部60は、例えばフラッシュメモリ等でなり、画像データなどを記憶するもので、制御部39に指示された画像データを適宜読出して上記表示エンコーダ33へ送出し、それらの画像を投影レンズ12により投影表示させる。
A storage unit 60, a sound processing unit 41, an acceleration sensor 42, and a distance measuring unit (ranging unit) 43 are connected to the control unit 39 via a system bus SB.
The storage unit 60 is composed of, for example, a flash memory and stores image data and the like. The storage unit 60 appropriately reads out image data instructed by the control unit 39 and sends the image data to the display encoder 33. Projected display.

音声処理部41は、PCM音源等の音源回路を備え、投影表示動作時に与えられる音声データをアナログ化し、上記スピーカ16を駆動して拡声放音させる。
加速度センサ42は、このプロジェクタ装置10が設置されている状態から移動された場合にその振動を検知して検知信号を制御部39へ出力する。
The sound processing unit 41 includes a sound source circuit such as a PCM sound source, converts the sound data given during the projection display operation into an analog signal, and drives the speaker 16 to emit a loud sound.
The acceleration sensor 42 detects the vibration when the projector device 10 is moved from the installed state, and outputs a detection signal to the control unit 39.

測距部43は、測距レンズ13a,13bを有する位相差センサ131及び測距レンズ13c,13dを有する位相差センサ132をそれぞれ駆動して、投影された画像中の任意の複数位置に対する距離を測定する。   The distance measuring unit 43 drives the phase difference sensor 131 having the distance measuring lenses 13a and 13b and the phase difference sensor 132 having the distance measuring lenses 13c and 13d, respectively, to determine the distances to any plurality of positions in the projected image. taking measurement.

ここで、測距部43による測距方法について詳細に説明する。なお、以下の説明においてプロジェクタ装置10に設けられた位相差センサ131と、位相差センサ132のうち、水平測距用の位相差センサ132を例にして説明するが、垂直測距用の位相差センサ131についても同様である。   Here, the distance measuring method by the distance measuring unit 43 will be described in detail. In the following description, among the phase difference sensor 131 provided in the projector device 10 and the phase difference sensor 132, the phase difference sensor 132 for horizontal distance measurement will be described as an example, but the phase difference for vertical distance measurement will be described. The same applies to the sensor 131.

図6は、位相差センサ132の概略構成を表す上面図である。図6に示すように、位相差センサ132には、一対の測距レンズ13c,13dと、測距レンズ13c,13dに対抗して配置された一対のフォトセンサアレイ51,52が設けられている。   FIG. 6 is a top view illustrating a schematic configuration of the phase difference sensor 132. As shown in FIG. 6, the phase difference sensor 132 is provided with a pair of distance measuring lenses 13 c and 13 d and a pair of photo sensor arrays 51 and 52 arranged to face the distance measuring lenses 13 c and 13 d. .

位相差センサ132から被写体53までの距離を測定する場合において、被写体53に対して照射された光の反射光が一方の測距レンズ13cを通じてフォトセンサアレイ51に結像するとともに、その反射光が他方の測距レンズ13dを通じてフォトセンサアレイ52に結像する。図中の54,55がその被写体像を示している。   When measuring the distance from the phase difference sensor 132 to the subject 53, the reflected light of the light irradiated to the subject 53 forms an image on the photosensor array 51 through one distance measuring lens 13c, and the reflected light is The image is formed on the photosensor array 52 through the other distance measuring lens 13d. 54 and 55 in the figure indicate the subject images.

各測距レンズ13c,13dの光軸と結像間のそれぞれの距離をx1,x2とし、測距レンズ13c,13d間の距離をB、フォトセンサアレイ51,52と測距レンズ13c,13d間の距離をfとすると、被写体53までの距離dは以下のような式で求められる。
d=B・f/(x1+x2)・・・(1)
この式(1)においてB,fはセンサ固有の値であるので、被写体53までの距離dはフォトセンサアレイ51,52の位相(x1,x2)で求められることになる。
The distances between the optical axes of the distance measuring lenses 13c and 13d and the imaging are x1 and x2, the distance between the distance measuring lenses 13c and 13d is B, and the distance between the photosensor arrays 51 and 52 and the distance measuring lenses 13c and 13d. And the distance d to the subject 53 is obtained by the following equation.
d = B · f / (x1 + x2) (1)
In this equation (1), since B and f are values unique to the sensor, the distance d to the object 53 is determined by the phase (x1, x2) of the photosensor arrays 51, 52.

次に多点測距について説明する。図7は、多点測距を説明するための説明図である。図7に示すように、位相差センサ132の一対のフォトセンサアレイ51,52は、それぞれ一列に配設された数百bitのフォトセンサを有するラインセンサで構成されている。これらのフォトセンサを複数のグループに分けて、そのグループ毎に測距センサを行うのが多点測距である。   Next, multipoint ranging will be described. FIG. 7 is an explanatory diagram for explaining multipoint ranging. As shown in FIG. 7, the pair of photosensor arrays 51 and 52 of the phase difference sensor 132 is configured by a line sensor having several hundred bits of photosensors arranged in a row. Multipoint ranging is a method in which these photosensors are divided into a plurality of groups and a ranging sensor is performed for each group.

図7の例では、投影面上に表示された画像の表示範囲中の少なくとも3つの測定位置(左側、中央、右側)から、投影面に垂直な方向に対する位相差センサ132までの距離(投影光軸方向成分の光軸方向成分距離)を測定する場合を示している。具体的にはフォトセンサアレイ51,52のフォトセンサをそれぞれ3つのグループに分けて、左側に位置するA1とA2グループのフォトセンサがスクリーン56に向かって右側を測距し、中央に位置するB1とB2のグループのフォトセンサがスクリーン56の中央付近を測距し、右側に位置するC1とC2のグループのフォトセンサがスクリーン56の左側を測距するようになっている。   In the example of FIG. 7, the distance (projection light) from at least three measurement positions (left side, center, right side) in the display range of the image displayed on the projection plane to the phase difference sensor 132 in the direction perpendicular to the projection plane. This shows the case of measuring the axial component distance of the axial component). Specifically, the photosensors in the photosensor arrays 51 and 52 are divided into three groups, respectively, and the photosensors of the A1 and A2 groups located on the left side measure the right side toward the screen 56, and B1 located in the center. And B2 group photo sensors measure the vicinity of the center of the screen 56, and the C1 and C2 group photo sensors located on the right side measure the left side of the screen 56.

図8は、位相差センサとスクリーンとの位置関係を表す説明図である。この図8に示すようにスクリーン56(実線部分)が位相差センサ132と並行である場合には、スクリーン56の右側、中央、左側の3つの測定点の測距結果は、位相差がD=E=Fといった関係が成り立つ。   FIG. 8 is an explanatory diagram showing the positional relationship between the phase difference sensor and the screen. As shown in FIG. 8, when the screen 56 (solid line portion) is in parallel with the phase difference sensor 132, the phase difference between the three measurement points on the right side, center, and left side of the screen 56 is D = The relationship E = F holds.

一方、図中の点線で示すようにスクリーン56がθだけ傾いた場合、スクリーン56の右側、中央、左側の3つの測定点を測距すると(D’,E’,F’)、位相差がD’<E’<F’といった関係になる。この場合、スクリーン56は平面であるから、この3点は1次関数的な直線として表すことができ、この3点の距離からスクリーン56の傾き角度、つまりはスクリーン56に投影された画像の傾き角度を求めることができる。   On the other hand, when the screen 56 is tilted by θ as shown by the dotted line in the figure, when the three measurement points on the right side, the center, and the left side of the screen 56 are measured (D ′, E ′, F ′), the phase difference is The relationship is D ′ <E ′ <F ′. In this case, since the screen 56 is a plane, these three points can be expressed as a linear straight line, and the inclination angle of the screen 56 from the distance between the three points, that is, the inclination of the image projected on the screen 56. The angle can be determined.

図9は、位相差センサと凹凸のある壁面との位置関係を表す説明図である。この図9に示すように、壁面57には、例えば柱58などの凹凸が形成されている。このような場合、位相差センサ132で壁面の右側、中央、左側の3つの測定点(G,H,I)を測距して、これらの位相により各測定位置から位相差センサ132までの測定距離d1,d2,d3(ここではd1=d3>d2)が求められることになる。   FIG. 9 is an explanatory diagram showing the positional relationship between the phase difference sensor and the uneven wall surface. As shown in FIG. 9, the wall surface 57 is provided with irregularities such as pillars 58, for example. In such a case, the phase difference sensor 132 measures the three measurement points (G, H, I) on the right side, center, and left side of the wall surface, and measures from each measurement position to the phase difference sensor 132 by these phases. The distances d1, d2, and d3 (here, d1 = d3> d2) are obtained.

この方法によって測距部43で得られた複数位置の測定結果から、制御部39は各測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合には、各測定位置の各測定距離を基に仮想平面を算出する。この算出では、各測定結果のうち、投影面に垂直な方向に対して最大な測定値(d1,d3)と、最小な測定値(d2)との中間値Mとなる位置に配置されるように仮想平面を算出する。算出された仮想平面Vは、図9の点線部である。   From the measurement results at a plurality of positions obtained by the distance measuring unit 43 by this method, the control unit 39 determines whether or not each measurement position is on the same plane. A virtual plane is calculated based on each measurement distance of the position. In this calculation, each measurement result is arranged at a position that is an intermediate value M between the maximum measurement value (d1, d3) and the minimum measurement value (d2) in the direction perpendicular to the projection plane. Calculate the virtual plane. The calculated virtual plane V is a dotted line portion in FIG.

制御部39は、投影部50により投影された画像が仮想平面V上に合焦されるように、合焦部のレンズモータ38を制御して投影レンズ12を駆動させる。   The control unit 39 drives the projection lens 12 by controlling the lens motor 38 of the focusing unit so that the image projected by the projection unit 50 is focused on the virtual plane V.

なお、上記インジケータ15やリモートコントローラ40により、キー操作信号が制御部39に入力されると、当該信号に基づいて制御部39は各駆動部を制御する。   When a key operation signal is input to the control unit 39 by the indicator 15 or the remote controller 40, the control unit 39 controls each drive unit based on the signal.

次に、本実施形態の作用について説明する。図10は、本実施形態のプロジェクタ装置10で実行される本発明に係るプログラムの一例を表すフローチャートである。このプログラムが実行されることにより、本発明に係る投影方法が実現されることになる。   Next, the operation of this embodiment will be described. FIG. 10 is a flowchart showing an example of a program according to the present invention that is executed by the projector device 10 of the present embodiment. By executing this program, the projection method according to the present invention is realized.

「Adjust」キー15hから解析処理開始指示が入力されると、制御部39はプログラムを実行する。
ステップS1では、制御部39は測距部43を制御して各測定位置までの距離を測距するとともに、測距方向と測定結果とから投影方向距離に換算する(測距ステップ、測距工程)。
When an analysis process start instruction is input from the “Adjust” key 15h, the control unit 39 executes the program.
In step S1, the control unit 39 controls the distance measurement unit 43 to measure the distance to each measurement position, and converts the distance into the projection direction distance from the distance measurement direction and the measurement result (distance measurement step, distance measurement step). ).

ステップS2では、制御部39はステップS1で算出した各投影方向距離を比較することにより、各測定位置が同一平面上に存在しているか否かを判断する。制御部39は、全ての投影方向距離が同一である場合には各測定位置が同一平面上に存在していると認識して、ステップS4に移行し、全ての投影方向距離が同一でない場合には各測定位置が同一平面上に存在していないと認識して、ステップS3に移行する。   In step S2, the control unit 39 determines whether each measurement position exists on the same plane by comparing the projection direction distances calculated in step S1. When all the projection direction distances are the same, the control unit 39 recognizes that each measurement position is on the same plane, and proceeds to step S4, and when all the projection direction distances are not the same. Recognizes that each measurement position does not exist on the same plane, and proceeds to step S3.

ステップS3では、制御部39は、所定の方法により、ピントを合わせるための平面である仮想平面を算出する。この仮想平面の算出においては、前記したように投影方向距離の最大値と最小値の中間値の距離にある投影方向と垂直な平面を仮想平面としてもよいし、各投影方向距離の平均値の距離にある投影方向と垂直な平面を仮想平面としてもよい。
また、投影装置がレンズシフト機能等、投影方向を変更できる機能を有する場合には、投影方向距離だけでなく測距方向を考慮した上で仮想平面を算出し、変更した投影方向に対して垂直な平面となるようにすることもできる。これによって、よりボケを抑制した投影画像とすることができる。
In step S3, the control unit 39 calculates a virtual plane that is a plane for focusing by a predetermined method. In the calculation of the virtual plane, as described above, a plane perpendicular to the projection direction at a distance between the maximum value and the minimum value of the projection direction distance may be set as the virtual plane, or the average value of each projection direction distance may be calculated. A plane perpendicular to the projection direction at a distance may be a virtual plane.
In addition, when the projection apparatus has a function that can change the projection direction, such as a lens shift function, the virtual plane is calculated in consideration of not only the projection direction distance but also the distance measurement direction, and is perpendicular to the changed projection direction. It can also be a flat surface. Thereby, it is possible to obtain a projection image in which blurring is further suppressed.

ステップS4では、制御部39は、決定した投影平面にピントを合わせて画像を投影するように、レンズモータ38を制御して投影レンズ12を移動させることでフォーカスを合わせる。この投影平面は、各測定位置が同一平面上にあるときは、その平面であり、そうでない時は算出した仮想平面となる(合焦工程、合焦ステップ)。   In step S4, the control unit 39 adjusts the focus by controlling the lens motor 38 and moving the projection lens 12 so as to project the image while focusing on the determined projection plane. This projection plane is the plane when each measurement position is on the same plane, and is the calculated virtual plane otherwise (focusing step, focusing step).

ステップS5では、制御部39は、台形補正を行なうためのチャートを投影させる。   In step S5, the control unit 39 projects a chart for performing keystone correction.

ステップS6では、制御部39は、投影したチャートを基に、台形補正(オートキーストーン補正)を行なう。   In step S6, the control unit 39 performs trapezoidal correction (auto keystone correction) based on the projected chart.

ステップS7では、制御部39は投影部50を制御して投影面に対して画像を投影する(投影ステップ、投影工程)。   In step S7, the control unit 39 controls the projection unit 50 to project an image onto the projection plane (projection step, projection process).

以上のように、本実施形態では、3つの測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合、つまり投影面上に表示された画像の表示範囲中に凹凸がある場合には、測定位置の各測定距離を基に仮想平面を算出して、この仮想平面上に画像を合焦するので、投影面上の凹部や凸部に焦点が合うことを防止することができる。これにより、投影画像のボケを抑制することが可能となる。   As described above, in the present embodiment, it is determined whether or not the three measurement positions are on the same plane. If the three measurement positions are not on the same plane, that is, unevenness is present in the display range of the image displayed on the projection plane. If there is, the virtual plane is calculated based on each measurement distance of the measurement position, and the image is focused on the virtual plane, so that the concave portion or the convex portion on the projection surface is prevented from being focused. be able to. As a result, it is possible to suppress blurring of the projected image.

上記では、測距工程→合焦工程→投影工程の順番で処理を実行しているが、これに限らず測距工程の後に合焦工程が実行されるのならば投影工程は前後してもかまわない。例えば測距工程の前に投影工程があってもよいし、測距工程と合焦工程との間に投影工程がある場合が挙げられる。つまり、先に画像を投影しておいて、後から測距工程と合焦工程を行って、後追いでピントを合わせるように構成してもよい。これにより、少しでも早く画像を投影することが可能となる。   In the above, the processing is executed in the order of the distance measuring step → the focusing step → the projecting step. However, the present invention is not limited to this, and if the focusing step is executed after the distance measuring step, the projection step may be performed before and after. It doesn't matter. For example, there may be a projection step before the distance measurement step, and there may be a case where there is a projection step between the distance measurement step and the focusing step. That is, the image may be projected first, the distance measurement step and the focusing step may be performed later, and the focus may be adjusted later. This makes it possible to project an image as soon as possible.

また、制御部39は、3つの測定位置における測距部43の各測定結果のうち、投影面に垂直な方向に対して最大な測定値と最小な測定値との中間値となる位置に仮想平面が配置されるように、仮想平面を算出しているので、仮想平面に対して画像を合焦した際には、最大な値となった測定位置や最小な値となった測定位置のいずれにおいても極力投影画像のボケを抑制することができる。   Further, the control unit 39 virtually sets the measurement result of the distance measurement unit 43 at the three measurement positions at a position that is an intermediate value between the maximum measurement value and the minimum measurement value in the direction perpendicular to the projection plane. Since the virtual plane is calculated so that the plane is arranged, when the image is focused on the virtual plane, either the measurement position with the maximum value or the measurement position with the minimum value is selected. In this case, the blur of the projected image can be suppressed as much as possible.

なお、本発明は上記実施形態に限らず適宜変更可能であるのは勿論である。
例えば、本実施形態では、フロントプロジェクタとしてのプロジェクタ装置を例示して説明しているが、リアプロジェクタに対しても適用可能である。
また、本実施形態では、測定位置を3箇所とした場合について例示したが、測定位置は4箇所以上であってもかまわない。測定位置を多くすればそれだけ投影面の平面検出精度が高まることになる。例えば、図11では投影面(壁面57)に3本柱58が配置されている場合を表していて、図12では投影面59が波打っている場合を表しているが、測定位置が3箇所(図中L1,L2,L3)の場合であると、図11,図12のいずれで場合でも各測定位置の測定結果は同じとなってしまい(図11の場合は測定結果がD1、図12の場合は測定結果がD2)、平面として判断されてしまう。しかしながら、例えば図中のL4、L5を加えて測定位置を5箇所とすると、全ての測定位置の測定結果は異なることになるので、この投影面が平面ではないと判断されることになるのである。
Of course, the present invention is not limited to the above-described embodiment and can be modified as appropriate.
For example, in the present embodiment, a projector device as a front projector is described as an example, but the present invention can also be applied to a rear projector.
Further, in the present embodiment, the case where the number of measurement positions is three is illustrated, but the number of measurement positions may be four or more. If the number of measurement positions is increased, the plane detection accuracy of the projection plane increases accordingly. For example, FIG. 11 shows a case where three pillars 58 are arranged on the projection surface (wall surface 57), and FIG. 12 shows a case where the projection surface 59 is wavy, but there are three measurement positions. In the case of (L1, L2, L3 in the figure), the measurement results at each measurement position are the same in both cases of FIGS. 11 and 12 (in the case of FIG. 11, the measurement results are D1 and FIG. 12). In the case of (2), the measurement result is determined as D2), which is a plane. However, for example, if L4 and L5 in the figure are added and the measurement positions are five, the measurement results at all the measurement positions will be different, so this projection plane is determined not to be a plane. .

また、本実施形態では、少なくとも3つの測定位置における測距部43の各測定結果のうち、投影面に垂直な方向に対して最大な測定値と最小な測定値との中間値となる位置に仮想平面が配置される場合を例示して説明したが、各測定位置における測距部43の各測定結果の平均値となる位置に仮想平面が配置されてもよい。これによって、仮想平面に対して画像を合焦した際の投影面に対するボケを抑制するための別の形態を提供することができる。   Further, in the present embodiment, among the measurement results of the distance measuring unit 43 at at least three measurement positions, the position is an intermediate value between the maximum measurement value and the minimum measurement value in the direction perpendicular to the projection plane. Although the case where the virtual plane is arranged has been described as an example, the virtual plane may be arranged at a position that is an average value of each measurement result of the distance measuring unit 43 at each measurement position. Thereby, another form for suppressing blurring on the projection plane when the image is focused on the virtual plane can be provided.

そして、本実施形態では、各測定位置の測定結果を基に仮想平面を算出しているが、各測定位置の測定結果の最小値と最大値の差が許容範囲を超えている場合には、エラーや警告を報知してもよい。このように投影面の凹凸の許容範囲を設けていれば、あまり極端に凹凸している投影面である場合にはその状態のまま投影することを回避することができる。
また、前記した各測定位置の測定結果の最小値と最大値の差が許容範囲を超えている場合であっても、強制的に上記の平均値となる位置に仮想平面を配置してもよい。これによって、かなり凹凸の激しい場所へもピントの自動調整をした画像の投影が可能となる。
And in this embodiment, the virtual plane is calculated based on the measurement result of each measurement position, but when the difference between the minimum value and the maximum value of the measurement result of each measurement position exceeds the allowable range, An error or warning may be notified. As described above, if the projection surface has an allowable range of unevenness, it is possible to avoid projecting the projection surface as it is when the projection surface is extremely uneven.
In addition, even when the difference between the minimum value and the maximum value of the measurement results at each measurement position described above exceeds the allowable range, the virtual plane may be forcibly arranged at a position where the above average value is obtained. . As a result, it is possible to project an image with automatic focus adjustment even in a place where the unevenness is extremely severe.

また、多数の点を測距している場合には、その内の所定割合(例えば80%)が同一の平面にあることがわかっている場合には、残りを無視して、その同一平面へ投影するようにしてもよい。これによって、投影面の一部がスクリーンからはみ出ていたり、投影面の極一部だけが極端に突起しているような場合であっても、それにより投影画像がボケてしまうことなく、ピントがあった画像を投影することができる。   In the case of measuring a number of points, if it is known that a predetermined ratio (for example, 80%) is in the same plane, the rest are ignored and the same plane is ignored. You may make it project. As a result, even if a part of the projection surface protrudes from the screen or only a very small part of the projection surface protrudes extremely, the projected image is not blurred, and the focus is reduced. Projected images can be projected.

また、本実施形態では、測距のために位相差センサを用いたが、距離画像センサを用いてもよい。距離画像センサとは、例えば、画素に蓄積した電荷を電圧として読み出して出力回路に転送して増幅して出力する「電荷転送方式」に基づく特殊画素構造をしたCMOSセンサと、そのCMOSセンサ周辺に被写体に向けて近赤外光を照射するLEDとを備え、このLED反射光を前記CMOSが受光するまでの時間を計測することで距離を求める「TOF方式」を用いたものである。これによって、より広範囲にわたる測距を、素早く行なうことができる。   In this embodiment, a phase difference sensor is used for distance measurement, but a distance image sensor may be used. The distance image sensor is, for example, a CMOS sensor having a special pixel structure based on a “charge transfer method” in which charges accumulated in a pixel are read out as a voltage, transferred to an output circuit, amplified and output, and around the CMOS sensor. And an LED that irradiates near-infrared light toward a subject, and uses a “TOF method” in which a distance is obtained by measuring the time until the CMOS receives the reflected LED light. This makes it possible to quickly perform ranging over a wider range.

なお、本発明は、前述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形させることが可能である。また、前述した実施形態で実行される機能は可能な限り適宜組み合わせて実施してもよい。前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合わせにより、種々の発明が抽出され得る。例えば実施形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, this invention is not limited to embodiment mentioned above, In the implementation stage, it can change variously in the range which does not deviate from the summary. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the embodiment, if an effect can be obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

本実施形態の投影装置としてのプロジェクタ装置の外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of the projector apparatus as a projection apparatus of this embodiment. 図1のプロジェクタ装置に備わるインジケータのキー配列等を表す説明図である。It is explanatory drawing showing the keyboard layout etc. of the indicator with which the projector apparatus of FIG. 1 is provided. 図1のプロジェクタ装置に備わるリモートコントローラのキー配列等を表す説明図である。It is explanatory drawing showing the keyboard layout etc. of the remote controller with which the projector apparatus of FIG. 1 is equipped. 図1のプロジェクタ装置の電子回路の機能構成を表すブロック図である。It is a block diagram showing the function structure of the electronic circuit of the projector apparatus of FIG. 図1のプロジェクタ装置に備わる投影部の具体的な概略構成を表すブロック図である。FIG. 2 is a block diagram illustrating a specific schematic configuration of a projection unit provided in the projector apparatus of FIG. 1. 図5の投影部に備わる位相差センサの概略構成を表す上面図である。FIG. 6 is a top view illustrating a schematic configuration of a phase difference sensor provided in the projection unit of FIG. 5. 図1のプロジェクタ装置で用いられる多点測距を説明するための説明図である。It is explanatory drawing for demonstrating the multipoint ranging used with the projector apparatus of FIG. 図5の投影部に備わる位相差センサとスクリーンとの位置関係を表す説明図である。It is explanatory drawing showing the positional relationship of the phase difference sensor with which the projection part of FIG. 5 is provided, and a screen. 図8の位相差センサと凹凸のある壁面との位置関係を表す説明図である。It is explanatory drawing showing the positional relationship of the phase difference sensor of FIG. 8, and an uneven | corrugated wall surface. 本実施形態のプロジェクタ装置10で実行されるプログラムの一例を表すフローチャートである。It is a flowchart showing an example of the program performed with the projector apparatus 10 of this embodiment. 図8の位相差センサと、3本柱を有する壁面との位置関係を表す説明図である。It is explanatory drawing showing the positional relationship of the phase difference sensor of FIG. 8, and the wall surface which has three pillars. 図8の位相差センサと、波打った投影面との位置関係を表す説明図である。It is explanatory drawing showing the positional relationship of the phase difference sensor of FIG. 8, and the waved projection surface.

符号の説明Explanation of symbols

10 プロジェクタ装置
11 本体ケーシング
12 投影レンズ(合焦手段)
13a,13b,13c,13d 測距レンズ
14 Ir送受信部
15 インジケータ
16 スピーカ
17 カバー
18 入力部
19 Ir送受信部
20 アダプタ接続部
21 固定脚部
22 調整脚部
27 表示素子
32 画像変換部
33 表示エンコーダ
34 ビデオRAM
35 表示駆動部
36 表示素子
37 光源部
38 レンズモータ(合焦手段)
39 制御部
40 リモートコントローラ
41 音声処理部
42 加速度センサ
43 測距部
50 投影部
51 フォトセンサアレイ
51,52 フォトセンサアレイ
53 被写体
56 スクリーン
60 記憶部
61 光源ランプ
62 リフレクタ
63 導光部材
64 カラーホイール
65 モータ
67 中心部材
68 カラーホイール制御部
69 時分割駆動回路
70 カラーシーケンス制御回路
71 光源側レンズ
131,132 位相差センサ
DESCRIPTION OF SYMBOLS 10 Projector apparatus 11 Main body casing 12 Projection lens (focusing means)
13a, 13b, 13c, 13d Distance lens 14 Ir transmission / reception unit 15 Indicator 16 Speaker 17 Cover 18 Input unit 19 Ir transmission / reception unit 20 Adapter connection unit 21 Fixed leg unit 22 Adjustment leg unit 27 Display element 32 Image conversion unit 33 Display encoder 34 Video RAM
35 Display drive unit 36 Display element 37 Light source unit 38 Lens motor (focusing means)
39 Control Unit 40 Remote Controller 41 Audio Processing Unit 42 Acceleration Sensor 43 Distance Measuring Unit 50 Projection Unit 51 Photo Sensor Array 51, 52 Photo Sensor Array 53 Subject 56 Screen 60 Storage Unit 61 Light Source Lamp 62 Reflector 63 Light Guide Member 64 Color Wheel 65 Motor 67 Central member 68 Color wheel controller 69 Time division drive circuit 70 Color sequence control circuit 71 Light source side lens 131, 132 Phase difference sensor

Claims (6)

投影面に対して画像を投影する投影手段と、
前記投影手段が投影する画像を合焦させる合焦手段と、
前記投影面の少なくとも3つの測定位置に対する各距離を測定する測距手段と、
前記測距手段の測定結果を基に前記投影手段及び前記合焦手段を制御する制御手段とを備え、
前記制御手段は、前記複数位置における前記測距手段の各測定結果から前記各測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合には、前記各測定位置の測定距離を基に仮想平面を算出して、前記投影手段より投影された画像が前記仮想平面上に合焦されるように、前記合焦手段を制御することを特徴とする投影装置。
Projection means for projecting an image onto the projection plane;
Focusing means for focusing an image projected by the projection means;
Distance measuring means for measuring each distance to at least three measurement positions of the projection plane;
Control means for controlling the projection means and the focusing means based on the measurement result of the distance measuring means,
The control means determines whether or not the measurement positions are on the same plane from the measurement results of the distance measurement means at the plurality of positions, and if they are not on the same plane, A projection apparatus that calculates a virtual plane based on a measurement distance and controls the focusing unit so that an image projected by the projection unit is focused on the virtual plane.
請求項1記載の投影装置において、
前記制御手段は、
前記各測定位置における前記測距手段で測定した各距離について、投影光軸方向成分の光軸方向成分距離が最大となる前記光軸成分距離と、最小となる前記前記光軸成分距離との中間値である前記光軸成分距離となる前記測定位置群が存在する位置に前記仮想平面が配置されるように、前記仮想平面を算出することを特徴とする投影装置。
The projection device according to claim 1,
The control means includes
For each distance measured by the distance measuring means at each measurement position, an intermediate between the optical axis component distance at which the optical axis direction component distance of the projection optical axis direction component is maximum and the optical axis component distance at which the optical axis component distance is minimum. A projection apparatus, wherein the virtual plane is calculated so that the virtual plane is arranged at a position where the measurement position group corresponding to the optical axis component distance as a value exists.
請求項1記載の投影装置において、
前記制御手段は、
前記各測定位置における前記測距手段で測定した各距離について、投影光軸方向成分の光軸方向成分距離の平均値をとり、その平均値となる前記測定位置群が存在する位置に前記仮想平面が配置されるように、前記仮想平面を算出することを特徴とする投影装置。
The projection device according to claim 1,
The control means includes
For each distance measured by the distance measuring means at each measurement position, an average value of the optical axis direction component distances of the projection optical axis direction components is taken, and the virtual plane is located at the position where the measurement position group serving as the average value exists. The projection apparatus is characterized in that the virtual plane is calculated such that
請求項1記載の投影装置において、
前記制御手段は、前記各測定位置が所定の割合以上同一平面上にあると判断した場合には、その平面を仮想平面とすることを特徴とする投影装置。
The projection device according to claim 1,
When the control means determines that the measurement positions are on the same plane by a predetermined ratio or more, the projection apparatus sets the plane as a virtual plane.
投影面に対して画像を投影する投影工程と、
前記投影面の少なくとも3つの測定位置に対する各距離を測定する測距工程と、
前記投影する画像を前記投影面に合焦する合焦工程とを有し、
前記合焦工程は、
前記測距工程により得られた前記各測定位置の測定結果から前記各測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合には、前記各測定位置の測定結果を基に仮想平面を算出して、前記投影する画像を前記仮想平面上に合焦することを特徴とする投影方法。
A projection step of projecting an image onto the projection plane;
A distance measuring step for measuring distances to at least three measurement positions on the projection plane;
A focusing step of focusing the image to be projected on the projection plane,
The focusing step includes
It is determined whether or not the measurement positions are on the same plane from the measurement results of the measurement positions obtained by the ranging step. If the measurement positions are not on the same plane, the measurement results of the measurement positions are determined. A projection method characterized in that a virtual plane is calculated based on and the image to be projected is focused on the virtual plane.
投影面に対して画像を投影する投影ステップと、
投影面の少なくとも3つの測定位置に対する各距離を測定する測距ステップと、
前記投影する画像を前記投影面に合焦する合焦ステップとを有し、
前記合焦ステップは、
前記測距ステップにより得られた前記各測定位置の測定結果から前記各測定位置が同一平面上にあるか否かを判断して、同一平面上にない場合には、前記各測定位置の測定結果を基に仮想平面を算出して、前記投影する画像を前記仮想平面上に合焦することを特徴とするプログラム。
A projecting step for projecting an image onto a projection surface;
A ranging step of measuring each distance to at least three measurement positions on the projection plane;
A focusing step of focusing the image to be projected on the projection plane,
The focusing step includes
It is determined whether or not the measurement positions are on the same plane from the measurement results of the measurement positions obtained by the ranging step. If the measurement positions are not on the same plane, the measurement results of the measurement positions are determined. A program that calculates a virtual plane based on the image and focuses the projected image on the virtual plane.
JP2006091121A 2006-03-29 2006-03-29 Projector, projection method and program Pending JP2007264413A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006091121A JP2007264413A (en) 2006-03-29 2006-03-29 Projector, projection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006091121A JP2007264413A (en) 2006-03-29 2006-03-29 Projector, projection method and program

Publications (1)

Publication Number Publication Date
JP2007264413A true JP2007264413A (en) 2007-10-11

Family

ID=38637448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006091121A Pending JP2007264413A (en) 2006-03-29 2006-03-29 Projector, projection method and program

Country Status (1)

Country Link
JP (1) JP2007264413A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8953101B2 (en) 2011-08-18 2015-02-10 Ricoh Company, Ltd. Projector and control method thereof
CN107490927A (en) * 2016-06-12 2017-12-19 中兴通讯股份有限公司 Projected focus method and projecting apparatus based on camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8953101B2 (en) 2011-08-18 2015-02-10 Ricoh Company, Ltd. Projector and control method thereof
CN107490927A (en) * 2016-06-12 2017-12-19 中兴通讯股份有限公司 Projected focus method and projecting apparatus based on camera
WO2017215070A1 (en) * 2016-06-12 2017-12-21 中兴通讯股份有限公司 Projection and focusing method, and projector

Similar Documents

Publication Publication Date Title
JP3772870B2 (en) Projection apparatus, projection method, and program
US9621861B2 (en) Projection image display system, projection image display method, and projection-type display apparatus
US9936179B2 (en) Image projection apparatus and method of controlling the same, and non-transitory computer-readable storage medium
JP6343910B2 (en) Projector and projector control method
US11323672B2 (en) Control method for projector and projector
JP5162839B2 (en) Display device and program
JP6330292B2 (en) Projector and projector control method
JP6180117B2 (en) Projection display
JP3928623B2 (en) Projection apparatus, distance measurement processing method, and program
JP2007264413A (en) Projector, projection method and program
JP4301028B2 (en) Projection apparatus, angle detection method, and program
JP6133192B2 (en) Display control apparatus and program
JP5488528B2 (en) Display control apparatus and program
JP5292678B2 (en) Projector, pointer display processing method, and program
JP6347126B2 (en) Projector and projector control method
JP6149900B2 (en) Display control apparatus, display control method, and program
JP6098679B2 (en) Display control apparatus, display control method, and program
JP5044962B2 (en) Projection apparatus, projection method, and program
JP2007334191A (en) Projection apparatus, range finding processing method, and program
JP6119730B2 (en) Display control apparatus and program
JP4556944B2 (en) Projection apparatus, distance measurement processing method, and program
JP2008028531A (en) Projector, and wall color correction method and program
JP5205704B2 (en) Projection apparatus, projection method, and program
JP2008020196A (en) Projector, ranging method and program of projector
JP4687076B2 (en) Projection device