JP2005181726A - Projector apparatus and method for adjusting projected image - Google Patents
Projector apparatus and method for adjusting projected image Download PDFInfo
- Publication number
- JP2005181726A JP2005181726A JP2003422975A JP2003422975A JP2005181726A JP 2005181726 A JP2005181726 A JP 2005181726A JP 2003422975 A JP2003422975 A JP 2003422975A JP 2003422975 A JP2003422975 A JP 2003422975A JP 2005181726 A JP2005181726 A JP 2005181726A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- image
- edge
- sensor
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
Abstract
Description
本発明はプロジェクタ装置に関し、特に画像をスクリーンの表示領域いっぱいに表示する機能(以下、オートズーム機能という)を備えたプロジェクタ装置およびこのプロジェクタ装置における投影画像調整方法に関する。 The present invention relates to a projector device, and more particularly to a projector device having a function of displaying an image in a full screen display area (hereinafter referred to as an auto zoom function) and a projected image adjustment method in the projector device.
オートズーム機能を備えたプロジェクタ装置が特許文献1に開示されている。特許文献1に開示のプロジェクタ装置は、プロジェクタ装置からスクリーンまでの距離を測定するアクティブ測距装置を備えており、この測距装置の発光素子を上下左右に移動させて、受光素子での信号入力レベルの変化を調べている。スクリーンとスクリーンの外では投射光の反射率が大きく変わるため、スクリーン端部を検出することができる。スクリーン端部を検出すると、発光素子を移動させた移動量と投射レンズの焦点距離情報とからスクリーンの大きさを演算して求めて、このスクリーンの大きさに基づいてオートズームを行っている。
A projector apparatus having an auto zoom function is disclosed in
しかしながら、発光素子を移動させるための駆動機構は、プロジェクタ装置には本来必要のない機構であり、このため装置構成が大きくなる、装置が高価になるなどの問題がある。 However, the drive mechanism for moving the light emitting element is a mechanism that is not originally required for the projector apparatus, and there is a problem that the apparatus configuration becomes large and the apparatus becomes expensive.
また、発光素子の移動量と投射レンズの焦点距離情報とからスクリーンの大きさを演算して求めなければならず、不要な演算処理が発生する。 Further, the size of the screen must be calculated from the movement amount of the light emitting element and the focal length information of the projection lens, and unnecessary calculation processing occurs.
本発明は上記事情に鑑みてなされたものであり、簡易な構成でオートズーム機能を実現することができるプロジェクタ装置および投影画像調整方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a projector device and a projection image adjustment method capable of realizing an auto zoom function with a simple configuration.
かかる目的を達成するために請求項1記載のプロジェクタ装置は、画像をスクリーンに拡大表示する画像投影手段と、複数の画素を有するセンサを備え受光量に応じたセンサデータを出力するセンサデータ出力手段と、前記スクリーン端部の反射光を受光した前記画素と、前記スクリーンに投影された前記画像の端部の反射光を受光した前記画素とを比較して、前記画像の端部を前記スクリーンの端部に合わせるように前記画像投影手段を制御する制御手段と、を有することを特徴としている。
In order to achieve the above object, the projector apparatus according to
請求項1記載の発明は、スクリーン端部の反射光を受光したセンサの画素と、スクリーンに投影された画像の端部の反射光を受光したセンサの画素とを比較して、画像の端部をスクリーンの端部に合わせるように画像投影手段を制御している。従って、簡単な構成でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。 According to the first aspect of the present invention, the pixel of the sensor that receives the reflected light at the edge of the screen is compared with the pixel of the sensor that receives the reflected light at the edge of the image projected on the screen. The image projecting means is controlled so that is aligned with the edge of the screen. Therefore, an image can be displayed in the entire display area of the screen with a simple configuration. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted.
請求項2記載のプロジェクタ装置は、請求項1記載のプロジェクタ装置において、前記制御手段は、前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、最初に前記しきい値を超えたセンサデータを検出することで、前記スクリーンまたは前記パターン画像の端部の反射光を受光した前記画素を検出することを特徴としている。 According to a second aspect of the present invention, in the projector device according to the first aspect, the control means selects sensor data to be compared with a predetermined threshold value from the central portion toward the end portion of the sensor. By detecting sensor data that exceeds the threshold value, the pixel that has received reflected light at the edge of the screen or the pattern image is detected.
請求項2記載の発明は、所定のしきい値とセンサデータとの比較を、センサの中央部から端部に向けて行っている。センサの中央部は、スクリーンまたは画像の反射光、特に白色に対応する反射光を受光していることになるのでセンサデータの値が略一定となり、スクリーン端部および画像端部のセンサデータの判定が容易になる。 According to the second aspect of the present invention, the comparison between the predetermined threshold value and the sensor data is performed from the center to the end of the sensor. Since the central part of the sensor receives reflected light from the screen or image, particularly reflected light corresponding to white, the sensor data value is substantially constant, and the sensor data at the screen edge and the image edge are judged. Becomes easier.
請求項3記載のプロジェクタ装置は、請求項1又は2記載のプロジェクタ装置において、前記制御手段は、前記画像の端部が前記スクリーンの端部よりも外側にあると判定した場合には、前記画像を縮小する方向に前記画像投影手段を駆動して、前記画像を前記スクリーン内に納め、前記画像を拡大させながら前記画像の端部を前記スクリーンの端部に合わせることを特徴としている。 According to a third aspect of the present invention, in the projector device according to the first or second aspect, when the control means determines that the end of the image is outside the end of the screen, the image The image projecting means is driven in a direction to reduce the image, the image is stored in the screen, and the end of the image is aligned with the end of the screen while enlarging the image.
請求項3記載の発明は、画像の端部がスクリーンの端部よりも外側にあると判定した場合に、画像を縮小してスクリーン内に納め、画像を拡大させながら画像の端部をスクリーンの端部に合わせている。スクリーン外のセンサデータの値は、スクリーンの配置状況によって変わってしまうため、画像を縮小させる方向でスクリーンと画像の端部を合わせることは難しい。そこで、一端画像がスクリーンよりも小さく投影される状態に縮小しておき、画像を拡大させながらスクリーン端部に合わせることで、画像のサイズをスクリーンサイズに精度よく合わせることができる。 According to the third aspect of the present invention, when it is determined that the edge of the image is outside the edge of the screen, the image is reduced and stored in the screen, and the edge of the image is enlarged while the image is enlarged. Aligned with the edge. Since the value of sensor data outside the screen changes depending on the arrangement state of the screen, it is difficult to match the screen and the edge of the image in the direction of reducing the image. Therefore, the size of the image can be accurately adjusted to the screen size by reducing the size of the image so that the image is projected smaller than the screen and adjusting the image to the screen edge while enlarging the image.
請求項4記載のプロジェクタ装置は、請求項1から3のいずれか一項記載のプロジェクタ装置において、前記画像は、白色画像の端部が黒色になっていることを特徴としている。 A projector device according to a fourth aspect is the projector device according to any one of the first to third aspects, wherein an edge of a white image is black in the image.
請求項4記載の発明は、画像が白色画像の端部を黒色にした画像としている。従って、白色画像と端部の黒色画像とでセンサデータの値に差ができるため、画像の端部の判定が容易になる。
In the invention described in
請求項5記載のプロジェクタ装置は、請求項1から4のいずれか一項記載のプロジェクタ装置において、前記スクリーンの端部は、黒色に形成されていることを特徴としている。 A projector device according to a fifth aspect is the projector device according to any one of the first to fourth aspects, wherein an end portion of the screen is formed in black.
請求項5記載の発明は、スクリーンの端部を黒色に形成している。従って、スクリーンの表示領域と端部とでセンサデータの値に差ができるため、スクリーン端部の判定が容易となる。
In the invention described in
請求項6記載の投影画像調整方法は、スクリーンの反射光を複数の画素を有するセンサで受光して、反射光量に応じたセンサデータを出力する第1センサデータ出力工程と、前記センサからのセンサデータにより、前記スクリーン端部の反射光を受光した前記画素を特定するスクリーン端部位置特定工程と、前記スクリーンに画像を投影する画像投影工程と、前記画像のスクリーンでの反射光を前記センサで受光して、反射光量に応じたセンサデータを出力する第2センサデータ出力工程と、前記センサからのセンサデータにより、前記スクリーンに投影された前記画像の端部の反射光を受光した前記画素を特定する画像端部特定工程と、前記スクリーン端部の反射光を受光した前記画素と、前記スクリーンに投影された画像の端部の反射光を受光した前記画素とを比較して、前記画像の端部を前記スクリーンの端部に合わせる画像調整工程と、を有することを特徴としている。
The projected image adjustment method according to
請求項6記載の発明は、スクリーン端部の反射光を受光したセンサの画素と、スクリーンに投影された画像の端部の反射光を受光したセンサの画素とを比較して、画像の端部をスクリーンの端部に合わせている。従って、簡単な手順でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。
The invention according to
請求項7記載の投影画像調整方法は、請求項6記載の投影画像調整方法において、前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、最初に前記しきい値を超えたセンサデータを検出することで、前記スクリーンまたは前記パターン画像の端部の反射光を受光した前記画素を検出することを特徴としている。
The projection image adjustment method according to claim 7 is the projection image adjustment method according to
請求項7記載の発明は、所定のしきい値とセンサデータとの比較を、センサの中央部から端部に向けて行っている。センサの中央部は、スクリーンまたは画像の反射光、特に白色に対応する反射光を受光していることになるのでセンサデータの値が略一定となり、スクリーン端部および画像端部のセンサデータの判定が容易になる。 According to the seventh aspect of the present invention, the comparison between the predetermined threshold value and the sensor data is performed from the center to the end of the sensor. Since the central part of the sensor receives reflected light from the screen or image, particularly reflected light corresponding to white, the sensor data value is substantially constant, and the sensor data at the screen edge and the image edge are judged. Becomes easier.
請求項8記載の投影画像調整方法は、請求項6又は7記載の投影画像調整方法において、前記画像調整工程は、前記画像の端部が前記スクリーンの端部よりも外側にある場合には、前記画像を縮小して前記スクリーン内に納め、前記画像を拡大させながら前記画像の端部を前記スクリーンの端部に合わせることを特徴としている。
The projection image adjustment method according to
請求項8記載の発明は、画像の端部がスクリーンの端部よりも外側にあると判定した場合に、画像を縮小してスクリーン内に納め、画像を拡大させながら画像の端部をスクリーンの端部に合わせている。スクリーン外のセンサデータの値は、スクリーンの配置状況によって変わってしまうため、画像を縮小させる方向でスクリーンと画像の端部を合わせることは難しい。そこで、一端画像がスクリーンよりも小さく投影される状態に縮小しておき、画像を拡大させながらスクリーン端部に合わせることで、画像のサイズをスクリーンサイズに精度よく合わせることができる。 According to the eighth aspect of the present invention, when it is determined that the edge of the image is outside the edge of the screen, the image is reduced and stored in the screen. Aligned with the edge. Since the value of sensor data outside the screen changes depending on the arrangement state of the screen, it is difficult to match the screen and the edge of the image in the direction of reducing the image. Therefore, the size of the image can be accurately adjusted to the screen size by reducing the size of the image so that the image is projected smaller than the screen and adjusting the image to the screen edge while enlarging the image.
本発明は簡易な構成のプロジェクタ装置でスクリーンの表示領域いっぱいに画像を表示させることができる。 The present invention can display an image over the entire display area of a screen with a projector device having a simple configuration.
添付図面を参照しながら本発明の最良の実施例を説明する。 The best embodiment of the present invention will be described with reference to the accompanying drawings.
まず、図1を参照しながら本実施例のプロジェクタ装置の構成について説明する。図1に示されるように本実施例のプロジェクタ装置2は、投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光して、投影画像の焦点位置を判定するためのコントラスト値を算出する自動焦点検出装置20と、プロジェクタ装置2からスクリーン1までの距離をスクリーン1の左右方向(水平方向)の複数ポイントで測距する第1パッシブ測距装置30と、同じくプロジェクタ装置2からスクリーン1までの距離をスクリーン1の上下方向(垂直方向)の複数ポイントで測距する第2パッシブ測距装置40と、図示しないパーソナルコンピュータ等の機器から画像を入力して、画像情報を出力する投影画像生成部5と、投影レンズ光学系8へ画像を出力する表示駆動部6と、表示駆動部6により出力された画像をスクリーン1上に投影する投影レンズ光学系8と、投影レンズ光学系8の焦点距離を変更するために、光軸に沿って投影レンズ光学系8を移動させるステッピングモータ等からなる光学系駆動部7と、プロジェクタ装置2の構成に必要なデータや命令を記憶したメモリ部4と、これら各部を制御する制御回路3とを有している。
First, the configuration of the projector apparatus according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the
自動焦点検出装置20は、図1に示されるように投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光する受光センサ21と、受光センサ21から出力される電気信号に演算を行い、受光量に応じたセンサデータと、画像のコントラストとを算出する演算部22とを有している。本実施例では、受光センサ21としてCCDラインセンサを適用している。
As shown in FIG. 1, the automatic
図2を参照しながら自動焦点検出装置20の演算部22について説明する。図2に示されるように演算部22は、受光センサ21から入力した電気信号から高周波成分を取り出す高域通過フィルタ(以下、HPFとも記載する)221と、高周波成分だけとなった輝度信号の振幅検波を行なう検波器222と、検波器222の検波出力をA/D変換し、ディジタルのセンサデータに変換するA/D変換器223と、A/D変換器223から出力されるディジタルのセンサデータを積分する積分器224と、を有している。A/D変換器223からはセンサデータが出力され、積分器224からは図3に示す画像信号のコントラストデータが出力される。
The
画像信号の高周波成分に現れるコントラストは、図3に示されるように、合焦位置でコントラストが最大となり、合焦位置から外れるに従ってコントラストが減少していくという特性を有している。この特性を利用して、投影レンズ光学系8により撮影される画像がスクリーン1上に像を結ぶ時の投影レンズ光学系8の位置(合焦位置)を求める(以下、この方法を山登りオートフォーカスと呼ぶ)。
As shown in FIG. 3, the contrast appearing in the high-frequency component of the image signal has a characteristic that the contrast becomes maximum at the in-focus position and decreases as the position deviates from the in-focus position. Using this characteristic, the position (focus position) of the projection lens
図4は、図1に示したプロジェクタ装置2を正面から見た構成を示した図である。プロジェクタ装置2の正面には投影レンズが設けられている。投影レンズは投影レンズ光学系(コンデンサレンズを含んでいてもよい)8に含まれ、投影レンズを介してスクリーン1上へ画像が投影される。
FIG. 4 is a diagram showing a configuration of
図4に示されるように第1パッシブ測距装置30は、プロジェクタ装置2の正面を構成する平面上で、水平方向に基線長aだけ離間して配置された一対のレンズ31a及び31bを備えた撮像部31を有している。同様に第2パッシブ測距装置40は、図4に示されるようにプロジェクタ装置2の正面を構成する平面上で、垂直方向に基線長bだけ離間して配置された一対のレンズ41a及び41bを備えた撮像部41を有している。なお、本実施例では、図4に示されるように撮像部31の基線長aに平行する方向をプロジェクタ装置2の第1基準方向と呼ぶ。また、撮像部41の基線長bに平行する方向をプロジェクタ装置2の第2基準方向と呼ぶ。
As shown in FIG. 4, the first passive distance measuring device 30 includes a pair of
基線長aだけ離れた一対のレンズ31a,31bの下には、基線長cだけ離れた一対のラインセンサ31c,31dが設けられている。同様に基線長bだけ離れた一対のレンズ41a,41bの下には、基線長dだけ離れた一対のラインセンサ41c,41dが設けられている。図5(A)に示されるように基線長aだけ離間して配置されたレンズ31a,31b間の距離は、基線長cだけ離間して配置されたラインセンサ31c,31d間の距離よりも長くなっている。また、図示してないが、同様に基線長bだけ離間して配置されたレンズ41a,41b間の距離は、基線長dだけ離間して配置されたラインセンサ41c,41d間の距離よりも長くなっている。このため図5(B)に示されるように一対のレンズの各光軸が一対のラインセンサの各光軸よりも外側に位置するように配置されている。このように構成することで、図5(A)に示されるようにパッシブ測距装置の受光可能範囲を広くとることが可能となる。なお、図5(A)に点線で示すレンズが通常位置に配置されたレンズであり、このレンズの受光可能範囲が点線で示されている。また、実線で示すレンズが本実施例でのレンズ位置であり、このレンズの受光可能範囲が一点鎖線で示されている。
A pair of
図6を参照しながら撮像部31の構成について説明する。外部から入射した光を受光するレンズ31aの下には、焦点距離fだけ離間されてラインセンサ31cが配置され、またセンサ31bの下には、焦点距離fだけ離間されてラインセンサ31dが配置されている。これらのラインセンサ31c,31dは、直線状に配列された複数の光検出素子を有する一対のラインCCDまたはその他のライン型撮像素子からなる。なお、ラインセンサ31c,31dの構成については説明の便宜上後ほど詳述する。撮像部31は、レンズ31a及び31bを介してラインセンサ31c及び31d上に結像した画像について、図示しない出力部を介して画像の光量に応じた電気信号を直列的に出力する。なお、撮像部41についても撮像部31と同様に、レンズ41a,41bから焦点距離fだけ離間されてそれぞれラインセンサ41c,41dが配置されている。
The configuration of the
演算部32は、ラインセンサ31c,31dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算する。演算部42も同様にラインセンサ41c,41dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算し、この相関値に基づいてスクリーン1までの距離を演算する。
The calculation unit 32 calculates a correlation value while sequentially shifting at least one of the pair of image signals output from the
制御回路3は、第1パッシブ測距装置30の測距演算結果に基づき、プロジェクタ装置2の第1基準方向(水平方向)に対するスクリーン1の傾斜角度θ1(図7(A)参照)を算出する。同様に第2パッシブ測距装置40の測距演算結果に基づき、プロジェクタ装置2の第2基準方向(垂直方向)に対するスクリーン1の傾斜角度θ2(図7(B)参照)を算出する。
The
投影画像生成部5は、外部のパソコン等の画像データ出力部から出力される画像データを入力し、入力した画像データを表示用データに変換して表示駆動部6に出力する。
The projection
表示駆動部6は、画像歪み補正部として機能し、制御回路3が算出した第1基準方向および第2基準方向に対する傾斜角に基づき、不図示の投影レンズとしてのコンデンサレンズを含む投影レンズ光学系8を調整して、投影画像の台形歪みを補正する。また、表示駆動部6は、不図示の投影レンズのピント調整を自動的に行うオートフォーカス手段として機能する。投影レンズ光学系8は、所定の映像光をスクリーン1上に投影する。
The
次に、図6を参照しながら、第1パッシブ測距装置(外光三角測距方式)30の動作原理を説明する。図6は、第1パッシブ測距装置30によりスクリーン1までの距離を測定する様子を示した図である。なお、第2パッシブ測距装置40の動作原理も第1パッシブ測距装置30と同様であるため説明を省略する。
Next, the operation principle of the first passive distance measuring device (external light triangular distance measuring method) 30 will be described with reference to FIG. FIG. 6 is a diagram showing how the first passive distance measuring device 30 measures the distance to the
図6(A)において、一対のレンズ31a及び31bが、プロジェクタ装置2の正面を構成する平面上に水平方向に延びた所定の基線長aだけ離間して配置されている。プロジェクタ装置2の正面を構成する平面の下には、これら一対のレンズ31a及び31bからそれらの焦点距離fだけそれぞれ離間され、基線長a方向に延びた一対のラインセンサ31c及び31dが配置されている。レンズ31a,31bの各光軸が一対のラインセンサ31c,31dの各光軸よりも外側に位置するように配置されている。このように構成することで、図5(A)に示されるようにパッシブ測距装置の受光可能範囲を広くとることが可能となる。これらラインセンサ31c及び31d上に、それぞれ対応するレンズ31a及び31bを介して距離測定(測距)対象のスクリーン1上のある位置の画像Tが結像される。図6(A)においては、スクリーン1上の測定位置Tが、異なる方向の光路A及びBを通って、それぞれのレンズ31a及び31bを介して、ラインセンサ31c及び31d上に結像されている。
6A, a pair of
測定位置Tが無限遠の位置に存在すると仮定した場合、一対のレンズ31a及び31bから焦点距離fにあるラインセンサ31c及び31d上には、測定位置Tがレンズ31a及び31bのそれぞれの光軸31ax及び31bxと交差する基準位置31cx及び31dxに結像されることになる。ここで測定位置Tが無限遠位置からレンズ31aの光軸31ax上の方向Aに沿って近づき、図4(A)の位置、すなわち、レンズ31aからスクリーン1までの距離LCに達すると、測定位置Tはラインセンサ31c上においては、基準位置31cx上に結像されたままであるが、ラインセンサ31d上においては、レンズ31bにより基準位置31dxから位相差(ずれ量)αだけずれた位置に結像される。
Assuming that the measurement position T exists at an infinite position, the measurement position T is located on the
このとき、三角測距の原理から測定位置Tまでの距離LCは、LC=af/αで求められる。ここで、基線長aと焦点距離fは予め知られている既知の値であり、ラインセンサ31d上の基準位置31dxからの位相差(ずれ量)αを検出すれば、距離LCを測定できる。すなわち、スクリーン1までの距離を検出できる。これが外光三角測距のパッシブ型ラインセンサ測距装置の動作原理である。位相差(ずれ量)αの検出及びLC=af/αの演算は、図1に示す演算部32で実行される。
At this time, the distance LC from the principle of triangulation to the measurement position T is obtained by LC = af / α. Here, the base line length a and the focal length f are known values known in advance, and the distance LC can be measured by detecting the phase difference (shift amount) α from the reference position 31dx on the
ラインセンサ31dの基準位置31dxからの位相差(ずれ量)αの検出は、一対のラインセンサ31c及び31dから出力される一対の画像データ信号列IL及びIRからそれぞれ抽出した部分画像データ群iLm及びiRnについて、演算部32が相関演算を行なうことにより検出する。
Detection of the phase difference (shift amount) α from the reference position 31dx of the
上記相関演算の概略を説明する。図6(B)に示すように、相関演算は、部分画像データ群iLm及びiRnを互いに重ねた時に最も一致度が高くなる領域を、重ね合わせる部分画像データ群iLm及びiRnをラインセンサ31c及び31d上で相対的にずらしながら検出していく演算である。図6(B)においては、一方のラインセンサ31cからの部分画像データ群iLmを基準位置31cxに位置を固定して、基準部として使用する。他方のラインセンサ31dからの部分画像データ群iRnは参照部として位置を一画素ずつずらして行き、基準部と最も一致度の高い部分画像データ群iRnを探す。最も一致度の高い部分画像データ群iRnを発生するラインセンサ31d上の位置とそのラインセンサ31dの基準位置31dxと間の間隔が位相差(ずれ量)αである。
An outline of the correlation calculation will be described. As shown in FIG. 6 (B), the correlation calculation is performed by using the
ラインセンサ31c及び31dの各々は、所定数の光検出素子(画素)を所定長の直線上に配列した一対のラインCCDで構成されているから、位相差(ずれ量)αは、部分画像データ群iRnの画像データ信号列IR内の画素位置と画素ピッチから容易に求めることができる。このようにして、レンズ31aの光軸31axと同じ方向Aにある測定位置Tまでの距離LCを、位相差(ずれ量)αを検出することにより測定できる。
Since each of the
次に、ラインセンサの構成について図8を参照しながら説明する。図8には、一対のラインセンサ31c、31dにて、複数方向の距離を検出する際のラインセンサの構成が示されている。図8に示すように、ラインセンサ31c、31dを複数に分割し、測距方向に応じて基準位置を複数設定することにより、1つの測距装置で複数方向の距離を検出することができる。すなわち、一対のラインセンサ31c,31dで複数方向の測距を行う際には、図8に示したようにラインセンサ31c中に複数の測距方向(本例ではR(右)、C(中央)、L(左)とする)に基づく複数の基準位置に応じた複数の測距演算領域(31cR、31cC、31cL)を設ける。同様にラインセンサ31d中に複数の測距方向(R、C、L)に基づく複数の基準位置に応じた複数の測距演算領域(31dR、31dC、31dL)を設ける。そして、測距方向で対応する1対の測距演算領域(31cRと31dR、31cCと31dC、31cLと31dL)中の部分映像データを使用して基準位置からのずれ量を求めることができる。
Next, the configuration of the line sensor will be described with reference to FIG. FIG. 8 shows the configuration of a line sensor when a pair of
本実施例のプロジェクタ装置2は、スクリーン1の表示領域いっぱいに画像を投影するオートズーム機能を備えている。この機能を実現するための動作手順を図9に示すフローチャートを参照しながら説明する。まず、画像をスクリーン1に投影しない状態で、受光センサ21の出力を使用してスクリーン1端部の位置を検出し、記憶する(ステップS1)。図1に示す自動焦点検出装置20の受光センサ21から出力される電気信号に演算部22で演算を行いセンサデータを取り出す。受光センサ21は、スクリーン1の反射光を受光しているため、受光センサ21の各センサからはスクリーン1の反射光量に応じた電気信号が出力される。図10(A)に示されるようにスクリーン1は、画像を表示する表示領域10と、所定の幅に亘って黒色に形成された端部11とからなる。このため、スクリーン1の表示領域(白色)10と端部(黒色)11とでは反射光量に差を生じるので、対応するセンサデータにもかなりの差が生じる。センサデータの値をしきい値と比較していくことで、スクリーン1の端部11を検出することができる。具体的には、センサデータとしきい値との比較を、スクリーン中央部から端部に向けて行い、センサデータが最初にしきい値を超えた画素(以下、この画素を画素Sと呼ぶ)がスクリーン表示領域10と端部11との境界となる。なお、スクリーン端部の検出に使用するセンサデータは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つのセンサ出力を使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dのセンサ出力を使用するものであってもよい。また、スクリーン端部の検出にラインセンサ31c,31d,41c,41dのうちのいずれか一つを用いた場合、1つのラインセンサでスクリーン1の水平方向または垂直方向の一端部だけを検出している場合と、両端部を検出している場合とが考えられる。このため、1つのラインセンサを使用してスクリーン端部の検出を行う場合には、このラインセンサの中央部に位置する画素の出力からしきい値との比較を始めるとよい。
The
次に、投影画像の焦点がスクリーン1に合うように焦点合わせを行うオートフォーカス処理(ステップS2)、プロジェクタ装置2とスクリーン1との位置関係により生じる台形歪みを補正する台形歪み補正処理(ステップS3)などが行われるが、詳細な手順については後述する。なお、画像パターンの端部13をスクリーンの端部11に合わせる投影画像調整処理の前に、このオートフォーカス処理と台形歪み補正処理とを行っておくことで、画像パターンの端部13をスクリーンの端部11に精度よく合わせることができる。すなわち、オートズーム機能の精度を向上させることができる。また、スクリーン端部検出処理時(ステップS1)には、プロジェクタ装置2から画像パターンをスクリーン1に投影することはないので、投影レンズ光学系8に含まれる光源をONさせることがない。従って、オートフォーカス処理と台形歪み補正処理の前にスクリーン端部検出処理を行っておくことで、光源のON/OFFを切り替える手間を省くことができる。
Next, autofocus processing for performing focusing so that the projected image is focused on the screen 1 (step S2), and trapezoidal distortion correction processing for correcting trapezoidal distortion caused by the positional relationship between the
次に、オートズーム用の画像パターンをスクリーン1に投影して、投影画像の調整処理を行う(ステップS4)。まず、オートズーム用の画像パターンをスクリーン1に投影してセンサデータを取り出し、画像パターンの端部の位置を検出する。オートズーム用の画像パターンは、白色の画像領域12と、黒色の端部13とからなる。図10(B)にはスクリーン1上に画像パターンが投影された状態が示されている。画像パターンは、画像パターンの中心とスクリーン1の中心とがほぼ一致するようにスクリーン1上に投影されているとよい。画像パターンの中心がスクリーン1の中心から大きくずれていると、投影画像の調整処理を行ってもスクリーン1から画像がはみ出る、スクリーンいっぱいに画像が投影されないなどの不具合が起きる可能性もある。受光センサ21から出力され、演算部22で演算して出力されるセンサデータには、スクリーン1の反射光と画像パターンの反射光とが含まれており、センサデータを所定のしきい値と比較することで、スクリーンの端部11と画像パターンの端部13とを検出することができる。すなわち、センサデータとしきい値との比較をスクリーン中央部から端部に向けて行い、センサデータが最初にしきい値を超えた画素(以後、この画素を画素Pと呼ぶ)を検出する。この画素がステップS1に検出してあった画素Sと同じ位置にある場合には、そこがスクリーン1の表示領域10と端部11との境界であると判定できる。また、検出した画素Pの位置が画素Sの位置と異なる場合(画素Sよりもスクリーン中央に近い場合)、そこが画像パターンの画像領域12と端部13との境界となる。なお、スクリーン端部11の検出の時と同様に、画像パターン端部13の検出に使用するラインセンサは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つを使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dを使用するものであってもよい。また、画像パターン端部13の検出に1つのラインセンサを使用した場合、対象物の一端部を検出している場合と、両端部を検出している場合とが考えられる。このため、1つのラインセンサを使用して端部の検出を行う場合には、このラインセンサの中央に位置するセンサの出力からしきい値との比較を始めるとよい。
Next, an image pattern for auto-zoom is projected onto the
画素Pの位置が画素Sの位置と異なる場合、すなわち画像パターンの端部13を検出した場合、図10(B)に示すように画像パターンはスクリーンサイズよりも小さく投影されている。従って、画像パターンを拡大するように投影レンズ光学系8を駆動する(以下、画像パターンを拡大する方向への投影レンズ光学系8の駆動をワイド駆動と呼ぶ)。例えば、レンズ駆動手段としてステップモータを用いた場合、ワイド側に1ステップ駆動し、この位置のセンサデータを取り出して、スクリーン端部11(画素Sの位置)と画像パターン端部13(画素Pの位置)とを検出する。以後、この処理を画像パターンの端部13とスクリーン1の端部11とが一致するまで、すなわち、センサデータが最初にしきい値を超えた画素Pの位置が、スクリーン端部11の画素Sに一致するまで行う。
When the position of the pixel P is different from the position of the pixel S, that is, when the end 13 of the image pattern is detected, the image pattern is projected smaller than the screen size as shown in FIG. Therefore, the projection lens
また、画素Pの位置が画素Sの位置と同じであった場合、すなわちスクリーン端部11を検出した場合、図10(C)に示すように画像パターンはスクリーンサイズよりも大きく投影されている。そこで、画像パターンを縮小するように投影レンズ光学系8を駆動し(以下、画像パターンを縮小する方向への投影レンズ光学系8の駆動をテレ側駆動と呼ぶ)、図10(B)に示すように画像パターンがスクリーンサイズよりも小さく投影される状態にする。例えば、テレ側に投影レンズ光学系8を1ステップ駆動し、この位置でのセンサデータを取り出して、スクリーン端部11と画像パターン端部13とを検出する。この処理を、画像パターン端部13がスクリーン端部11よりも中心側に来るまで、すなわち、画素Pの位置が、以前に検出してあった画素Sの位置よりも中心側に来るまで繰り返す。その後、ワイド側駆動を行って画像パターンの端部13とスクリーンの端部11とを一致させる。スクリーン外のセンサデータの値は、スクリーン1の配置状況によって変わってしまうため、画像パターンを縮小させる方向でスクリーン1と画像パターンの端部を合わせることは難しい。そこで、本実施例では一端画像パターンがスクリーンサイズよりも小さく投影される状態に縮小しておき、画像パターンを拡大させながらスクリーン端部11に画像パターンを合わせる。
Further, when the position of the pixel P is the same as the position of the pixel S, that is, when the
このように本実施例は、スクリーン端部11の反射光を受光したセンサの画素と、スクリーン1に投影された画像パターンの端部13からの反射光を受光したセンサの画素とを比較して、画像パターンの端部13をスクリーン1の端部11に合わせている。従って、簡単な構成のプロジェクタ装置でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。
Thus, the present embodiment compares the pixel of the sensor that has received the reflected light from the
また、所定のしきい値とセンサデータとの比較を、スクリーン1の中央部から端部に向けて、すなわちラインセンサの中央部から端部に向けて行っている。ラインセンサの中央部は、スクリーン1または画像パターンの反射光、特に白色に対応する反射光を受光しているのでセンサデータの値が略一定となっている。従って、白色と黒色とのセンサデータの差からスクリーン端部11および画像パターンの端部13のセンサデータの判定が容易になり、端部の検出を確実に行うことができる。また、スクリーンの端部11および画像パターンの端部13の検出を容易に、しかも確実にできるので、投影レンズ光学系8を現在の位置からテレ側に駆動すればよいのか、又はワイド側に駆動すればよいのかを容易に判断することができる。
Further, the comparison between the predetermined threshold value and the sensor data is performed from the center of the
なお、プロジェクタ装置においては、投影画像のアスペクト比は一定であるため、画像パターンの端部とスクリーンの端部とを合わせる処理を水平方向と垂直方向のいずれか一方において行えば、他方も必然的に合わされることになる。 In the projector apparatus, since the aspect ratio of the projected image is constant, if the process of aligning the edge of the image pattern and the edge of the screen is performed in either the horizontal direction or the vertical direction, the other is inevitable. Will be matched.
また、本実施例ではスクリーンの端部11を黒色としているが、スクリーン1の背後に黒色の物体(例えば壁)があれば、スクリーン1全体を白色にしてもスクリーンの端部11を十分に検出することができる。
In this embodiment, the
次に上述した各処理の詳細な手順についてフローチャートを参照しながら説明する。まず、図11に示されたフローチャートを参照しながらスクリーン端部検出処理(図9に示すステップS1)の詳細を説明する。画像をスクリーン1に投影しない状態で、受光センサ21から出力される電気信号に演算部22で演算を行いセンサデータを取り出す(ステップS10)。受光センサ21は、スクリーン1の反射光を受光しているため、各センサの出力に演算を行うことでスクリーン1の反射光量に応じたセンサデータが出力される。なお、上述したようにスクリーン端部11の検出に使用するラインセンサは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つを使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dを使用するものであってもよい。
Next, a detailed procedure of each process described above will be described with reference to a flowchart. First, the details of the screen edge detection process (step S1 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. In a state where the image is not projected onto the
制御回路3は、演算部22から出力されるセンサデータとしきい値との比較をスクリーン中央部から端部11の方向に向けて行う(ステップS11)。スクリーン中央部のセンサデータからしきい値との比較を初めて、比較対象を徐々にスクリーン端部11側のセンサデータに移動させる。しきい値よりも大きいセンサデータを検出すると(ステップS11/YES)、当該センサデータの画素番号を記憶する(以下の説明では、この画素番号をSとする)(ステップS12)。また、全画素についてしきい値との比較を行い、しきい値よりも大きいセンサデータを検出することができなかった場合には(ステップS13/YES)、プロジェクタ装置2の図示しない表示部にエラー表示を行う(ステップS14)。また、エラー表示を表示させて再度スクリーン端部の検出処理を行うものであってもよい。なお、1つのラインセンサを使用して端部の検出を行う場合には、このラインセンサの中央に位置するセンサの出力からしきい値との比較を始めるとよい。
The
次に、図12に示されたフローチャートを参照しながらオートフォーカス(図9に示すステップS2)の動作手順を説明する。なお、ここでは山登りオートフォーカスについて説明するが、オートフォーカスは、山登りオートフォーカスに限定されるものではなく、他の方法を適用することができる。また、以下では、ステップモータを用いて投影レンズ光学系8を駆動する例を説明するが、他のモータ、例えばDCモータなどを用いることも可能である。この場合、DCモータへの通電時間によって投影レンズ光学系8の駆動量を制御する。まず、光学系駆動部7により投影レンズ光学系8が初期位置に駆動され、計測結果を記憶するメモリ部4の領域が初期化される(ステップS20)。初期化される情報としては、自動焦点検出装置20で算出されるコントラスト値(cont)と、算出されたコントラスト値の中で値が最大となるコントラスト値(Max_cont)と、初期位置からMax_cont位置までのステップ数の情報などが挙げられる。
Next, the operation procedure of autofocus (step S2 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. Although hill-climbing autofocus is described here, autofocus is not limited to hill-climbing autofocus, and other methods can be applied. In the following, an example in which the projection lens
次に、プロジェクタ装置2内に予め記憶されている、自動焦点調節に適したオートフォーカス用の画像パターンを投影レンズ光学系8によりスクリーン1上に投影する(ステップS21)。
Next, an image pattern for autofocus suitable for automatic focus adjustment stored in advance in the
次に、図3に示すようにステッピングモータ等の光学系駆動部7により投影レンズ光学系8を初期位置から一定速度で移動させる(繰り出し開始)。なお、初期位置とは、投影レンズ光学系8によって投影される画像のピントが合う位置(合焦位置)が無限遠となる投影レンズ光学系8の位置である。同時に受光センサ21がスクリーン1に投影された画像パターンの反射光を受光する(ステップS22)。受光センサ21は受光した反射光量に応じた電気信号を後段の演算部22に出力する(ステップS23)。受光センサ21からの電気信号は演算部22でフィルタ処理、A/D変換処理、積分処理などが施され(ステップS24)、画像のコントラスト値(cont)が算出される(ステップS25)。算出されたコントラスト値(cont)は、制御回路3に出力される。
Next, as shown in FIG. 3, the projection lens
制御回路3は、演算部22で算出されたコントラスト値(cont)が、最大のコントラスト値(Max_cont)よりも大きいか否かを判定する。最大のコントラスト値(Max_cont)とは、算出したコントラスト値よりも前に得られたコントラスト値の中で値が最大のものである。もし、算出したコントラスト値(cont)が最大コントラスト値(Max_cont)よりも大きければ(ステップS26/YES)、コントラスト値(cont)を最大コントラスト値(Max_cont)として入れ換え、この位置までのステップ数(初期位置を0として起算したもの)をメモリ部4に登録する(ステップS27)また、算出したコントラスト値が最大コントラスト値(Max_cont)よりも小さい場合には(ステップS26/NO)、このコントラスト値に対する処理を終了する。
The
次に、制御回路3はステッピングモータを駆動するステップ数が、予め設定されたステップ数に達したかどうかを確認する(ステップS28)。投影レンズ光学系8を初期位置から最近位置まで駆動させるためのステップ数は予め決まっているため、現在の駆動ステップ数が、この最近位置までのステップ数に達したかどうかを判定する。達していなければ(ステップS28/NO)、受光センサ21で出力される反射光量に応じた電気信号からコントラスト値を算出し、最大コントラスト値(Max_cont)と比較する手順を繰り返す。なお、最近位置とは、投影レンズ光学系8がプロジェクタ装置2に最も近い位置にピントを合わせることができる投影レンズ光学系8の位置である。
Next, the
現在の駆動ステップ数が、最近位置までのステップ数に達した場合には(ステップS28/YES)、コントラスト値の測定を終了し、検出したMax_cont位置へ投影レンズ光学系8を移動させる制御を行う(ステップS29)。このような手順を経ることで、投影される画像の焦点をスクリーンに合わせることができる。
When the current number of driving steps reaches the number of steps up to the nearest position (step S28 / YES), the measurement of the contrast value is terminated, and control is performed to move the projection lens
次に、図13に示されたフローチャートを参照しながら台形歪み補正(図9に示すステップS3)の手順を説明する。まず、投影レンズ光学系8によりスクリーン1上に位相差検出用の画像パターンを投影する(ステップS30)。第1パッシブ測距装置30、及び第2パッシブ測距装置40で位相差の検出が容易となるように、白と黒の縦縞の画像パターンが位相差検出用画像として使用される。スクリーン1上に投影された位相検出用画像の反射光を第1パッシブ測距装置30、および第2パッシブ測距装置40で受光して、プロジェクタ装置2からスクリーン1上の複数の測定位置までの距離を測距する(ステップS31)。位相差検出用画像の反射光をラインセンサ31c,31d,41c,41dでそれぞれ受光し、各ラインセンサの基準位置からのずれ量(位相差)を演算部32、42でそれぞれ検出して、測定対象(スクリーン1上の測定位置)までの距離を測定する。演算部32は、ラインセンサ31c,31dから出力される一対の画像データ信号列からそれぞれ抽出した部分画像データ群について相関演算を行い、ずれ量を検出する。演算部42についても同様に、ラインセンサ41c、41dから出力される画像データに対して相関演算を行い、ずれ量を検出する。第1パッシブ測距装置30、および第2パッシブ測距装置40によって測距された測距データは、制御回路3に送信される。
Next, the procedure of trapezoidal distortion correction (step S3 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. First, an image pattern for phase difference detection is projected on the
次に、測距データを用いて角度演算を行う(ステップS32)。第1パッシブ測距装置30の測距データにより第1基準方向に対するスクリーン1の傾斜角度θ1(図7参照)を算出する方法を例に挙げて、角度演算について説明する。図14に示すように、第1パッシブ測距装置30の第1基準方向(プロジェクタ装置2の水平方向)に対するスクリーン1の傾斜角度をθ1とし、測距位置1Aに対して測距演算領域31cCを用いて測距演算された結果をLl、測距位置1Bに対して測距演算領域31cRを用いて測距演算された結果をL2、測距位置1Aと光軸Lとの距離をL1’、測距位置1Bと光軸Lとの距離をL2’とすると、傾斜角度θ1は、
tanθ1=(L2−L1)/(L1’+L2’)
で求められる。
Next, angle calculation is performed using distance measurement data (step S32). The angle calculation will be described by taking as an example a method of calculating the tilt angle θ1 (see FIG. 7) of the
tan θ1 = (L2−L1) / (L1 ′ + L2 ′)
Is required.
ここで、三角形の相似により、L1:L1’=f:P(1a−k)が成り立つ。これを展開すると、L1’=PL1(1a−k)/fとなる。ここで、1aは測距演算領域31cLに結像した測距位置1Aのコントラスト重心位置に相当する画素番号、kは光軸に相当するラインセンサの画素番号、Pはラインセンサの画素ピッチ、fは焦点距離である。同様に、L2’は、L2’=PL2(1b−k)/fで表わせる。ここで、1bは測距演算領域31cRに結像した測距位置1Bのコントラスト重心位置に相当する画素番号である。なお、P及びfは設計段階等で求められる定数であり、これらの値は制御回路3内に予め記憶しておく。なお、コントラスト重心位置の求め方については公知技術(例えば特開平8−75985号参照)であるため、本実施例では、その説明を省略する。また、第2パッシブ測距装置40の測距データに基づいて、第2基準方向に対するスクリーン1の傾斜角度θ2を算出する方法についても同様の方法を適用することができる。
Here, L1: L1 ′ = f: P (1a−k) holds due to the similarity of the triangles. When this is expanded, L1 '= PL1 (1a-k) / f. Here, 1a is the pixel number corresponding to the contrast centroid position of the distance measurement position 1A imaged in the distance calculation calculation area 31cL, k is the pixel number of the line sensor corresponding to the optical axis, P is the pixel pitch of the line sensor, f Is the focal length. Similarly, L2 'can be expressed by L2' = PL2 (1b-k) / f. Here, 1b is a pixel number corresponding to the contrast gravity center position of the
傾斜角θ1、θ2が求まると、制御回路3は求めた傾斜角θ1、θ2を表示駆動部6に出力する。表示駆動部6は、制御回路3が算出した水平方向および垂直方向の傾斜角に基づきコンデンサレンズを含む投影レンズ光学系8を調整して投影画像の台形歪みを補正する(ステップS33)。また、投影画像生成部5において制御回路3が算出した水平方向および垂直方向の傾斜角度に基づき投影画像とは逆の台形歪みのある画像の表示データを生成し(キーストン補正)、投影画像の台形歪みを電気的に補正するようにしてもよい。
When the inclination angles θ1 and θ2 are obtained, the
次に、図15に示されたフローチャートを参照しながら投影画像調整処理(図9に示すステップS4)の詳細な動作手順を説明する。まず、オートズーム用の画像パターンをスクリーン1に投影する(ステップS40)。オートズーム用の画像パターンは、白色の画像領域12と黒色の端部13とからなる。スクリーン1に投影された画像パターンを図10(B)に示す。画像パターンは、画像パターンの中心とスクリーン1の中心とがほぼ一致するようにスクリーン1上に投影されているとよい。スクリーン1での反射光を自動焦点検出装置20の受光センサ21で受光する。受光センサ21からは反射光量に応じた電気信号が演算部22に送られる。演算部22は、入力した電気信号から高周波成分を高域通過フィルタ221で取り出し、検波器222で振幅検波を行い、検波器222の出力をA/D変換したセンサデータを制御回路3に出力する(ステップS41)。なお、上述したように端部の検出に使用するラインセンサは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つを使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dを使用するものであってもよい。
Next, a detailed operation procedure of the projection image adjustment process (step S4 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. First, an image pattern for auto zoom is projected onto the screen 1 (step S40). The image pattern for auto zooming includes a white image region 12 and a black end portion 13. An image pattern projected on the
演算部22で演算され取り出されたセンサデータには、スクリーン1の反射光と画像パターンの反射光とが含まれており、センサデータをしきい値と比較することで、スクリーンの端部11と画像パターンの端部13とを検出することができる。制御回路3は、センサデータとしきい値との比較をスクリーン中央部から端部に向けて行い、センサデータが最初にしきい値を超えた画素(以後、この画素を画素Pと呼ぶ)を検出する。この画素Pの画素番号をメモリ部4に記憶する。なお、スクリーン中央部から端部の方向へセンサデータとしきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS46/YES)、図示しない表示部にエラー表示を行う(ステップS47)。また、エラー表示を表示させた後に、再度画像パターンをスクリーン1に投影して、投影画像調整処理を行うものであってもよい。また、1つのラインセンサを使用して端部の検出を行う場合には、このラインセンサの中央に位置するセンサの出力からしきい値との比較を始めるとよい。
The sensor data calculated and extracted by the
センサデータの値が最初にしきい値を超えた画素Pを検出すると(ステップS42/YES)、制御回路3は、画素Pを、スクリーン端部検出処理で検出した画素Sと比較する(ステップS44)。画素Pの画素番号が画素Sの画素番号と同一であった場合には(ステップS44/YES)、そこがスクリーン1の表示領域10と端部11との境界であると判定できる(すなわち、画像パターンの端部は、図10(C)に示すスクリーンよりも外側にある状態となる)。また、検出した画素Pの画素番号が,画素Sの画素番号と異なる場合(すなわち、画素Pの位置が画素Sの位置よりもスクリーン中央部に近い場合)(ステップS44/NO)、そこが投影した画像パターンの画像領域12と端部13との境界であると判定することができる。
When the pixel P whose sensor data value first exceeds the threshold value is detected (step S42 / YES), the
画素Pと画素Sの画素番号が一致しなかった場合には(ステップS44/NO)、図10(B)に示すように画素Pが画素Sよりも中央部よりにある(画像パターンの端部13がスクリーン端部11よりも内側にある)と判断できるので、投影レンズ光学系8をワイド側に駆動して、画素Pを画素Sに合わせる(画像パターンの端部13をスクリーンの端部11に合わせる)(ステップS45)。また、画素Pと画素Sの画素番号が一致した場合には(ステップ44/YES)、図10(C)に示すように投影した画像パターンはスクリーンサイズよりも大きく投影されている(スクリーン端部11よりも外側に画像パターンの端部13がある)ので、画像パターンを縮小し(ステップS48)、スクリーン端部11の画素Sよりも内側に画素Pが検出できるようにする。その後、ワイド側駆動を行って画像パターンを拡大させて画素Pを画素Sに合わせる(ステップS49)。
When the pixel numbers of the pixel P and the pixel S do not match (step S44 / NO), as shown in FIG. 10B, the pixel P is closer to the center than the pixel S (the end of the image pattern). 13 is located on the inner side of the screen end 11), the projection lens
次に、図16に示されたフローチャートを参照しながらワイド側駆動処理(図15のステップS45及びステップS49)の詳細手順を説明する。まず、投影レンズ光学系8をワイド側に1ステップ駆動する(ステップS50)。この位置で画像パターンをスクリーン1に投影し、スクリーン1からの反射光を受光センサ21で受光する。受光センサ21の出力を演算部22で演算しセンサデータを出力する(ステップS51)。制御回路3は、センサデータとしきい値との比較をスクリーン中央部からスクリーン端部に向けて行う(ステップS52)。スクリーン中央部のセンサデータからしきい値との比較を初めて、比較対象を徐々にスクリーン端部11側のセンサデータに変えていく。しきい値よりも大きいセンサデータを検出すると(ステップS52/YES)、当該センサデータの画素番号を記憶する(以下の説明では、この画素番号をPとする)(ステップS53)。なお、スクリーン中央部から端部の方向へセンサデータとしきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS55/YES)、図示しない表示部にエラー表示を行う(ステップS56)。
Next, a detailed procedure of the wide side driving process (step S45 and step S49 in FIG. 15) will be described with reference to the flowchart shown in FIG. First, the projection lens
センサデータの値が最初にしきい値を超えた画素Pを検出すると(ステップS52/YES)、制御回路3は、画素Pを、スクリーン端部検出処理(ステップS1)で検出した画素Sと比較する(ステップS54)。画素Pの画素番号と画素Sの画素番号とが一致した場合(ステップS54/YES)、投影した画像パターンの端部13をスクリーンの端部11に一致させることができたので、この処理を終了する。画素Pの画素番号が、画素Sの画素番号に一致していなかった場合には、上述したステップS50〜ステップS53までの処理を繰り返し行い、画素Pの画素番号と画素Sの画素番号とを一致させる。
When the pixel P whose sensor data value first exceeds the threshold value is detected (step S52 / YES), the
次に、図17に示されたフローチャートを参照しながらテレ側駆動処理(図15のステップS48)の詳細手順を説明する。まず、投影レンズ光学系8をテレ側に1ステップ駆動する(ステップS60)。この位置で画像パターンをスクリーン1に投影し、スクリーン1からの反射光を受光センサ21で受光する。受光センサ21の出力を演算部22で演算しセンサデータを出力する(ステップS61)。制御回路3は、センサデータとしきい値との比較をスクリーン中央部からスクリーン端部に向けて行う(ステップS62)。スクリーン中央部のセンサデータからしきい値との比較を初めて、比較対象を徐々にスクリーン端部11側のセンサデータに変えていく。しきい値よりも大きいセンサデータを検出すると(ステップS62/YES)、当該センサデータの画素番号を記憶する(以下の説明では、この画素番号をPとする)(ステップS63)。なお、スクリーン中央から端部の方向へセンサデータとしきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS65/YES)、図示しない表示部にエラー表示を行う(ステップS66)。
Next, the detailed procedure of the tele-side drive process (step S48 in FIG. 15) will be described with reference to the flowchart shown in FIG. First, the projection lens
センサデータの値が最初にしきい値を超えた画素Pを検出すると(ステップS62/YES)、制御回路3は、画素Pを、スクリーン端部検出処理(ステップ1)で検出した画素Sと比較する(ステップS64)。画素Pの画素番号と画素Sの画素番号とが一致した場合(ステップS64/YES)、投影した画像パターンは未だにスクリーンサイズよりも大きく投影されていることになるので、上述したステップS60〜ステップS63までの処理を繰り返し行い、画素Pの画素番号が画素Sの画素番号と一致しないようにする。また、画素Pの画素番号と画素Sの画素番号とが一致しなかった場合には(ステップS64/NO)投影した画像パターンの端部13がスクリーンの端部11よりも内側に入ったと判定することができる。従って、上述したワイド側駆動処理を行って画像パターンを拡大表示させ、画像パターンの端部13をスクリーン1の端部11に合わせる。
When the pixel P whose sensor data value first exceeds the threshold value is detected (step S62 / YES), the
なお、上述した実施例は本発明の好適な実施例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
1 スクリーン 2 プロジェクタ装置
3 制御回路 4 メモリ部
5 投影画像生成部 6 表示駆動部
7 光学系駆動部 8 投影レンズ光学系
20 自動焦点検出装置 21 受光センサ
22 演算部 30 第1パッシブ測距装置
31 撮像部 31a,31b レンズ
31c,31d ラインセンサ 32 演算部
40 第2パッシブ測距装置 41 撮像部
41a,41b レンズ 41c,41d ラインセンサ
42 演算部 221 HPF
222 検波器 223 A/D変換器
224 積分器
DESCRIPTION OF
222 Detector 223 A /
Claims (8)
複数の画素を有するセンサを備え、受光量に応じたセンサデータを出力するセンサデータ出力手段と、
前記スクリーン端部の反射光を受光した前記画素と、前記スクリーンに投影された前記画像の端部の反射光を受光した前記画素とを比較して、前記画像の端部を前記スクリーンの端部に合わせるように前記画像投影手段を制御する制御手段と、を有することを特徴とするプロジェクタ装置。 Image projection means for enlarging and displaying an image on a screen;
Sensor data output means comprising a sensor having a plurality of pixels and outputting sensor data according to the amount of received light;
The pixel receiving the reflected light at the screen edge is compared with the pixel receiving the reflected light at the edge of the image projected on the screen, and the edge of the image is compared with the edge of the screen. Control means for controlling the image projection means so as to match the projector.
前記センサからのセンサデータにより、前記スクリーン端部の反射光を受光した前記画素を特定するスクリーン端部位置特定工程と、
前記スクリーンに画像を投影する画像投影工程と、
前記画像のスクリーンでの反射光を前記センサで受光して、反射光量に応じたセンサデータを出力する第2センサデータ出力工程と、
前記センサからのセンサデータにより、前記スクリーンに投影された前記画像の端部の反射光を受光した前記画素を特定する画像端部特定工程と、
前記スクリーン端部の反射光を受光した前記画素と、前記スクリーンに投影された画像の端部の反射光を受光した前記画素とを比較して、前記画像の端部を前記スクリーンの端部に合わせる画像調整工程と、を有することを特徴とする投影画像調整方法。 A first sensor data output step of receiving reflected light of the screen by a sensor having a plurality of pixels and outputting sensor data corresponding to the amount of reflected light;
A screen end position specifying step for specifying the pixel that has received the reflected light from the screen end by sensor data from the sensor;
An image projecting step of projecting an image on the screen;
A second sensor data output step of receiving reflected light on the screen of the image by the sensor and outputting sensor data according to the amount of reflected light;
An image edge specifying step for specifying the pixel that has received the reflected light at the edge of the image projected on the screen, based on sensor data from the sensor;
The pixel that has received the reflected light at the edge of the screen is compared with the pixel that has received the reflected light at the edge of the image projected on the screen, and the edge of the image is used as the edge of the screen. A projection image adjustment method comprising: an image adjustment step for matching.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003422975A JP2005181726A (en) | 2003-12-19 | 2003-12-19 | Projector apparatus and method for adjusting projected image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003422975A JP2005181726A (en) | 2003-12-19 | 2003-12-19 | Projector apparatus and method for adjusting projected image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005181726A true JP2005181726A (en) | 2005-07-07 |
Family
ID=34783665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003422975A Pending JP2005181726A (en) | 2003-12-19 | 2003-12-19 | Projector apparatus and method for adjusting projected image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005181726A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041152A (en) * | 2005-08-01 | 2007-02-15 | Matsushita Electric Works Ltd | Arrangement grid creation system and hall using the same |
WO2007135999A1 (en) * | 2006-05-22 | 2007-11-29 | Alps Electric Co., Ltd. | Projection device |
JP2008304943A (en) * | 2008-09-08 | 2008-12-18 | Seiko Epson Corp | Light source driving method and projector |
WO2013024705A1 (en) | 2011-08-18 | 2013-02-21 | Ricoh Company, Ltd. | Projector and control method thereof |
US9696613B2 (en) | 2011-08-18 | 2017-07-04 | Ricoh Company, Ltd. | Image processing apparatus, projector and image processing method |
US10908075B2 (en) | 2010-11-11 | 2021-02-02 | Sony Corporation | Fluorescent spectrum correcting method and fluorescent spectrum measuring device |
-
2003
- 2003-12-19 JP JP2003422975A patent/JP2005181726A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041152A (en) * | 2005-08-01 | 2007-02-15 | Matsushita Electric Works Ltd | Arrangement grid creation system and hall using the same |
WO2007135999A1 (en) * | 2006-05-22 | 2007-11-29 | Alps Electric Co., Ltd. | Projection device |
JP2008304943A (en) * | 2008-09-08 | 2008-12-18 | Seiko Epson Corp | Light source driving method and projector |
US10908075B2 (en) | 2010-11-11 | 2021-02-02 | Sony Corporation | Fluorescent spectrum correcting method and fluorescent spectrum measuring device |
US11454588B2 (en) | 2010-11-11 | 2022-09-27 | Sony Corporation | Fluorescent spectrum correcting method and fluorescent spectrum measuring device |
US11726031B2 (en) | 2010-11-11 | 2023-08-15 | Sony Group Corporation | Fluorescent spectrum correcting method and fluorescent spectrum measuring device |
WO2013024705A1 (en) | 2011-08-18 | 2013-02-21 | Ricoh Company, Ltd. | Projector and control method thereof |
US8953101B2 (en) | 2011-08-18 | 2015-02-10 | Ricoh Company, Ltd. | Projector and control method thereof |
US9696613B2 (en) | 2011-08-18 | 2017-07-04 | Ricoh Company, Ltd. | Image processing apparatus, projector and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6885819B2 (en) | Camera, device for capturing object image, automatic focus adjusting system and method for adjusting automatic focus for the same | |
RU2456654C2 (en) | Image capturing device, control method thereof and data medium | |
JP4963569B2 (en) | Imaging system and lens unit | |
JP2003131121A (en) | Device and method for automatic focus adjustment | |
JP2008287171A (en) | Projection type image display device | |
JP2008309882A (en) | Digital camera | |
US7796877B2 (en) | Focus-controlling apparatus and photographing apparatus | |
JP2007264299A (en) | Focus adjustment device | |
JP4045483B2 (en) | Focus status detection device | |
US7570298B2 (en) | Image-taking apparatus with first focus control such that in-focus position is searched for based on first signal and second focus control such that one of in-focus position and drive amount is determined based on second signal | |
EP1571477A2 (en) | Focus detecting system | |
JP2005181726A (en) | Projector apparatus and method for adjusting projected image | |
US20090237550A1 (en) | Focus adjustment apparatus and image capturing apparatus | |
US20070058962A1 (en) | Lens apparatus | |
JP2005249432A (en) | Projector device and distance measuring method | |
JP2005234071A (en) | Projector device and projection image adjustment method | |
JP2005049604A (en) | Projector and focusing method for projector | |
JP2005143043A (en) | Projector and focus detecting method | |
JP2005234350A (en) | Projector device and focus adjusting method | |
JP2004361809A (en) | Autofocus camera | |
JP3382321B2 (en) | Optical equipment | |
JP2004347908A (en) | Projector and automatic focusing method | |
WO2004104668A1 (en) | Projector and image adjusting method | |
JP2005123725A (en) | Projector and method for correcting trapezoidal distortion thereof | |
JP2004151608A (en) | Autofocus system |