JP2004347911A - Projector and automatic focusing method - Google Patents

Projector and automatic focusing method Download PDF

Info

Publication number
JP2004347911A
JP2004347911A JP2003145726A JP2003145726A JP2004347911A JP 2004347911 A JP2004347911 A JP 2004347911A JP 2003145726 A JP2003145726 A JP 2003145726A JP 2003145726 A JP2003145726 A JP 2003145726A JP 2004347911 A JP2004347911 A JP 2004347911A
Authority
JP
Japan
Prior art keywords
screen
image
optical system
projection lens
lens optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003145726A
Other languages
Japanese (ja)
Inventor
Shiroshi Kanemitsu
史呂志 金光
Kazuyuki Akiyama
和之 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Precision Inc
Original Assignee
Seiko Precision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Precision Inc filed Critical Seiko Precision Inc
Priority to JP2003145726A priority Critical patent/JP2004347911A/en
Publication of JP2004347911A publication Critical patent/JP2004347911A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To correct the trapezoidal distortion of an image on a screen by using a passive range-finding device having a pair of line sensors and also to perform the focusing of the image on the screen by using the pair of line sensors without using a light emitting element in a projector. <P>SOLUTION: The projector (2) includes a projection lens optical system (8) projecting the image to the screen (1), an angle detector including a pair of line sensors (31c and 31d) for correcting the trapezoidal distortion of the image projected to the screen by the optical system (8), and an automatic focus detector (20) receiving the image projected to the screen by using a pair of line sensors so as to detect the focusing position of the image projected thereto while moving the focal position of the optical system (8), measuring a spot where the high frequency component of an image signal becomes maximum, and adjusting the focal position of the optical system (8) to the spot where the high frequency component becomes maximum. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、一対のラインセンサを備えた角度検出装置を備えて画像の台形歪みを補正すると共に投影レンズ光学系を動かしながらスクリーン上の画像を前記一対のラインセンサで受光して得られる画像信号を測定して合焦位置を調節する自動焦点装置を備えたプロジェクタ及びスクリーン上に投影された画像の自動焦点調節方法に関する。
【0002】
【従来の技術】
従来より、投影レンズ光学系を使用してスクリーン上に画像を投影する液晶プロジェクタなどのプロジェクタにおいて、自動的にスクリーン上に投影された画像の台形歪みを補正すること及び焦点合せをすることが、プロジェクタの利便性を高めるために望まれている。
【0003】
特許文献1には、発光素子を含んだアクティブ式測距装置を使用して自動的にスクリーン上に投影された画像の焦点合せをする液晶プロジェクタが開示されている。
特許文献2には、発光素子を含んだアクティブ式測距装置を使用してスクリーンの相対的な傾斜角度を算出してスクリーン上に投影された画像の台形歪みを自動的に補正する液晶プロジェクタが開示されている。
【0004】
【特許文献1】
特開平11−264963号公報
【特許文献2】
特開平2000−122617号公報
【0005】
【発明が解決しようとする課題】
しかし、特許文献1及び2に記載された従来のプロジェクタでは、それぞれ発光素子を含んだアクティブ測距センサにより、スクリーンまでの距離を測定して、焦点距離情報を得たり、スクリーンとの相対的な傾斜角度を求めるものであるため、従来のプロジェクタでは画像投影用とは別にそれぞれ測距専用の発光素子が必要となり、構造が大きくなり、さらに測距用の発光素子を発光させるための電力が必要となる問題点がある。また、特許文献1及び2に記載された従来のプロジェクタでは、発光素子を含むアクティブ測距センサを使用するため、発光素子の光がプロジェクタの画像が投影されるスクリーンまで届かない若しくは届いても発光素子の光が弱い場合、測距精度が下がり、正確な焦点合せと台形歪みの補正ができないという問題点がある。
【0006】
本発明の目的は上記した従来の問題点を解決してスクリーン上に投影された画像の台形歪みを補正し且つ正確に自動的に合焦調節できるプロジェクタ及び自動焦点調節方法を提供することにある。
【0007】
【課題を解決するための手段】
請求項1に記載された本発明によれば、スクリーン上に画像を投影する投影レンズ光学系と、当該投影レンズ光学系により前記スクリーン上に投影された画像の台形歪みを補正するための一対のラインセンサを含む角度検出装置と、前記投影レンズ光学系の焦点位置を動かしながら前記投影された画像を前記一対のラインセンサにより受光して得られる画像信号が最大となる所を測定して前記投影レンズ光学系の焦点位置を前記最大となる所に調節する自動焦点検出装置とを備えたプロジェクタが提供される。
【0008】
請求項1のかかる構成によれば、一対のラインセンサを有する角度検出装置によりスクリーン上に投影された画像を受光してその位相差を求めることでスクリーン上の複数の画像までの距離を測定してスクリーン平面の相対的な傾斜角度を計算する。この角度検出装置により別途に発光素子を必要とせずにスクリーン上に投影された画像の台形歪みを補正することができる。さらに、プロジェクタが投影レンズ光学系の焦点位置を動かしながらスクリーン上に投影した画像を角度検出装置の一対のラインセンサで受光して得られる画像信号を測定して、画像信号が最大となる所を見つけ、そこを合焦位置として投影レンズ光学系の焦点を調節する。これは、スクリーン上に投影された画像の焦点が合った時には画像の解像度が最高になり、細かい画素の明暗がはっきりと表示されるために画像信号も最高となる点に着目している。本発明によれば、別途に発光素子を必要とせず、しかも角度検出用の一対のラインセンサを使用してスクリーン上に投影された画像の台形歪みの補正と自動合焦(オートフォーカス)の両方ができる。
【0009】
請求項2に記載された本発明によれば、前記自動焦点検出装置は、前記一対のラインセンサがそれぞれ受光した前記画像信号の平均値を測定する請求項1に記載のプロジェクタが提供される。
【0010】
請求項2のかかる構成によれば、一対のラインセンサがそれぞれ受光した画像信号の平均値を測定して、その最大となる所を測定するために、一対のラインセンサの取り付け誤差や一対のラインセンサに画像を結像するレンズ特性による誤差を吸収でき、正確に合焦位置を求めて焦点調節ができ、信頼性の高いオートフォーカスが可能となる。
【0011】
請求項3に記載された本発明によれば、前記自動焦点検出装置は、前記画像信号が最大となる所に前記投影レンズ光学系の焦点位置を調節した後、その位置から所定間隔だけ前記投影光学レンズ系を最遠焦点位置方向及び最近焦点位置方向へ移動しながら前記スクリーン上に投影された画像を受光して得られる画像信号が最大となる所を再度測定して焦点位置を再度調節する請求項1乃至2に記載のプロジェクタが提供される。
【0012】
請求項3のかかる構成によれば、全範囲を移動して画像信号が最大となる所を検出してその最大となる所に投影レンズ光学系を調節した後、投影レンズ光学系を所定間隔だけ最遠焦点位置方向と最近焦点位置方向に移動して画像信号が最大となる所を再度測定して、投影レンズ光学系の焦点位置を再度調節する。この結果、最初の操作により投影レンズ光学系を駆動する光学系駆動部が移動誤差等により正確に画像信号が最大となる所に投影レンズ光学系を正確に調節することができなくとも、正確に合焦位置に調節することができる。
【0013】
請求項4に記載された本発明によれば、投影レンズ光学系によりスクリーン上に投影された画像を調節する方法であって、前記投影レンズ光学系の焦点位置を移動しながら前記スクリーン上に画像を投影するステップと、投影された前記画像を一対のラインセンサにより受光して得られる画像信号が最大となる所を測定するステップと、前記最大となる所に前記投影レンズ光学系の焦点位置を調節するステップと、前記調節するステップ後に前記一対のラインセンサを使用して前記スクリーン上に投影された画像までの距離を測定して前記スクリーンの相対的な傾斜角度を算出して前記画像の台形歪みを補正するステップと、前記台形歪みを補正するステップの後に前記一対のラインセンサを使用して前記スクリーン上に投影された画像までの距離を測定して前記投影レンズ光学系の焦点位置を再度調節するステップとを備えた画像調節方法が提供される。
【0014】
請求項4にかかる構成によれば、最初に自動焦点検出装置によりスクリーン上に投影される画像の合焦位置を求める。投影レンズ光学系を動かしながら一対のラインセンサを使用して受光した画像信号が最大となる所を測定し、その所に投影レンズ光学系の焦点を調節して合焦する。この自動焦点検出装置による合焦位置検出の際、プロジェクタからスクリーン上に投影される画像は焦点合せに適当ならば繰返しパターンを持つものでも良い。次に、一対のラインセンサを使用してスクリーン上に投影された画像の台形歪みを補正する。この際、繰返しパターンを含まない画像を投影する。これは一対のラインセンサが受光した画像の位相差を使用してプロジェクタからスクリーン上に投影された画像の複数箇所までの距離を測定するため、繰返しパターンを含む画像は位相差測定に不向きだからである。投影レンズ光学系がスクリーン上に投影する画像の合焦調節をしているため、台形歪みを補正する際に使用する画像もスクリーン上に焦点が合って投影できる。このため、一対のラインセンサが受光した画像はコントラストが高くて、高い位相差を得ることができる。この結果、比較的に高精度にプロジェクタからスクリーン上に投影された画像の複数箇所までの距離を測定することができ、従って、スクリーンの相対的な傾斜角度を比較的高精度に求めることができ、よって高精度で台形歪みを補正することができる。この台形歪みを補正した後、再度投影レンズ光学系の焦点を調節する。台形歪みを補正する際には合焦がずれることがあるからである。このため、一対のラインセンサによりプロジェクタからスクリーン上に投影された画像の複数箇所までの距離を測定し、この測距結果に基づいて、台形歪み補正後の焦点の変動を補正する。また、比較的大型スクリーンの場合にはスクリーンの特定箇所、例えば、中央位置、に画像の焦点が特に合うように投影レンズ光学系の焦点を再調節するようにしてもよい。この焦点再調節は投影レンズ光学系の最初の合焦位置からの微調節で済むから、電力消費を抑えることができる。
【0015】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の実施の形態について詳細に説明する。図1は、本実施の形態による自動焦点検出装置と角度検出装置を備え、自動的に検出した焦点位置に基づいてスクリーン1上にプロジェクタ2の投影レンズ光学系8により投影される画像の焦点合せをし、そして検出したスクリーン1の相対的な傾斜角度に基づいてスクリーン1に投影される画像の台形歪を電気的に補正するプロジェクタ2の概略ブロック図を示す。
【0016】
本実施の形態による自動焦点検出装置20は、ライン型パッシブ測距装置3の撮像部31にある一対のラインセンサ(31c及び31d、図10)を介して、スクリーン1上に投影レンズ光学系8により投影された画像を受光する。一対のラインセンサ(31c及び31d、図10)の出力は自動焦点検出装置20内の演算部22に送られる。演算部22は、ラインセンサが出力する画像信号の高周波成分又はコントラストデータを測定する。
【0017】
本実施の形態による角度検出装置は、水平面内及び垂直面内において、スクリーン1に対するプロジェクタ2の相対的な傾斜角度を検出するため、プロジェクタ2からスクリーン1平面上の水平方向に並んだ複数の位置までの距離を測定する第1ライン型パッシブ測距装置3及び及び垂直方向に並んだ複数の位置までの距離を測定する第2ライン型パッシブ測距装置4を備える。ライン型測距装置は、後述するように複数の光検出器セルが直線状に配列された一対のラインセンサ(31c及び31d、図10)を有する。自動焦点検出装置20は、このラインセンサを使用してスクリーン1上の画像を受光する。自動焦点検出装置20の演算部22にラインセンサの出力が入力する。本実施の形態の自動焦点検出装置20及びパッシブ測距装置3と4は、自らが発光したり送信したりせず、後述する方法でプロジェクタ2の投影レンズ光学系8によりスクリーン1に投影された画像を受光して合焦位置及び距離を測定する。
【0018】
図2は、図1に示すプロジェクタ2の正面の構成を示す平面図である。図2に示すようにプロジェクタ2の正面には、投影レンズ光学系8(コンデンサレンズ等を含んでもよい。)が設けられていて、スクリーン1へ画像を投影する。第1ライン型パッシブ測距装置3は、プロジェクタ2の正面を構成する平面上に、水平方向に延びた第1の基線長k(図11)だけ離間して配置された一対のレンズ31a及び31bを備えた撮像部31を有する。同じく第2ライン型パッシブ測距装置4は、プロジェクタ2の正面を構成する同じ平面上に、撮像部31の水平方向と直交する垂直方向へ延びて第2の基線長k’(図示せず)だけ離間して配置された一対のレンズ41a及び41bを備えた撮像部41を有する。
【0019】
次に、図1と図3を併せて参照して、本実施の形態による自動焦点検出装置20を説明する。自動焦点検出装置20の演算部22は、一対のラインセンサ(31c及び31d、図10)から出力された画像信号から高周波成分又はコントラストデータのみを通過させる高域通過フィルタ(HPF)22a、検波器22b、A/D変換器22c、及び積分器22dを有する。プロジェクタ2の電源スイッチが投入された時などに、プロジェクタ2は予め記憶されている自動焦点に適当なAF用パターン(繰返しパターンを含んでも良い)を投影画像生成部6から取り出して透過型液晶表示駆動部7に送り、投影レンズ光学系8を介してスクリーン1上に投影する。光学系駆動部23はステップモーター等を含み、投影レンズ光学系8を光軸方向に沿って前後に移動して、スクリーン1上に投影される画像の合焦位置を調節する。すなわち、自動焦点検出装置20がスクリーン1上に投影された画像を一対のラインセンサで受光し、演算部22の積分器22dから図4に示されるような高周波成分又はコントラストデータを出力して、制御回路5に送る。制御回路5は自動焦点検出装置10の演算部22からの出力に基づいて以下に説明するように光学系駆動部23と投影レンズ光学系8を制御して自動焦点検出を行ない、合焦調節を行なう。
【0020】
次に、図4を参照して、本実施の形態による自動焦点検出装置20による合焦位置検出方法を説明する。まず、プロジェクタ2の電源投入時等に投影レンズ光学系8から投影される画像がスクリーン1が無限遠にある場合に焦点が合う初期位置に投影レンズ光学系8を設定する。そして、光学系駆動部23は、投影レンズ光学系8の焦点位置を無限遠の焦点位置から最近焦点位置(プロジェクタにより決まる位置、例えば、1m)へと全範囲を移動する。その際、演算部22からの出力は図4に示すように、スクリーン1上の画像が合焦位置に近づくにつれて画像の解像度が増すため高周波成分又はコントラストデータが増加する。スクリーン1上の画像が合焦位置に達すると高周波成分は最高となり、その後は焦点が外れて解像度が落ちるために高周波成分は低下する。このように、投影レンズ光学系8を無限遠焦点位置から最近焦点位置まで移動して高周波成分又はコントラストデータを測定した後、高周波成分又はコントラストデータが最高に達した時の投影レンズ光学系8の位置に光学系駆動部23により最近焦点位置から戻すことでスクリーン1上の画像が合焦調節される。最高点の合焦位置は、無限遠の初期位置からの光学系駆動部23の駆動時間(又はステップパルス数)をカウントすることで記録される。
【0021】
次に、図5を参照して、本発明のプロジェクタの画像調節方法を説明する。前述したようにプロジェクタ2の電源投入時(ステップ55)、スクリーン1上に投影された画像の焦点が自動的に調節される(ステップ56)。なお、焦点調節は電源投入時に限らず、適宜変更可能である。例えば、所定時間ごとに自動的に焦点調節を行なっても良いし、また、図示しないAFスイッチを設けて、AFスイッチを操作した時に焦点調節を行なっても良い。前述したように本発明の自動焦点調節方法は図4のグラフに示すように、投影レンズ光学系8を動かしながらスクリーン1上に投影された画像を受光センサ21で受光して画像信号から最高の高周波成分(又は最高のコントラストデータ)が得られる位置を検出するものであるから、山登り式オートフォーカス(AF)とも呼ばれる。
【0022】
図6には本発明の前述した自動焦点調節方法のステップが詳細に示されている。電源投入後に自動焦点調節操作が開始される。まず、光学系駆動部23により投影レンズ光学系8が初期位置(例えば、無限遠焦点位置)に駆動される。ここでは、画像信号の高周波成分として角度検出装置の一対のラインセンサ(31c及び31d、図10)で検出されるコントラストデータを測定する。本明細書では高周波成分とコントラストデータは交換可能として説明する。コントラストデータ値(cont)、最大コントラストデータ値(Max_cont)、コントラストデータが最大値となった時間(Tp)、繰り込み時間(Tr)(投影レンズ光学系8を最近焦点位置から初期位置方向へ戻す時間Tr=Ti−Tp)が、それぞれゼロにリセットされる(ステップ60)。ステップモーター等の光学系駆動部23により、投影レンズ光学系8が初期位置(無限遠焦点位置)から最近焦点位置までの全範囲を一定速度で移動される繰り出し時間Tiは予め設定されている。
【0023】
次に、プロジェクタ2内に予め記憶されている自動焦点調節操作に適したAF用パターンが投影レンズ光学系8を介してスクリーン1上に投影される。このAF用パターンは角度検出操作とは異なり位相差測定をしないから、繰り返しパターンでもよい(ステップ61)。光学系駆動部23が投影レンズ光学系8を初期位置(無限遠焦点位置)から最近焦点位置まで一定速度で移動し(繰り出し)、同時に一対のラインセンサがスクリーン1上に投影されたAF用パターンを受光し、タイマを作動する(ステップ62)。一対のラインセンサ(31cと31d、図10)からそれぞれのセンサデータを読み出す(ステップ63)。そして、それぞれのセンサデータをA/D変換する(ステップ64)。それぞれのセンサデータからコントラストデータ(cont)値を演算する(ステップ65)。そして、一対のラインセンサ(31cと31d、図10)から得られたそれぞれのコントラストデータ(cont)の平均値が求められる(ステップ66)。平均化されたコントラストデータ(cont)値が最大のコントラストデータ値(Max_cont)と比較して大きいかどうかを判定する(ステップ67)。もし、大きければ、コントラストデータ(cont)値を最大のコントラストデータ値(Max_cont)に入れて、その時点のタイマの時間Tpを記憶する(ステップ68)。そして、現在のタイマの時間が光学系駆動部23により投影レンズ光学系8を初期位置(無限遠焦点位置)から最近焦点位置まで移動するために要する繰り出し時間Tiに達したかどうかを判定する(ステップ69)。達していなければ、ステップ63に戻る。もし、コントラストデータ(cont)値が最大のコントラストデータ値(Max_cont)と比較して大きくなければ(ステップ67)、直接、ステップ69へ行く。もし、現在のタイマの時間が繰り出し時間Tiに達したならば、光学系駆動部23による投影レンズ光学系8の移動を停止して(ステップ70)、最大コントラストデータ値の位置に戻すための繰り込み時間Trを計算する(Tr=Ti−Tp)(ステップ71)。そして、光学系駆動部23が投影レンズ光学系8を最近焦点位置から初期位置(無限遠焦点位置)方向へ繰り込み時間Trだけ戻す(ステップ72)。そして、コントラストデータが最大値であるかどうかを図7の方法で再度検出する(ステップ73)。なお、投影レンズ光学系8の初期位置及び駆動方向は上記に限定されるものではない。例えば、初期位置を最近焦点位置とし、投影レンズ光学系8を初期位置から時間Ti分繰り込んで無限遠焦点位置まで駆動し、そこから時間Tr分繰り出して最大コントラストデータ値の位置に戻すようにしても良い。
【0024】
このようにして、プロジェクタ2の電源投入時にスクリーン1上に投影される画像の合焦調節が行なわれる。投影レンズ光学系8が焦点位置を移動しながらスクリーン1上に画像を投影し、一対のラインセンサで受光してそれぞれの画像信号の高周波成分又はコントラストデータを測定して、その平均値を得る。平均化処理後の最大の高周波成分又はコントラストデータを有する所を合焦位置として検出する。このため、一対のラインセンサの取り付け誤差や一対のラインセンサに画像を結像するレンズ特性による誤差を吸収でき、正確に合焦位置を求めて焦点調節ができ、信頼性の高いオートフォーカスが可能となる。
【0025】
次に図7を参照して説明する。図7の方法は、図6のコントラストデータの最大値の再度の検出ステップ(ステップ73)を詳細に説明する。すなわち、図6のステップ72で戻された位置から、投影レンズ光学系8が所定ステップ数(Ni_max)だけ、最近焦点位置方向へ繰り出される。そして、投影レンズ光学系8が繰り出される際、再度、コントラストデータが測定される(ステップ74及び図8)。次に、図6のステップ72で戻された位置から、投影レンズ光学系8が所定ステップ数(Nr_max)だけ、無限遠焦点位置方向へ繰り込まれる。そして、投影レンズ光学系8が繰り込まれる際、再度、コントラストデータが測定される(ステップ75及び図9)。所定ステップ数(Nr_max)及び(Ni_max)はそれぞれ投影レンズ光学系8の図4の合焦位置からの所定間隔の移動に対応していて、適当に選択できる。例えば、それぞれ5ステップとすることができる。そして、それぞれのステップ74と75で測定された最大のコントラストデータ(Max_contIとMax_contR)が比較されて(ステップ76)、より大きいコントラストデータを測定した位置へ投影レンズ光学系8が移動される(Nipステップ繰り出し又はNrpステップ繰り込み)(ステップ77又は78)。
【0026】
図8は図7のステップ74の操作を詳細に示すフローチャートである。まず、初期設定がされて、Max_contI値、cont値、Nip値、及びn値がゼロにセットされる(ステップ81)。そして、投影レンズ光学系8が1ステップだけ最近焦点位置方向へ繰り出されて、n値に1が加えられる(ステップ82)。次に、一対のラインセンサ(31cと31d、図10)からそれぞれデータが読みだされて演算部(22、図3)に送られてA/D変換等の処理がされてコントラストデータが得られる(ステップ83)。その後に一対のコントラストデータの平均値が取られて、平均化されたコントラストデータがcont値に代入される(ステップ84)。このcont値がMax_contI値と比較される(ステップ85)。もし、cont値の方が大きければ、Max_contI値にcont値が代入され、Nip値にn値が代入される(ステップ86)。そして、n値がNi_max値に達したかどうかが判定される(ステップ87)。Ni_max値は最近焦点位置方向へ投影レンズ光学系を繰出す最大繰り出しステップ数で、例えば、5ステップである。もし、ステップ85で、cont値がMax_contI値よりも小さければ直接ステップ87へ行く。ステップ87でn値が最大繰り出しステップ数Ni_max値に達したならば、投影レンズ光学系8を最大繰り出しステップ数Ni_max値だけ繰り込み、すなわち、無限遠焦点位置方向に戻して、最初の位置に戻す。次に、図9に示す操作が行なわれる。
【0027】
図9は図7のステップ75の操作を詳細に示すフローチャートである。まず、初期設定がされて、Max_contR値、cont値、Nrp値、及びn値がゼロにセットされる(ステップ91)。そして、投影レンズ光学系8が1ステップだけ無限遠焦点位置方向へ繰り込まれて、n値に1が加えられる(ステップ92)。次に、一対のラインセンサ(31cと31d、図10)からそれぞれデータが読みだされて演算部(22、図3)に送られてA/D変換等の処理がされてコントラストデータが得られる(ステップ93)。そして、一対のラインセンサからのコントラストデータの平均値がとられて、平均化処理後のコントラストデータがcont値に代入される(ステップ94)。このcont値がMax_contR値と比較される(ステップ95)。もし、cont値の方が大きければ、Max_contR値にcont値が代入され、Nrp値にn値が代入される(ステップ96)。そして、n値がNr_max値に達したかどうかが判定される(ステップ97)。Nr_max値は無限遠焦点位置方向へ投影レンズ光学系8を繰り込む最大繰り込みステップ数で、例えば、5ステップである。もし、ステップ95で、cont値がMax_contR値よりも小さければ直接ステップ97へ行く。ステップ97でn値が最大繰り込みステップ数Nr_max値に達したならば、投影レンズ光学系8を最大繰り込みステップ数Nr_max値だけ繰り出し、すなわち、最近焦点位置方向に戻して、最初の位置に戻す。次に、前述した図7に示すステップ76以下の操作が行なわれる。
【0028】
図21は、図7乃至図9に示された合焦操作をグラフで説明するものである。投影レンズ光学系を無限遠焦点位置から最近焦点位置へ繰り出し時間Tiの間、繰り出して行き、そして、一対のラインセンサから最大のコントラストデータ又は高周波成分の平均値が得られた時点の繰り出し時間Tpを記憶しておき、そして、繰り出し時間Tiに達したならば、投影レンズ光学系を停止して、最近焦点位置から無限遠焦点位置へ繰り込み時間Tr=Ti−Tpだけ繰り込んで、投影レンズ光学系を最大のコントラストデータ又は高周波成分が得られた位置に戻す。そして、この戻された位置から所定間隔又は所定ステップ数だけ、最近焦点方向及び無限遠焦点方向に繰り出し及び繰り込み、そしてコントラストデータ又は高周波成分を測定して、再度、最大のコントラストデータ又は高周波成分が得られる位置を探して、投影レンズ光学系の焦点位置を再調節する。投影レンズ光学系8を駆動する光学系駆動部23が移動誤差等により投影レンズ光学系8を最大のコントラストデータの位置に正確に戻すことができなくても、その周辺の領域を投影レンズ光学系8を移動して最大のコントラストデータを有する合焦位置を再度検出して合焦調節することができる。
【0029】
次に、再び、図5を参照すると、以上説明した山登り式オートフォーカスにより合焦操作(ステップ56)が行なわれた後、角度検出装置によりプロジェクタ2とスクリーン1との間の相対的な傾斜角度が検出されて台形歪みが補正される(ステップ57)。角度検出装置は後述のように一対のラインセンサを使用してスクリーン1上に投影された画像の受信信号の間の位相差を測定してスクリーン上の画像までの距離を測定するため、繰返しパターンの画像では位相差検出が困難なため、角度検出用にはAF用パターンとは別のパターンを用いるようにしてもよい。なお、AF用パターンと角度検出用パターンとを共に繰り返しパターンを含まない構成にすれば、両パターンを統一できるので、構成の簡略化が図れる。スクリーン1上の画像は図5の前のステップ56で既に合焦調節されているため比較的高いコントラストを有している。この結果、角度検出装置の一対のラインセンサにより精度の高い位相差が測定できる。従って、精度の高い距離測定と角度検出ができ、台形歪みをより高精度に補正できる。
【0030】
台形歪み補正の際(ステップ57)、最初の合焦位置からスクリーン1上の画像がずれる。また、スクリーン1が比較的に大画面の場合、スクリーン1の部分(例えば、中央部分)の画像を特に高精度に焦点合せをしたい場合がある。このため、一対のラインセンサの位相差検出方法で得られた測距データに基づいて、投影レンズ光学系8の焦点を調節する(ステップ58)。この焦点調節(ステップ58)は、図5のステップ56の山登り式AFとは異なり、光学系駆動部23は、一対のラインセンサの位相差検出方法により得られた測距データに基づいて投影レンズ光学系8の焦点位置を最初の合焦位置から調整する。このため、移動量は微調節の範囲に留まる。従って、投影レンズ光学系8の移動に伴なう電力消費を抑制することができる。しかも、この焦点調節(ステップ58)はプロジェクタが大画面のスクリーンに投影する場合は、画面中央等をより正確に焦点合せできるため、特に有効である。
【0031】
次に、図1を再び参照して、本実施の形態の角度検出装置によるスクリーン1の相対的な傾斜角度を検出する方法を説明する。仮に投射レンズ光学系8からスクリーン1へ照射される光軸がスクリーン1平面に対して垂直の位置関係にあれば、スクリーン1の上下(又は左右)は、投射レンズ8からの距離が等しく、スクリーン1上の画像には台形歪は発生しない。しかし、実際は、プロジェクタ2は、スクリーン1の前方から照射する際に見る者の邪魔にならないように、スクリーンの中心から下又は上方に偏移されて置かれるため、プロジェクタ2の投射レンズ8からスクリーン1へ照射される投射光軸はスクリーン1平面に対して垂直の位置関係から傾斜している。
【0032】
このため、スクリーン1の上下は、投射レンズ8からの距離が異なり、スクリーン1上に投影された画像に台形歪を生ずる。上述の通り、この台形歪を補正するためには、投射レンズ8の光軸の傾斜を光学的に補正するか、又は、台形歪で小さく(大きく)投射される部分を大きく拡大(小さく縮小)する画像処理を電気回路で行なう電気的補正を行なう。この電気的補正は特許文献2に記載されている。
【0033】
これらの補正を自動的に行なうため、まず、投射レンズ8の光軸に対してスクリーン1面の垂直方向が傾斜した傾斜角度を自動的に正確に測定することが必要である。
【0034】
本実施の形態の角度検出装置は、以下に詳細に説明するように、第1及び第2ライン型パッシブ測距装置3及び4を備えて、プロジェクタ2の正面からスクリーン1上の水平(第1ライン型パッシブ測距装置3の基線長方向に対応)及び垂直(第2ライン型パッシブ測距装置4の基線長方向に対応)方向に沿った複数の位置までの距離を測定することにより、プロジェクタ2に対するスクリーン1の相対的な傾斜角度を、水平面内及び垂直面内において正確に測定することができる。
【0035】
第1及び第2ライン型パッシブ測距装置3及び4は、それぞれ演算部32及び42を有し、それぞれ撮像部31及び41からの受信信号が入力される。演算部32及び42からの出力信号は制御回路5に入力される。制御回路5は、第1及び第2ライン型パッシブ測距装置3及び4を制御すると共に、図示しないパーソナル・コンピュータ等の機器から入力画像を入力して画像情報を出力する投影画像生成部6及び投射レンズ光学系8へ画像出力する透過型液晶表示駆動部7を制御する。さらに、制御回路5は自動焦点検出装置20の演算部22からの出力を受けて合焦位置を検出して投射レンズ光学系8の焦点位置を光学系駆動部23を介して調節する。さらに、制御回路5は演算部32及び42からの出力に基づいてプロジェクタ2に対するスクリーン1のそれぞれ水平方向及び垂直方向の相対的な傾斜角度を算出する。次ぎに、制御回路5は、算出された傾斜角度に基づいて、台形歪を補正するように投影画像生成部6及び/又は透過型液晶表示駆動部7を制御して、スクリーン1の上下及び/又は左右に投影される画像の拡大又は縮小をする。上述した通り、台形歪の光学的補正又は電気的補正自体は公知であるので(例えば、特許文献2を参照)、これ以上説明しない。制御回路5と演算部22と演算部32及び42とメモリ部10は、1つのマイクロプロセッサ(CPU)9で構成することができる。
【0036】
メモリ部10は、本発明の構成に必要なデータや命令を記憶していて、制御回路5と演算部22と演算部32及び42等に随時にデータや命令を供給し又は受け取る。メモリ部10は、不揮発性のフラッシュメモリ等及び揮発性のRAM等の2つのタイプのメモリ装置を含み、本発明に必要な命令や長期的に使用されるデータは不揮発性のメモリ装置に記憶され、一時的にのみ使用されるデータは揮発性のメモリ装置に記憶される。
【0037】
次ぎに図10の機能ブロック図を参照して、本実施の形態による角度検出装置の構成を説明する。なお、説明を簡潔にするために、第1ライン型パッシブ測距装置3の構成についてのみ説明するが、第2ライン型パッシブ測距装置4も同様に構成されている。プロジェクタ2の正面を構成する平面上に、水平方向に基線長k(図11)だけ離間された一対のレンズ31a及び32bの下には、これらのレンズ31a及び32bから焦点距離f(図11)だけ離間されて、ラインセンサ31c及び31dがそれぞれ基線長k(水平)方向に沿って配置されている。ラインセンサ31c及び31dは直線状に配列された所定数、例えば、104個、の光検出素子(画素)を有する一対のラインCCD又はその他のライン型撮像素子である。撮像部31から、出力部31eを介して、レンズ31a及び31bによりラインセンサ31c及び31dの各画素上に結像された画像の光量に対応した電気信号が直列的に出力される。
【0038】
A/D変換部32aは、撮像部31の出力部31eから出力されたアナログ電気信号をデジタル信号に変換する。ラインセンサ31c及び31dからのデジタル化された出力信号はそれぞれ画像データ信号列IL及びIRとして、メモリ領域32b内にその後の処理のために記憶される。従って、メモリ領域32b内にはそれぞれ104個のデータ列から成る一対の画像データ信号列IL及びIRが記憶される。メモリ領域32bはメモリ部10内に設けても良い。
【0039】
フィルタ処理部32cは、ラインセンサ出力信号から直流成分を取除いて(ファイリング)、画像に対応した空間周波数成分だけを含んだ有用な信号に画像データ信号列IL及びIRを変える。相関演算部32dは、後で図11及び図12を参照して説明するように、画像データ信号列IL及びIR内から空間的に近接した例えば26個の画素グループからなる部分画像データ群iLm(基準部)及びiRn(参照部)をそれぞれ選択的に取り出して、データの一致度を計算するために両部分画像データ群iLm及びiRnを互いに比較する。例えば、一方の部分画像データ群iLmを基準部として固定して、他方の部分画像データ群iRnを参照部としてIR内で画素を1つずつすらしながら、互いに比較を繰り返す。最大相関度検出部32eは、一対の画像データ信号列IL及びIR内で最もデータの一致度の高い2つの部分画像データ群iLm及びiRnを検出する。
【0040】
補間演算部32fは、最大相関度検出部32eで得られた最大の一致度の部分画像データ群iLm及びiRnの位置間隔を、既知の補間方法により画素ピッチ単位の位置間隔よりもより正確な位置間隔に補間する。この補間演算部32fにより補間された位置間隔に基づいて、位相差検出部32gは、一対のラインセンサ31c及び31d上に結像された同一の測距対象物体の一対の像の相対的な位相差(ずれ量)を算定する。
【0041】
コントラスト重心演算部32hは、後で図19を参照して説明するように、ラインセンサ31c及び31d上に結像された画像のコントラスト重心を求める。信頼性判定部32iは、算定された両ラインセンサ31c及び31d上に結像された位置の相対的な位相差(ずれ量)の信頼性を判定する。この信頼性の判定は、例えば、もし、距離測定対象の物体が両ラインセンサ31c及び31d上に正しく結像されているならば、最大相関度検出部32eにおいて得られる一致度が所定値以上となるはずである。従って、もし、最大相関度検出部32eにおいて得られる一致度がたとえ相対的に最高であったとしても、所定値未満の一致度であれば信頼性が低いとして、信頼性判定部32iでその測定結果を排除する。もし、最大相関度検出部32eにおいて得られる一致度が所定値以上であると、データの信頼性有りとして、CONF_FLG1=OKと設定する。以上の撮像部31及び演算部32の構成は周知であり、例えば、特許文献3及び特許文献4に記載されているため、これ以上の説明は省略する。
【0042】
【特許文献3】
特許第3230759号公報
【特許文献4】
特公平4−77289号公報
【0043】
さらに本実施の形態による角度検出装置は、空間的に隣接したいくつかの測定位置の小グループの測距結果の信頼性を判定するための相互信頼性判定部51と、空間的に隣接したいくつかの測定位置の小グループに関する測距結果及びコントラスト重心の平均値を求める平均値演算部52と、測距結果から傾斜角度を求めるための演算を行なう角度演算部53を含む。角度演算部53で算出されたスクリーン1の傾斜角度に基づいて、台形歪みを補正するための補正量が、投影画像生成部6及び/又は表示駆動部7に与えられる。これによりスクリーン1上の台形歪みが補正される。
【0044】
なお、自動焦点調節装置20の受光センサ21の代わりにラインセンサ31cと31dを使用する場合は、図10の出力部31eからのラインセンサ31cと31dの出力を自動焦点調節装置20の演算部22にも送るようにすればよい。
【0045】
次ぎに図11を参照して、ライン型パッシブ測距装置3の動作原理(外光三角測距方式)を説明する。第1ライン型パッシブ測距装置3は、プロジェクタ2の正面を構成する平面上に水平方向へ延びて基線長kだけ離間された一対のレンズ31a及び31bと、この基線長kからレンズ31a及び31bの焦点距離fだけ離間して基線長k方向と同じ水平方向に沿って延びた一対のラインセンサ31c及び31dを含んでいる。第1ライン型パッシブ測距装置3は、基線長kとラインセンサ31c及び31dを含んだ平面内に位置するスクリーン1の平面上の複数の位置の距離を測定して、基線長kとラインセンサ31c及び31dを含んだ平面内において、プロジェクタ2に対するスクリーン1平面の相対的な傾斜角度を算出する。
【0046】
説明を簡潔にするため、ここでは第1ライン型パッシブ測距装置3についてのみ説明をして、第2ライン型パッシブ測距装置4については説明を省略するが、動作原理が同じであるため同じ説明が第2ライン型パッシブ測距装置4についても、水平方向を垂直方向に置き換えるだけで適用される。
【0047】
図11(a)において、一対のレンズ31a及び31bが、プロジェクタ2の正面を構成する平面上に水平方向に延びた所定の基線長kだけ離間して配置されている。プロジェクタ2の正面を構成する平面の下には、これら一対のレンズ31a及び31bからそれらの焦点距離fだけそれぞれ離間され、基線長k方向(水平方向)に延びた一対のラインセンサ31c及び31dが配置されている。ラインセンサ31c及び31dは、その中央部分がそれぞれレンズ31a及び31bの光軸31ax及び31bx上にほぼ位置するように配置されていて、これらラインセンサ31c及び31d上に、それぞれ対応するレンズ31a及び31bにより距離測定対象のスクリーン1上のある位置の画像1Aが結像される。図11(a)においては、スクリーン1上の測定位置1Aが、異なる方向の光路A及びBを通って、それぞれのレンズ31a及び31bを介して、ラインセンサ31c及び31d上に結像されている。
【0048】
もし、測定位置1Aが無限遠の位置に存在すると仮定した場合、一対のレンズ31a及び31bから焦点距離fにあるラインセンサ31c及び31d上には、測定位置1Aがレンズ31a及び31bのそれぞれの光軸31ax及び31bxと交差する基準位置31cx及び31dxに結像される。
【0049】
次ぎに、測定位置1Aが無限遠位置からレンズ31aの光軸31ax上の方向Aに沿って近づき、図11(a)の位置、すなわち、距離LCに達すると、測定位置1Aはラインセンサ31c上においては、基準位置31cx上に結像されたままであるが、ラインセンサ31d上においては、レンズ31bにより基準位置31dxから位相差(ずれ量)αだけずれた位置に結像される。
【0050】
三角測距の原理から、測定位置1Aまでの距離LCは、LC=kf/αで求められる。ここで、基線長kと焦点距離fは予め知られている既知の値であり、ラインセン31d上の基準位置31dxからの位相差(ずれ量)αを検出すれば、距離LCが測定できる。これが外光三角測距のパッシブ型ラインセンサ測距装置の動作原理である。位相差(ずれ量)αの検出及びLC=kf/αの演算は、図1中の演算部32で実行される。
【0051】
ラインセンサ31dの基準位置31dxからの位相差(ずれ量)αの検出は、一対のラインセンサ31c及び31dから出力される一対の画像データ信号列IL及びIRからそれぞれ抽出した部分画像データ群iLm及びiRnについて、演算部32が相関演算を行なうことにより検出する。この相関演算は周知である(例えば、特許文献3参照)。
【0052】
このため、相関演算については詳細な説明を省略して以下の概要的な説明に留める。図11(b)に示すように、相関演算は、部分画像データ群iLm及びiRnを互いに重ねた時に最も一致度が高くなる領域を、重ね合わせる部分画像データ群iLm及びiRnをラインセンサ31c及び31d上で相対的にずらしながら検出していく演算である。図11(b)においては、一方のラインセンサ31cからの部分画像データ群iLmを基準位置31cxに位置を固定して、基準部として使用する。他方のラインセンサ31dからの部分画像データ群iRnは参照部として位置を一画素ずつずらして行き、基準部と最も一致度の高い部分画像データ群iRnを探す。最も一致度の高い部分画像データ群iRnを発生するラインセンサ31d上の位置とそのラインセンサ31dの基準位置31dxと間の間隔が位相差(ずれ量)αである。
【0053】
ラインセンサ31c及び31dの各々は、図13を参照して後述するように所定数の光検出器セル(画素)を所定長の直線上に配列した一対のラインCCDで構成されているから、位相差(ずれ量)αは、部分画像データ群iRnの画像データ信号列IR内の画素位置と画素ピッチから容易に求めることができる。このようにして、レンズ31aの光軸31axと同じ方向Aにある測定位置1Aまでの距離LCを、位相差(ずれ量)αを検出することにより測定できる。
【0054】
次ぎに、図12を参照して、図11とは異なる方向にある測定位置1Bまでの距離LR’及びLRを測定する原理を説明する。図12(a)に示すように、測定位置1Bが、異なる方向の光路C及び光路Dを通って、それぞれのレンズ31a及び31bを介してラインセンサ31c及び31d上に結像されている。
【0055】
もし、測定したい方向Cの無限遠位置に測定位置1Bが存在すると仮定した場合、一対のレンズ31a及び31bにより一対のラインセンサ31c及び31d上に結像される測定位置1Bの像の中心を、互いに基線長kだけ離間した基準位置31cy及び31dyとする。次ぎに、この無限遠位置にある測定位置1Bが測距方向Cに沿って近づいて図12(a)の位置に来ると、レンズ31aにより結像される測定位置1Bの像のラインセンサ31c上の基準位置31cyには変化ないが、レンズ31bにより結像される測定位置1Bの像のラインセンサ3dc上の位置は基準位置31dyから位相差(ずれ量)α’だけずれる。
【0056】
三角測距の原理から、測定位置1Bまでの距離LRは、LR=kf/(α’cosβ)となる。なお、角度βは、基線長kの垂直線、すなわち、レンズ31aの光軸31ax、に対する測距方向Cの傾き角であり、測定方向Cを決定することにより確定される角度である。基線長k、焦点距離f及びcosβは既知の値なので、位相差(ずれ量)α’を検出すれば、距離LRを測定できる。
【0057】
レンズ31a及び31bが配置されたプロジェクタ2の正面を構成する同一平面(基線長k方向)から測定位置1Bまでの距離LR’は、LR’=LRcosβ=kf/α’で求められる。すなわち、距離LR’は、位相差(ずれ量)α’を検出すれば、既知の値である基線長k及び焦点距離fから求めることができる。すなわち、距離LR’を測定するためには、角度βは不要である。
【0058】
位相差(ずれ量)α’を検出するためには、上述した相関演算を行なう。図12(b)に示すように、一方のラインセンサ31cからの基準位置31cyに対応する部分画像データ群iLmを基準部として位置を固定し、他方のラインセンサ31dからの部分画像データ群iRnを参照部として位置を1画素づつずらして互いに重ね合せて行くことにより、最も基準部iLmのデータと最も一致度の高いデータを持つ参照部iRmを見つける。
【0059】
ラインセンサ31c及び31dの各々は、図13を参照して後述するように所定数の光検出器セル(画素)を直線上に所定長に配列した一対のラインCCDで構成されているから、位相差(ずれ量)α’は、部分画像データ群iRnの画像データ信号列IR内の位置(画素番号)及び部分画像データ群iLmの画像データ信号列IL内の位置(画素番号)と画素ピッチから容易に求めることができる。
【0060】
なお、上述した相関演算の方法において、一方のラインセンサ31cからの部分画像データ群iLmを基準部として固定し、他方のラインセンサ31dからの部分画像データ群iRnを参照部としてその位置を1画素ずつずらして互いの一致度の高さを検査するとした。しかし、測距方向を両レンズ31a及び31bの中間位置からの方向とする場合は、ラインセンサ31c及び31d上で部分画像データ群iLm及びiRnの位置を共に反対方向に移動させながら、部分画像データ群iLm及びiRm間で互いの一致度の高さを検査するようにしてもよい。
【0061】
次ぎに図13を参照して、一対のラインセンサ31c及び31dの内、1方のラインセンサ31cを詳細に説明する。他方のラインセンサ31dはラインセンサ31cと同様に構成されている。ラインセンサ31cは多数、例えば、104個の光検出器セル(画素)が直線的に配列されたリニアCCD(電荷結合素子)又はその他の線形の撮像素子で構成されている。104個の光検出器セル(画素)は、図中左端から右端へ順に画素番号が付けられている。これらの光検出器セル(画素)は、隣接する26個単位のグループにより7つの測距演算領域を31c1(1〜26)、31c2(13〜38)、31c3(27〜52)、31c4(39〜64)、31c5(53〜78)、31c6(65〜90)及び31c7(79〜104)を構成している。但し、括弧内の数は光検出器セル(画素)番号である。各測距演算領域31c1乃至31c7は、その26個の光検出器セル内、前半が前隣りの測距演算領域に含まれ且つ後半が後隣りの測距演算領域に含まれていて、各測距演算領域31c1乃至31c7は両隣の測距演算領域と互いに半分ずつ重複している。
【0062】
各測距演算領域31c1乃至31c7内の光検出器セル(画素)からの信号は、図8及び図9中のラインセンサ31cの画像データ信号列ILの各部分画像データ群iLmに対応する。各測距演算領域31c1乃至31c7の中心位置a(13)、b(26)、c(38)、d(52)、e(64)、f(78)及びg(90)の各々は(但し、括弧内は画素番号である)、測距方向を定める基準位置となる。この結果、本実施の形態のラインセンサ31c及び31dを使用した測距装置3は、基準線kと同じ平面(水平平面)内にあるスクリーン1上の7つの離間した位置までの距離を測定することができる。ただし、実際の測距方向は、図10のコントラスト重心演算部32hにより後述する通り、測距演算領域内でのコントラスト重心位置により補正され得る。図13には、他方のラインセンサ31dに対応する基準位置a’、b’、c’、d’、e’、f’及びg’が示されていて、参照部としてラインセンサ31c中の測距演算領域と相関演算する際のずれ量を求める際に使用される。
【0063】
本発明により距離測定するスクリーン1上の複数の異なる位置は、7つに限る必要はなく、適宜、適当な数、例えば11とすることも、ラインセンサ31c及び31dの画素数又は測距演算領域の数を適当に選択することで可能である。
【0064】
例えば、162個の光検出器セル(画素)数のラインCCDを用いて27個の光検出器セル(画素)グループ単位で11の測距演算領域を設けていも良い。各領域は27個の画素数の内、13乃至14個の画素が隣接する測距演算領域と重複して使用される。この例では、スクリーン1上の基準線方向(水平方向)に沿った11の複数の位置の内の1つを選択することができる。
【0065】
次ぎに図14を参照して説明する。図14は、ライン型測距装置3及び4の初期調節をするため、プロジェクタ2のスクリーン1の相互の位置関係を所定の位置関係にした様子を示す。すなわち、プロジェクタ2の投影光学レンズ系8からの投射光軸がスクリーン1に垂直になるように、スクリーン1を予め基線長k及びk’(図示しない)に対して平行にして、プロジェクタ2からライン型測距装置3及び4の初期調節に適した画像を投射する。初期調節とは、例えば、レンズ31a及び31bは収差を持つ。このため、スクリーン1上の基線長k方向に沿った異なる測定位置がラインセンサ31c及び31dに結像する際、直線上に結像されるのでなく、実際は、歪む。初期調節はこのレンズ収差による歪みを補正するための補正係数を計算して、メモリ部10に記憶して、以後の演算部32及び42により使用する。ライン型測距装置3は、ラインセンサ31c上の7つの測距演算領域31c1乃至31c7を使用して、7つの測距方向のスクリーン1上の距離を測定する。簡潔にするため、図14中においては7つの方向の内、ラインセンサ31c上の3つの測距演算領域31c3、31c5、31c7に対応した3つの測距方向のスクリーン1上の1C、1E、1Gの位置のみを図示している。
【0066】
次ぎに図15乃至図18を参照して、パッシブ型ライン測距装置3を用いて、スクリーン1の相対的な傾斜角度を測定する方法を説明する。説明の簡略のために、ラインセンサ31cの2つの測距演算領域31c3及び31c7の2つの測距方向C及びGを用いて、これら2つの測距方向C及びGにあるスクリーン1平面上の2つの測定位置1C及び1Gまでの2つの距離LR’及びLL’を、図12で説明した方法で測定する。本実施の形態では2つの距離LR’及びLL’しか測定しないが、実際は、7つの測距方向にあるスクリーン1上の7個の測定位置までの距離が測定される。
【0067】
スクリーン1上の測定位置1Cや1Gは、パッシブ距離測定に適した画像であるならば、プロジェクタ2の投射レンズ8を介してスクリーン1に投影されるプロジェクタ製造メーカーのロゴマーク等を含んだ画像でもよく、また、プロジェクタ2の動作中に定期的に角度検出操作する際には、スクリーン1上の測定位置1C及び1Gは、スクリーン1上に投射されている任意の画像であってもよい。
【0068】
ラインセンサ31cの2つの測距演算領域31c3及び31c7のそれぞれの測距方向C及びGの基準位置c(38)及びg(90)間の距離Lは、その括弧内の画素番号及び画素ピッチより予め知られている値である。
【0069】
基線長kに平行な直線k2上にある測定位置1Cから測定位置1Gを通る基線長kに平行な直線k1上に垂直に下ろした点をC’とした場合、測定位置1C〜点C’間の距離は、LR’−LL’に等しい。このLR’−LL’の大きさは、スクリーン1の傾斜角度θ1があまり大きくない場合、直線k1上で測定位置1Gから距離(LL’*L/f)にある点をC”として、点C”からの直線k1と直交する線とスクリーン1との交点1C’とした場合の、距離1C’−C”と近似できる。通常は、予め人手等によりスクリーン1とプロジェクタ2の相対的な位置関係は調整されていることが多いから、傾斜角度θ1はあまり大きくはならず多くの場合にこの近似は妥当である。測定位置1Gと点C”とレンズ31aの中心とで構成される三角形と基準位置cとgおよびレンズ31aの中心とで構成される三角形とは相似の関係にあり、ラインセンサ31c上の2つの測距演算領域31c3及び31c7の2つの基準位置c(38)及びg(90)間の距離Lは、測定位置1G〜点C”間の距離に対応しているから、この傾斜角度θ1の値は、相似形の関係と三角関数を使用して、
θ1=arctan{(LR’−LL’)/(LL’*L/f)}
と求めることができる。
【0070】
従って、プロジェクタ2の制御回路5により、上式の演算をすることにより、水平面内におけるスクリーン1とプロジェクタ2の基線長k方向の傾斜角度θ1を算出できる。この傾斜角度θ1の大きさに基づいて、図1の制御回路1が投影画像生成部6及び/又は表示駆動部7に、画像の台形歪みを補正する指示を与えることができる。しかし、上式から求められる傾斜角度θ1は、測定位置1G及び1Cまでの距離測定結果LR’及びLL’の精度に依存する。
【0071】
図15において、測定距離を、各測定位置1C及び1Gから基線長k方向に下ろした垂直線LR’及びLL’の長さに代えて、レンズ31aから各測距方向C及びGに沿った各測定位置1C及び1Gまでの長さとしてもよい。この場合については図20において説明する。
【0072】
もし、角度検出に高い精度が求められる場合には、角度検出に用いる2つの測距演算領域31c3及び31c7の基準値c(38)及びg(90)間の距離Lに代えて、各々の測距演算領域31c3及び31c7中のコントラスト重心位置の距離を使用しても良い。
【0073】
図19を参照して、図10のコントラスト重心演算部32hによるコントラスト重心位置を用いた距離測定を説明する。周知のように、パッシブ式測距は、2つのラインセンサ上に結像される一対の画像を重ね合せた時に最も一致度が高くなる場所を検出する動作を含むが、この一致度は一対の画像のコントラスト状態が一致しているか否かを検出するものである。
【0074】
従って、パッシブ式測距は、図19に示すようにある1つの測距演算領域31cnの設計上の測距方向が矢印J方向である場合、もし、測距演算領域31cn上に結像される測距対象の像が矢印K方向のみにコントラスト位置1Kが存在する像である場合、実際の測距方向は矢印J方向から矢印K方向にずれる。もし、測距演算領域31cn上に結像される測距対象の像が矢印M方向のみにコントラスト位置1Mが存在する像である場合、実際の測距方向は矢印J方向から矢印M方向にずれる。さらに、測距演算領域31cn上に結像される測距対象の像が矢印K方向及び矢印M方向にコントラスト位置1K及び1Mが存在する像である場合、実際の測距方向は矢印J方向から測定演算領域31cn上に結像された画像のコントラスト重心位置にずれる。
【0075】
従って、角度検出に使用する2つの測距演算領域間の距離に対応した値として、各測距演算領域中のコントラスト重心位置の距離を用いれば、精度の高い距離Lを使用することができ、角度検出精度が向上する。なお、コントラスト重心位置の求め方は、特許文献5に記載されており、公知である。
【0076】
【特許文献5】
特開平8−75985号公報
【0077】
参考までに、本実施の形態においてコントラスト重心位置を求める数式1を以下に示す。
【0078】
【数1】

Figure 2004347911
ここで、L():基準部31c側センサーデータ
Sa :基準部31c側受光素子最小No.
Wn :部分群の受光素子数
t ;整数(一般的に1〜4)
ノイズの影響を解除するためには、差分の絶対値が所定値(ノイズキャンセルレベル)以下の場合は、総和に加えない。
なお、ラインセンサ31cの一列に配列された受光素子(画素)にはそれぞれ一連の通し番号(画素番号)がふってある。
【0079】
次ぎに図20を参照して、別の方法によるパッシブ型ライン測距装置3を用いて傾斜角度θ1の計算方法を説明する。図20に示すように、ライン型パッシブ測距装置3の基線長k方向(プロジェクタ2の水平方向)に対するスクリーン1の傾斜角度をθ1とし、図12で説明した方法により、ラインセンサ31cの測距演算領域31c7の測距方向に沿って測距演算して算出されたスクリーン1までの距離がL1、測距演算領域31c3の測距方向に沿って測距演算して算出されたスクリーン1までの距離がL2とする。予め知られている測距演算領域31c3の測距方向と基線長方向に垂直な方向とがなす角度をβとし、同じく予め知られている測距演算領域31c7の測距方向と基線長方向に垂直な方向とがなす角度をγとする。傾斜角度θ1は、次式で計算される。
【0080】
θ1=arctan(L2cosβ−L1cosγ)/(L1sinγ+L2sinβ)
【0081】
このようにして、図10に示す制御回路5はスクリーン1の傾斜角度を計算して、得られた傾斜角度に基づいてスクリーン1上の画像の台形歪みを補正する。上記において図5のステップ58に関連して説明したように、台形歪みを補正した後、測距装置3によりプロジェクタ2からスクリーン1までの距離を測定して、投影レンズ光学系8の焦点調節を再度行なう。具体的には、例えば、制御回路5が測距装置で測定したスクリーン1までの距離に対応する投影レンズ光学系8の焦点位置に基づいた信号を光学系駆動部23に出力し、光学系駆動部23が上記焦点位置まで投影レンズ光学系8を駆動することによって焦点調節を行なう。これは、台形歪み補正後の焦点の変動を補正し、また、比較的大型スクリーンの場合にはスクリーンの特定箇所、例えば、中央位置、の画像の焦点が特に合うように投影レンズ光学系の焦点を再調節するためである。この再調節は投影レンズ光学系8の図5のステップ56の山登り式AFによる合焦位置からの移動が少ない微調整ですみ、電力消費を抑えることができる。
【0082】
なお、図5のステップ56の山登り式AFの代わりに、測距装置3の一対のラインセンサを使用した位相差測定による測距操作を電源投入時にして、その測距データに基づいて合焦調節をすれば、焦点検出装置20が不要となることも考えられる。しかし、ステップ55の電源投入時等の初期時にはスクリーン上の画像のピントが合っていないことが考えられ、スクリーン上の画像のコントラストが低い。従って、測距装置3の一対のラインセンサが検出する位相差の精度が低くく、測距結果の精度も低くくなり、測距装置3の一対のラインセンサでは合焦調節が正確にできない場合が発生すると考えられる。そして、スクリーン上の画像のコントラストが低くいとその後の角度検出の精度も低くなり、ステップ57の台形歪み補正も正確にできなくなる可能性が高い。よって、図5のステップ56の合焦調節は投影レンズ光学系8を動かしてスクリーン上に投影される画像の高周波成分又はコントラストデータを検出する図4及び図6に示すような山登り方式AFを行なうのが好ましい。
【0083】
【発明の効果】
以上説明したように、請求項1に記載された本発明のプロジェクタによれば、別途に発光素子を必要とせず、しかも角度検出用の一対のラインセンサを使用してスクリーン上に投影された画像の台形歪みの補正と自動合焦(オートフォーカス)の両方ができる。
【0084】
請求項2に記載された本発明のプロジェクタによれば、一対のラインセンサの取り付け誤差や一対のラインセンサに画像を結像するレンズ特性による誤差を吸収でき、正確に合焦位置を求めて焦点調節ができ、信頼性の高いオートフォーカスが可能となる。
【0085】
請求項3に記載された本発明のプロジェクタによれば、投影レンズ光学系を駆動する光学系駆動部が移動誤差等により1回の操作で正確に画像信号が最大となる所に投影レンズ光学系を戻すことができなくとも、画像信号が最大となる付近で所定間隔だけ両方向に投影レンズ光学系を移動して画像信号が最大となる所を再度測定することで、正確に合焦位置に調節することができる。
【0086】
請求項4に記載された本発明の方法によれば、最初に投影レンズ光学系のスクリーン上に投影する画像の合焦位置を調節しているため、台形歪みを補正する際に使用する画像もスクリーン上に焦点が合って投影される。このため、一対のラインセンサが受光した画像はコントラストが高く、従って、高い位相差を得ることができる。この結果、比較的に高精度にプロジェクタからスクリーン上に投影された画像の複数箇所までの距離を測定することができ、スクリーンの相対的な傾斜角度を比較的高精度に求めることができ、よって高精度で台形歪みを補正することができる。さらに、台形歪み補正による焦点のずれを台形歪み補正後に一対のラインセンサによる測距操作により修正できる。
【図面の簡単な説明】
【図1】本発明の1つの実施の形態によるプロジェクタの構成を示す概略ブロック図。
【図2】図1に示したプロジェクタの概略正面図。
【図3】本発明の1つの実施の形態による自動焦点検出装置の演算部の機能ブロック図。
【図4】本発明の1つの実施の形態による自動焦点調節方法を説明するためプロジェクタの投影レンズ光学系の焦点位置を横軸に示し、その投影レンズ光学系によりスクリーン上に投影された画像の受光信号に含まれる高周波成分(又はコントラストデータ)を縦軸に示したグラフ。
【図5】本発明の1つの実施の形態によるプロジェクタの画像調節方法を示すフローチャート。
【図6】本発明の1つの実施の形態による自動焦点調節方法を示すフローチャート。
【図7】本発明の別の実施の形態による自動焦点調節方法を示すフローチャート。
【図8】図7の実施の形態による自動焦点調節方法の詳細を示すフローチャート。
【図9】図7の実施の形態による自動焦点調節方法の詳細を示すフローチャート。
【図10】本発明の1つの実施の形態による角度検出器の機能ブロック図。
【図11】本発明の1つの実施の形態による角度検出器に含まれる測距装置の測距操作を説明する図。
【図12】本発明の1つの実施の形態による角度検出器に含まれる測距装置の測距操作を説明する別の図。
【図13】本発明の1つの実施の形態による角度検出器に含まれる測距装置の一対のラインセンサの概略を示すブロック図。
【図14】本発明の1つの実施の形態による角度検出器に含まれる測距装置による複数位置の距離測定を説明する図。
【図15】本発明の1つの実施の形態による角度検出器に含まれる測距装置による角度検出方法を説明する図。
【図16】本発明の1つの実施の形態による角度検出器に含まれる測距装置による角度検出方法を説明する図。
【図17】本発明の1つの実施の形態による角度検出器に含まれる測距装置による角度検出方法を説明する図。
【図18】本発明の1つの実施の形態による角度検出器に含まれる測距装置による角度検出方法を説明する図。
【図19】本発明の1つの実施の形態による角度検出器に含まれる測距装置の測距演算領域のコントラスト重心位置を求める方法を説明する図。
【図20】本発明の1つの実施の形態による角度検出器に含まれる測距装置による角度検出方法を説明する図。
【図21】本発明の別の実施の形態による自動焦点調節方法を説明するためプロジェクタの投影レンズ光学系の焦点位置を横軸に示し、その投影レンズ光学系によりスクリーン上に投影された画像の受光信号に含まれる高周波成分(又はコントラストデータ)を縦軸に示したグラフ。
【符号の説明】
1 スクリーン
2 プロジェクタ
3 測距装置
4 測距装置
5 制御回路
8 投影レンズ光学系
20 自動焦点検出装置
22 演算部
23 光学系駆動部
31 撮像部
31a レンズ
31b レンズ
31c ラインセンサ
31d ラインセンサ
32 演算部
k 基線長
θ1 水平面内でスクリーン1が基線長k方向となす傾斜角度[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention provides an image signal obtained by receiving an image on a screen with the pair of line sensors while correcting the trapezoidal distortion of the image and moving the projection lens optical system by providing an angle detection device having a pair of line sensors. The present invention relates to a projector provided with an automatic focusing device that adjusts a focusing position by measuring the focus position and a method of automatically focusing an image projected on a screen.
[0002]
[Prior art]
Conventionally, in a projector such as a liquid crystal projector that projects an image on a screen using a projection lens optical system, it is necessary to automatically correct trapezoidal distortion of an image projected on the screen and perform focusing. It is desired to enhance the convenience of the projector.
[0003]
Patent Document 1 discloses a liquid crystal projector that automatically focuses an image projected on a screen using an active distance measuring device including a light emitting element.
Patent Literature 2 discloses a liquid crystal projector that calculates a relative inclination angle of a screen using an active distance measuring device including a light emitting element and automatically corrects trapezoidal distortion of an image projected on the screen. It has been disclosed.
[0004]
[Patent Document 1]
Japanese Patent Application Laid-Open No. H11-264963 [Patent Document 2]
Japanese Patent Application Laid-Open No. 2000-122617
[Problems to be solved by the invention]
However, in the conventional projectors described in Patent Literatures 1 and 2, the distance to the screen is measured by an active distance measurement sensor including a light emitting element to obtain focal length information or to obtain information on the relative distance to the screen. In order to determine the tilt angle, conventional projectors require separate light-emitting elements for distance measurement separately from those used for image projection, which increases the size of the structure and also requires power to emit light from the light-emitting elements for distance measurement. There is a problem. Further, in the conventional projectors described in Patent Documents 1 and 2, since an active distance measurement sensor including a light emitting element is used, light of the light emitting element does not reach a screen on which an image of the projector is projected, or light is emitted even if it reaches the screen. If the light from the element is weak, there is a problem that the distance measurement accuracy is reduced, and accurate focusing and trapezoidal distortion cannot be corrected.
[0006]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a projector and an automatic focus adjustment method which can correct trapezoidal distortion of an image projected on a screen and accurately and automatically adjust focus by solving the above-mentioned conventional problems. .
[0007]
[Means for Solving the Problems]
According to the first aspect of the present invention, a projection lens optical system for projecting an image on a screen, and a pair of trapezoidal distortions for correcting an image projected on the screen by the projection lens optical system. An angle detection device including a line sensor, and measuring the position where the image signal obtained by receiving the projected image by the pair of line sensors while moving the focal position of the projection lens optical system is maximized. There is provided a projector including an automatic focus detection device that adjusts a focal position of a lens optical system to the maximum position.
[0008]
According to the configuration of the first aspect, the distance to a plurality of images on the screen is measured by receiving the image projected on the screen by the angle detection device having the pair of line sensors and obtaining the phase difference. To calculate the relative tilt angle of the screen plane. With this angle detection device, trapezoidal distortion of an image projected on a screen can be corrected without requiring a separate light emitting element. Further, the projector projects the image projected onto the screen while moving the focal position of the projection lens optical system with a pair of line sensors of the angle detection device, and measures the image signal obtained. Then, the focal point of the projection lens optical system is adjusted using the focus position as the focus position. This focuses on the point that when the image projected on the screen is in focus, the resolution of the image is highest, and since the brightness of fine pixels is clearly displayed, the image signal is also highest. According to the present invention, both correction of trapezoidal distortion of an image projected on a screen using a pair of line sensors for angle detection and automatic focusing (autofocus) do not require a separate light emitting element. Can be.
[0009]
According to the second aspect of the present invention, there is provided the projector according to the first aspect, wherein the automatic focus detection device measures an average value of the image signals respectively received by the pair of line sensors.
[0010]
According to the configuration of the second aspect, in order to measure the average value of the image signals received by the pair of line sensors and measure the maximum value thereof, the mounting error of the pair of line sensors and the pair of line sensors are measured. An error due to the characteristics of a lens that forms an image on a sensor can be absorbed, the focus can be adjusted by accurately determining the focus position, and highly reliable autofocus can be performed.
[0011]
According to the third aspect of the present invention, the automatic focus detection device adjusts the focus position of the projection lens optical system to a position where the image signal is maximum, and then performs the projection for a predetermined interval from the position. While moving the optical lens system in the direction of the farthest focus position and the direction of the closest focus position, the position where the image signal obtained by receiving the image projected on the screen is maximized is measured again and the focus position is adjusted again. A projector according to claim 1 or 2 is provided.
[0012]
According to this configuration, after moving the entire range to detect a position where the image signal is maximum and adjusting the projection lens optical system to the position where the image signal is maximum, the projection lens optical system is moved by a predetermined interval. The focal point of the projection lens optical system is readjusted by moving again in the direction of the farthest focus position and the direction of the closest focus position to measure again the position where the image signal becomes maximum. As a result, even if the optical system driving unit that drives the projection lens optical system by the first operation cannot accurately adjust the projection lens optical system to a position where the image signal is accurately maximized due to a movement error or the like, it is possible to accurately adjust the projection lens optical system. The focus position can be adjusted.
[0013]
According to the present invention as set forth in claim 4, there is provided a method of adjusting an image projected on a screen by a projection lens optical system, wherein the image on the screen is moved while moving a focal position of the projection lens optical system. Projecting, the step of measuring the place where the image signal obtained by receiving the projected image by a pair of line sensors is maximum, and the focal position of the projection lens optical system at the place where the maximum is obtained Adjusting, and measuring the distance to the image projected on the screen using the pair of line sensors after the adjusting step, calculating the relative tilt angle of the screen, and obtaining a trapezoid of the image. After the step of correcting the distortion and the step of correcting the trapezoidal distortion, up to the image projected on the screen using the pair of line sensors. Image adjustment method comprising the step of adjusting the focal position of the projection lens optical system again the distance measured is provided.
[0014]
According to the configuration of the fourth aspect, first, the in-focus position of the image projected on the screen by the automatic focus detection device is obtained. While moving the projection lens system, a pair of line sensors is used to measure the position where the received image signal is maximum, and the position of the projection lens system is adjusted to focus on that position. When the in-focus position is detected by the automatic focus detection device, the image projected from the projector onto the screen may have a repetitive pattern if appropriate for focusing. Next, trapezoidal distortion of the image projected on the screen is corrected using a pair of line sensors. At this time, an image that does not include a repetitive pattern is projected. This is because an image including a repetitive pattern is not suitable for measuring the phase difference because the distance from the projector to a plurality of locations of the image projected on the screen is measured using the phase difference between the images received by the pair of line sensors. is there. Since the projection lens optical system adjusts the focus of the image projected on the screen, the image used for correcting the trapezoidal distortion can be projected on the screen in focus. Therefore, the images received by the pair of line sensors have high contrast, and a high phase difference can be obtained. As a result, the distance from the projector to a plurality of locations of the image projected on the screen can be measured with relatively high accuracy, and therefore, the relative tilt angle of the screen can be obtained with relatively high accuracy. Therefore, the trapezoidal distortion can be corrected with high accuracy. After correcting the trapezoidal distortion, the focus of the projection lens optical system is adjusted again. This is because the focus may be shifted when correcting the trapezoidal distortion. For this reason, the distance from the projector to a plurality of locations of the image projected on the screen is measured by a pair of line sensors, and the focus fluctuation after the trapezoidal distortion correction is corrected based on the distance measurement result. In the case of a relatively large screen, the focus of the projection lens optical system may be readjusted so that the image is particularly focused on a specific portion of the screen, for example, the center position. This focus re-adjustment requires only fine adjustment from the initial focus position of the projection lens optical system, so that power consumption can be suppressed.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 includes an automatic focus detection device and an angle detection device according to the present embodiment, and focuses an image projected on a screen 1 by a projection lens optical system 8 of a projector 2 based on a focus position automatically detected. FIG. 2 is a schematic block diagram of a projector 2 that electrically corrects a trapezoidal distortion of an image projected on the screen 1 based on a detected relative tilt angle of the screen 1.
[0016]
The automatic focus detection device 20 according to the present embodiment includes a projection lens optical system 8 on the screen 1 via a pair of line sensors (31c and 31d, FIG. 10) in the imaging unit 31 of the line-type passive distance measuring device 3. Receives the image projected by. The outputs of the pair of line sensors (31c and 31d, FIG. 10) are sent to the calculation unit 22 in the automatic focus detection device 20. The calculation unit 22 measures high-frequency components or contrast data of the image signal output from the line sensor.
[0017]
The angle detection device according to the present embodiment detects a relative inclination angle of the projector 2 with respect to the screen 1 in a horizontal plane and a vertical plane. And a second line-type passive distance measuring device 4 for measuring distances to a plurality of positions arranged in a vertical direction. The line type distance measuring device has a pair of line sensors (31c and 31d, FIG. 10) in which a plurality of photodetector cells are linearly arranged as described later. The automatic focus detection device 20 receives an image on the screen 1 using the line sensor. The output of the line sensor is input to the calculation unit 22 of the automatic focus detection device 20. The automatic focus detection device 20 and the passive distance measurement devices 3 and 4 of the present embodiment do not emit or transmit light themselves, but are projected onto the screen 1 by the projection lens optical system 8 of the projector 2 by a method described later. The in-focus position and distance are measured by receiving the image.
[0018]
FIG. 2 is a plan view showing the configuration of the front of projector 2 shown in FIG. As shown in FIG. 2, a projection lens optical system 8 (which may include a condenser lens or the like) is provided in front of the projector 2, and projects an image on the screen 1. The first line-type passive distance measuring device 3 includes a pair of lenses 31a and 31b disposed on a plane constituting the front of the projector 2 and separated by a first base line length k (FIG. 11) extending in the horizontal direction. And an imaging unit 31 including Similarly, the second line-type passive distance measuring device 4 extends in the vertical direction orthogonal to the horizontal direction of the imaging unit 31 on the same plane that forms the front of the projector 2 and has a second base line length k ′ (not shown). It has an imaging unit 41 provided with a pair of lenses 41a and 41b that are arranged only apart from each other.
[0019]
Next, an automatic focus detection device 20 according to the present embodiment will be described with reference to FIGS. The arithmetic unit 22 of the automatic focus detection device 20 includes a high-pass filter (HPF) 22a that passes only high-frequency components or contrast data from image signals output from the pair of line sensors (31c and 31d, FIG. 10), a detector 22b, an A / D converter 22c, and an integrator 22d. When the power switch of the projector 2 is turned on or the like, the projector 2 takes out a pre-stored AF pattern (which may include a repetition pattern) suitable for the automatic focus from the projection image generation unit 6 and transmits the AF pattern to the transmission type liquid crystal display. The light is sent to the drive unit 7 and projected onto the screen 1 via the projection lens optical system 8. The optical system drive unit 23 includes a step motor and the like, and moves the projection lens optical system 8 back and forth along the optical axis direction to adjust the focus position of the image projected on the screen 1. That is, the automatic focus detection device 20 receives the image projected on the screen 1 by a pair of line sensors, and outputs a high frequency component or contrast data as shown in FIG. Send to control circuit 5. The control circuit 5 controls the optical system drive unit 23 and the projection lens optical system 8 based on the output from the calculation unit 22 of the automatic focus detection device 10 to perform automatic focus detection as described below, and adjusts the focus. Do.
[0020]
Next, with reference to FIG. 4, a focus position detection method by the automatic focus detection device 20 according to the present embodiment will be described. First, the projection lens optical system 8 is set at an initial position where an image projected from the projection lens optical system 8 when the power of the projector 2 is turned on is focused on the screen 1 at infinity. Then, the optical system driving unit 23 moves the focal position of the projection lens optical system 8 over the entire range from a focal position at infinity to a nearest focal position (a position determined by the projector, for example, 1 m). At this time, as shown in FIG. 4, the output from the arithmetic unit 22 increases the resolution of the image as the image on the screen 1 approaches the in-focus position, so that the high-frequency component or the contrast data increases. When the image on the screen 1 reaches the in-focus position, the high-frequency component becomes the highest, and thereafter the focus is defocused and the resolution is reduced, so that the high-frequency component is reduced. As described above, after moving the projection lens optical system 8 from the infinity focus position to the closest focus position and measuring the high frequency component or the contrast data, the projection lens optical system 8 is moved when the high frequency component or the contrast data reaches the maximum. The focus on the image on the screen 1 is adjusted by returning to the position from the closest focus position by the optical system driving unit 23. The in-focus position of the highest point is recorded by counting the drive time (or the number of step pulses) of the optical system drive unit 23 from the initial position at infinity.
[0021]
Next, an image adjusting method for a projector according to the present invention will be described with reference to FIG. As described above, when the power of the projector 2 is turned on (step 55), the focus of the image projected on the screen 1 is automatically adjusted (step 56). The focus adjustment is not limited to the time when the power is turned on, and can be changed as appropriate. For example, the focus adjustment may be automatically performed every predetermined time, or an AF switch (not shown) may be provided, and the focus adjustment may be performed when the AF switch is operated. As described above, according to the automatic focusing method of the present invention, as shown in the graph of FIG. 4, the image projected on the screen 1 is received by the light receiving sensor 21 while moving the projection lens optical system 8, and the best signal is obtained from the image signal. It is also called a hill-climbing autofocus (AF) because it detects a position where a high-frequency component (or the highest contrast data) is obtained.
[0022]
FIG. 6 shows the steps of the above-described automatic focusing method of the present invention in detail. After turning on the power, the automatic focusing operation is started. First, the projection lens optical system 8 is driven to an initial position (for example, a focal position at infinity) by the optical system driving unit 23. Here, contrast data detected by a pair of line sensors (31c and 31d, FIG. 10) of the angle detection device as high frequency components of the image signal is measured. In this specification, the description will be made assuming that the high-frequency component and the contrast data can be exchanged. The contrast data value (cont), the maximum contrast data value (Max_cont), the time when the contrast data has reached the maximum value (Tp), the recall time (Tr) (the time for returning the projection lens optical system 8 from the closest focus position to the initial position direction) Tr = Ti−Tp) are reset to zero (step 60). The feeding time Ti during which the projection lens optical system 8 is moved at a constant speed over the entire range from the initial position (focal position at infinity) to the closest focus position by the optical system driving unit 23 such as a step motor is set in advance.
[0023]
Next, an AF pattern suitable for the automatic focusing operation stored in advance in the projector 2 is projected onto the screen 1 via the projection lens optical system 8. Since the AF pattern does not measure the phase difference unlike the angle detection operation, it may be a repetitive pattern (step 61). The optical system driving unit 23 moves (projects) the projection lens optical system 8 from the initial position (focal position at infinity) to the latest focal position at a constant speed (at the same time, a pair of line sensors are projected on the screen 1 at the same time). Is received and the timer is operated (step 62). Each sensor data is read from the pair of line sensors (31c and 31d, FIG. 10) (step 63). Then, A / D conversion is performed on each sensor data (step 64). A contrast data (cont) value is calculated from each sensor data (step 65). Then, the average value of the respective contrast data (cont) obtained from the pair of line sensors (31c and 31d, FIG. 10) is obtained (step 66). It is determined whether the averaged contrast data (cont) value is larger than the maximum contrast data value (Max_cont) (step 67). If it is larger, the contrast data (cont) value is put into the maximum contrast data value (Max_cont), and the timer time Tp at that time is stored (step 68). Then, it is determined whether or not the current timer time has reached the extension time Ti required for moving the projection lens optical system 8 from the initial position (infinity focus position) to the latest focus position by the optical system drive unit 23 ( Step 69). If not, the process returns to step 63. If the contrast data (cont) value is not larger than the maximum contrast data value (Max_cont) (step 67), the process directly proceeds to step 69. If the current timer time has reached the extension time Ti, the movement of the projection lens optical system 8 by the optical system drive unit 23 is stopped (step 70), and the reversion for returning to the position of the maximum contrast data value is performed. The time Tr is calculated (Tr = Ti−Tp) (step 71). Then, the optical system driving unit 23 moves the projection lens optical system 8 from the closest focus position to the initial position (focal position at infinity) by the retraction time Tr (step 72). Then, whether or not the contrast data has the maximum value is detected again by the method of FIG. 7 (step 73). Note that the initial position and the driving direction of the projection lens optical system 8 are not limited to the above. For example, the initial position is set as the nearest focus position, the projection lens optical system 8 is moved from the initial position by the time Ti and driven to the infinity focal position, and is then moved out from the initial position by the time Tr to return to the position of the maximum contrast data value. May be.
[0024]
In this way, when the power of the projector 2 is turned on, the focus adjustment of the image projected on the screen 1 is performed. The projection lens optical system 8 projects an image on the screen 1 while moving the focal position, receives light by a pair of line sensors, measures high frequency components or contrast data of each image signal, and obtains an average value thereof. A position having the maximum high-frequency component or contrast data after the averaging process is detected as a focus position. For this reason, errors in mounting the pair of line sensors and errors due to the characteristics of the lens that forms an image on the pair of line sensors can be absorbed, the focus can be accurately determined to adjust the focus, and highly reliable autofocus can be performed. It becomes.
[0025]
Next, description will be made with reference to FIG. The method of FIG. 7 describes in detail the step of detecting the maximum value of the contrast data again (step 73) of FIG. That is, the projection lens optical system 8 is advanced by the predetermined number of steps (Ni_max) from the position returned in step 72 in FIG. Then, when the projection lens optical system 8 is extended, contrast data is measured again (step 74 and FIG. 8). Next, from the position returned in step 72 of FIG. 6, the projection lens optical system 8 is moved toward the infinity focal position by the predetermined number of steps (Nr_max). Then, when the projection lens system 8 is retracted, the contrast data is measured again (step 75 and FIG. 9). The predetermined number of steps (Nr_max) and (Ni_max) correspond to the movement of the projection lens optical system 8 from the in-focus position in FIG. 4 at a predetermined interval, and can be appropriately selected. For example, each can have 5 steps. Then, the maximum contrast data (Max_contI and Max_contR) measured in the respective steps 74 and 75 are compared (step 76), and the projection lens optical system 8 is moved to the position where the larger contrast data is measured (Nip). Step advance or Nrp step advance) (Step 77 or 78).
[0026]
FIG. 8 is a flowchart showing in detail the operation of step 74 in FIG. First, initialization is performed, and the Max_contI value, the cont value, the Nip value, and the n value are set to zero (step 81). Then, the projection lens optical system 8 is extended by one step toward the closest focus position, and 1 is added to the n value (step 82). Next, data is read out from the pair of line sensors (31c and 31d, FIG. 10), respectively, and sent to the calculation unit (22, FIG. 3) to perform processing such as A / D conversion to obtain contrast data. (Step 83). Thereafter, an average value of the pair of contrast data is obtained, and the averaged contrast data is substituted for the cont value (step 84). This cont value is compared with the Max_contI value (step 85). If the cont value is larger, the cont value is substituted for the Max_contI value, and the n value is substituted for the Nip value (step 86). Then, it is determined whether or not the n value has reached the Ni_max value (step 87). The Ni_max value is the maximum number of steps for extending the projection lens optical system in the direction of the closest focus position, for example, five steps. If it is determined in step 85 that the cont value is smaller than the Max_contI value, the flow directly proceeds to step 87. If the value n reaches the maximum number of extending steps Ni_max in step 87, the projection lens optical system 8 is advanced by the maximum number of extending steps Ni_max, that is, the projection lens optical system 8 is returned to the infinity focal position and returned to the initial position. Next, the operation shown in FIG. 9 is performed.
[0027]
FIG. 9 is a flowchart showing in detail the operation of step 75 in FIG. First, initialization is performed, and the Max_contR value, cont value, Nrp value, and n value are set to zero (step 91). Then, the projection lens optical system 8 is retracted by one step toward the focal position at infinity, and 1 is added to the n value (step 92). Next, data is read out from the pair of line sensors (31c and 31d, FIG. 10), respectively, and sent to the calculation unit (22, FIG. 3) to perform processing such as A / D conversion to obtain contrast data. (Step 93). Then, the average value of the contrast data from the pair of line sensors is calculated, and the contrast data after the averaging process is substituted for the cont value (step 94). This cont value is compared with the Max_contR value (step 95). If the cont value is larger, the cont value is substituted for the Max_contR value, and the n value is substituted for the Nrp value (step 96). Then, it is determined whether or not the n value has reached the Nr_max value (step 97). The Nr_max value is the maximum number of steps in which the projection lens optical system 8 is moved toward the infinity focal position, for example, five steps. If it is determined in step 95 that the cont value is smaller than the Max_contR value, the flow directly proceeds to step 97. If the value n has reached the maximum number Nr_max of recurring steps in step 97, the projection lens system 8 is advanced by the maximum number Nr_max of recurring steps, that is, the projection lens optical system 8 is returned to the direction of the latest focal point and returned to the initial position. Next, the operations from step 76 shown in FIG. 7 described above are performed.
[0028]
FIG. 21 is a graph for explaining the focusing operation shown in FIGS. 7 to 9. The projection lens optical system is extended from the infinity focus position to the closest focus position for the extension time Ti, and the extension time Tp at the time when the maximum contrast data or the average value of the high-frequency components is obtained from the pair of line sensors. Is stored, and when the extension time Ti has been reached, the projection lens optical system is stopped, and the projection lens optics is advanced from the closest focus position to the infinity focus position by the integration time Tr = Ti−Tp. Return the system to the position where the maximum contrast data or high frequency component was obtained. Then, a predetermined interval or a predetermined number of steps are used to extend and retreat the closest focus direction and the infinity focus direction from the returned position, and measure the contrast data or the high-frequency component. In search of the obtained position, the focal position of the projection lens optical system is readjusted. Even if the optical system driving unit 23 that drives the projection lens optical system 8 cannot accurately return the projection lens optical system 8 to the position of the maximum contrast data due to a movement error or the like, the area around the projection lens optical system 8 is projected. 8, the focus position having the maximum contrast data can be detected again to adjust the focus.
[0029]
Next, referring again to FIG. 5, after the focusing operation (step 56) is performed by the above-described hill-climbing autofocus, the relative inclination angle between the projector 2 and the screen 1 is detected by the angle detection device. Is detected, and the trapezoidal distortion is corrected (step 57). The angle detector uses a pair of line sensors to measure the phase difference between the received signals of the image projected on the screen 1 to measure the distance to the image on the screen, as described later. Since it is difficult to detect the phase difference in the image (1), a pattern different from the AF pattern may be used for angle detection. If both the AF pattern and the angle detection pattern do not include a repetitive pattern, both patterns can be unified, so that the configuration can be simplified. The image on the screen 1 has a relatively high contrast because the focus has already been adjusted in the previous step 56 of FIG. As a result, a highly accurate phase difference can be measured by the pair of line sensors of the angle detection device. Therefore, highly accurate distance measurement and angle detection can be performed, and trapezoidal distortion can be corrected with higher precision.
[0030]
During the trapezoidal distortion correction (step 57), the image on the screen 1 is shifted from the initial focus position. When the screen 1 has a relatively large screen, it may be desired to focus an image of a portion of the screen 1 (for example, a central portion) with particularly high precision. For this reason, the focus of the projection lens optical system 8 is adjusted based on the distance measurement data obtained by the phase difference detection method of the pair of line sensors (step 58). This focus adjustment (step 58) is different from the hill-climbing AF in step 56 of FIG. 5 in that the optical system driving unit 23 uses the projection lens based on the distance measurement data obtained by the phase difference detection method of the pair of line sensors. The focus position of the optical system 8 is adjusted from the first focus position. For this reason, the amount of movement remains within the range of fine adjustment. Therefore, it is possible to suppress power consumption accompanying movement of the projection lens optical system 8. In addition, this focus adjustment (step 58) is particularly effective when the projector projects on a large-screen screen because the center of the screen can be more accurately focused.
[0031]
Next, a method of detecting the relative inclination angle of the screen 1 by the angle detection device according to the present embodiment will be described with reference to FIG. 1 again. If the optical axis emitted from the projection lens optical system 8 to the screen 1 is in a positional relationship perpendicular to the screen 1 plane, the distance from the projection lens 8 to the top and bottom (or left and right) of the screen 1 is equal, No trapezoidal distortion occurs in the image on 1. However, in practice, the projector 2 is shifted downward or upward from the center of the screen so as not to obstruct the viewer when irradiating from the front of the screen 1. The projection optical axis irradiated to 1 is inclined from a position perpendicular to the plane of the screen 1.
[0032]
For this reason, the distance from the projection lens 8 is different between the upper and lower portions of the screen 1, and a trapezoidal distortion occurs in the image projected on the screen 1. As described above, in order to correct the trapezoidal distortion, the inclination of the optical axis of the projection lens 8 is optically corrected, or the portion projected small (large) due to the trapezoidal distortion is greatly enlarged (small reduced). Electrical correction is performed by an electric circuit to perform image processing. This electrical correction is described in Patent Document 2.
[0033]
In order to automatically perform these corrections, first, it is necessary to automatically and accurately measure the inclination angle at which the vertical direction of the screen 1 is inclined with respect to the optical axis of the projection lens 8.
[0034]
As will be described in detail below, the angle detecting device of the present embodiment includes first and second line-type passive distance measuring devices 3 and 4, and the horizontal (first By measuring the distance to a plurality of positions along the direction of the base line length of the line-type passive distance measuring device 3) and perpendicularly (corresponding to the direction of the base line length of the second line-type passive distance measuring device 4), the projector The relative tilt angle of the screen 1 with respect to 2 can be accurately measured in horizontal and vertical planes.
[0035]
The first and second line-type passive distance measuring devices 3 and 4 have operation units 32 and 42, respectively, and receive signals from the imaging units 31 and 41, respectively. Output signals from the operation units 32 and 42 are input to the control circuit 5. The control circuit 5 controls the first and second line-type passive distance measuring devices 3 and 4, and receives an input image from a device such as a personal computer (not shown) to output image information and a projection image generating unit 6; The transmission type liquid crystal display driving unit 7 that outputs an image to the projection lens optical system 8 is controlled. Further, the control circuit 5 receives an output from the calculation unit 22 of the automatic focus detection device 20, detects a focus position, and adjusts a focus position of the projection lens optical system 8 via the optical system drive unit 23. Further, the control circuit 5 calculates the relative tilt angles of the screen 1 with respect to the projector 2 in the horizontal direction and the vertical direction based on the outputs from the calculation units 32 and 42, respectively. Next, the control circuit 5 controls the projection image generation unit 6 and / or the transmission type liquid crystal display drive unit 7 based on the calculated inclination angle so as to correct the trapezoidal distortion, so that the screen 1 can be moved up and down and / or Alternatively, the image projected right and left is enlarged or reduced. As described above, the optical correction or the electrical correction itself of the trapezoidal distortion is known (for example, see Patent Document 2), and thus will not be described further. The control circuit 5, the operation unit 22, the operation units 32 and 42, and the memory unit 10 can be configured by one microprocessor (CPU) 9.
[0036]
The memory unit 10 stores data and instructions necessary for the configuration of the present invention, and supplies or receives data and instructions to the control circuit 5, the arithmetic unit 22, and the arithmetic units 32 and 42 as needed. The memory unit 10 includes two types of memory devices such as a non-volatile flash memory and a volatile RAM, and instructions and data used for a long time necessary for the present invention are stored in the non-volatile memory device. Data used only temporarily is stored in a volatile memory device.
[0037]
Next, the configuration of the angle detection device according to the present embodiment will be described with reference to the functional block diagram of FIG. For the sake of simplicity, only the configuration of the first line-type passive distance measuring device 3 will be described, but the second line-type passive distance measuring device 4 has the same configuration. Under a pair of lenses 31a and 32b horizontally separated by a base line length k (FIG. 11) on a plane constituting the front surface of the projector 2, a focal length f (FIG. 11) from these lenses 31a and 32b. And the line sensors 31c and 31d are arranged along the base line length k (horizontal) direction. The line sensors 31c and 31d are a pair of line CCDs having a predetermined number, for example, 104, of light detection elements (pixels) arranged in a straight line, or other line type imaging elements. From the imaging unit 31, an electric signal corresponding to the light amount of the image formed on each pixel of the line sensors 31c and 31d by the lenses 31a and 31b is output in series via the output unit 31e.
[0038]
The A / D conversion unit 32a converts an analog electric signal output from the output unit 31e of the imaging unit 31 into a digital signal. The digitized output signals from the line sensors 31c and 31d are stored in the memory area 32b as image data signal strings IL and IR, respectively, for subsequent processing. Accordingly, a pair of image data signal strings IL and IR each consisting of 104 data strings are stored in the memory area 32b. The memory area 32b may be provided in the memory unit 10.
[0039]
The filter processing unit 32c removes the DC component from the line sensor output signal (filing) and changes the image data signal trains IL and IR to a useful signal including only the spatial frequency component corresponding to the image. As will be described later with reference to FIGS. 11 and 12, the correlation operation unit 32d includes a partial image data group iLm (for example, 26 pixel groups spatially close to each other in the image data signal strings IL and IR). The reference image) and iRn (reference image) are selectively extracted, and the two partial image data groups iLm and iRn are compared with each other to calculate the degree of coincidence of data. For example, one partial image data group iLm is fixed as a reference unit, and the other partial image data group iRn is used as a reference unit, and the comparison is repeated with each pixel even in the IR even one pixel at a time. The maximum correlation degree detection unit 32e detects two partial image data groups iLm and iRn having the highest degree of data matching in the pair of image data signal strings IL and IR.
[0040]
The interpolation calculation unit 32f determines the position interval between the partial image data groups iLm and iRn having the highest degree of coincidence obtained by the maximum correlation degree detection unit 32e with a more accurate position than the position interval in pixel pitch units using a known interpolation method. Interpolate to intervals. Based on the position interval interpolated by the interpolation calculation unit 32f, the phase difference detection unit 32g determines the relative position of the pair of images of the same distance measurement target object formed on the pair of line sensors 31c and 31d. Calculate the phase difference (shift amount).
[0041]
As will be described later with reference to FIG. 19, the contrast centroid calculation unit 32h calculates the contrast centroid of the images formed on the line sensors 31c and 31d. The reliability determination unit 32i determines the reliability of the calculated relative phase difference (shift amount) between the positions imaged on the two line sensors 31c and 31d. This reliability determination is performed, for example, if the object whose distance is to be measured is correctly imaged on both line sensors 31c and 31d, the coincidence obtained by the maximum correlation detection unit 32e is equal to or greater than a predetermined value. Should be. Therefore, even if the degree of coincidence obtained by the maximum correlation degree detection unit 32e is relatively high, if the degree of coincidence is less than a predetermined value, the reliability is determined to be low, and the reliability determination unit 32i determines that the degree of reliability is low. Eliminate the result. If the degree of coincidence obtained by the maximum correlation degree detection unit 32e is equal to or greater than a predetermined value, it is determined that the data is reliable and CONF_FLG1 = OK. The configurations of the imaging unit 31 and the calculation unit 32 described above are well known, and are described in, for example, Patent Literature 3 and Patent Literature 4. Therefore, further description will be omitted.
[0042]
[Patent Document 3]
Japanese Patent No. 3230759 [Patent Document 4]
Japanese Patent Publication No. 4-77289 [0043]
Further, the angle detection device according to the present embodiment includes a mutual reliability determination unit 51 for determining the reliability of the distance measurement result of a small group of several spatially adjacent measurement positions, and a spatially adjacent number of An average calculator 52 for calculating an average value of the distance measurement result and the center of gravity of the contrast with respect to the small group at the measurement position, and an angle calculator 53 for calculating an inclination angle from the distance measurement result are included. Based on the tilt angle of the screen 1 calculated by the angle calculation unit 53, a correction amount for correcting trapezoidal distortion is given to the projection image generation unit 6 and / or the display drive unit 7. Thus, the trapezoidal distortion on the screen 1 is corrected.
[0044]
When the line sensors 31c and 31d are used instead of the light receiving sensor 21 of the automatic focus adjustment device 20, the outputs of the line sensors 31c and 31d from the output unit 31e in FIG. You can also send it to
[0045]
Next, the operation principle (external light triangulation method) of the line type passive distance measurement device 3 will be described with reference to FIG. The first line-type passive distance measuring device 3 includes a pair of lenses 31a and 31b extending in a horizontal direction on a plane constituting the front of the projector 2 and separated by a base length k, and the lenses 31a and 31b from the base length k. And a pair of line sensors 31c and 31d extending along the same horizontal direction as the base line length k direction at a focal distance f. The first line type passive distance measuring device 3 measures the distance between a base line length k and a plurality of positions on the plane of the screen 1 located in a plane including the line sensors 31c and 31d, and determines the base line length k and the line sensor. The relative inclination angle of the screen 1 plane with respect to the projector 2 in the plane including 31c and 31d is calculated.
[0046]
For the sake of simplicity, only the first line-type passive distance measuring device 3 will be described here, and the description of the second line-type passive distance measuring device 4 will be omitted. The description also applies to the second line type passive distance measuring device 4 only by replacing the horizontal direction with the vertical direction.
[0047]
In FIG. 11A, a pair of lenses 31a and 31b are spaced apart from each other by a predetermined base line length k extending in the horizontal direction on a plane constituting the front surface of the projector 2. A pair of line sensors 31c and 31d separated from the pair of lenses 31a and 31b by their focal length f and extending in the base line length k direction (horizontal direction) are provided below a plane constituting the front surface of the projector 2. Are located. The line sensors 31c and 31d are arranged such that their central portions are located substantially on the optical axes 31ax and 31bx of the lenses 31a and 31b, respectively, and the corresponding lenses 31a and 31b As a result, an image 1A at a certain position on the screen 1 to be measured is formed. In FIG. 11A, the measurement position 1A on the screen 1 is imaged on the line sensors 31c and 31d through the optical paths A and B in different directions, via the respective lenses 31a and 31b. .
[0048]
If it is assumed that the measurement position 1A is located at infinity, the measurement position 1A is located on the line sensors 31c and 31d located at the focal length f from the pair of lenses 31a and 31b. An image is formed at reference positions 31cx and 31dx crossing the axes 31ax and 31bx.
[0049]
Next, when the measurement position 1A approaches from the infinity position along the direction A on the optical axis 31ax of the lens 31a, and reaches the position of FIG. 11A, that is, the distance LC, the measurement position 1A is placed on the line sensor 31c. In, the image is still formed on the reference position 31cx, but is formed on the line sensor 31d by the lens 31b at a position shifted from the reference position 31dx by a phase difference (shift amount) α.
[0050]
From the principle of triangulation, the distance LC to the measurement position 1A is determined by LC = kf / α. Here, the base line length k and the focal length f are known values that are known in advance. If the phase difference (shift amount) α from the reference position 31dx on the line sensor 31d is detected, the distance LC can be measured. This is the principle of operation of a passive line sensor distance measuring device for external light triangulation. The detection of the phase difference (shift amount) α and the calculation of LC = kf / α are executed by the calculation unit 32 in FIG.
[0051]
The detection of the phase difference (shift amount) α from the reference position 31dx of the line sensor 31d is performed by detecting the partial image data groups iLm and iLm extracted from the pair of image data signal strings IL and IR output from the pair of line sensors 31c and 31d, respectively. The operation unit 32 detects iRn by performing a correlation operation. This correlation operation is well known (for example, see Patent Document 3).
[0052]
For this reason, a detailed description of the correlation calculation is omitted, and only the following brief description will be given. As shown in FIG. 11B, in the correlation operation, the area where the degree of coincidence is highest when the partial image data groups iLm and iRn are overlapped with each other is determined by using the partial image data groups iLm and iRn to be overlapped with the line sensors 31c and 31d. This is an operation for detecting while shifting relatively. In FIG. 11B, the partial image data group iLm from one of the line sensors 31c is fixed at a reference position 31cx and used as a reference portion. The position of the partial image data group iRn from the other line sensor 31d is shifted by one pixel as a reference portion, and a partial image data group iRn having the highest matching degree with the reference portion is searched for. The interval between the position on the line sensor 31d that generates the partial image data group iRn having the highest matching degree and the reference position 31dx of the line sensor 31d is the phase difference (shift amount) α.
[0053]
Each of the line sensors 31c and 31d is composed of a pair of line CCDs in which a predetermined number of photodetector cells (pixels) are arranged on a straight line of a predetermined length, as will be described later with reference to FIG. The phase difference (shift amount) α can be easily obtained from the pixel position and the pixel pitch in the image data signal sequence IR of the partial image data group iRn. In this way, the distance LC to the measurement position 1A in the same direction A as the optical axis 31ax of the lens 31a can be measured by detecting the phase difference (shift amount) α.
[0054]
Next, the principle of measuring the distances LR ′ and LR to the measurement position 1B in a different direction from FIG. 11 will be described with reference to FIG. As shown in FIG. 12A, an image of the measurement position 1B is formed on the line sensors 31c and 31d through the optical paths C and D in different directions, via the lenses 31a and 31b, respectively.
[0055]
If it is assumed that the measurement position 1B exists at infinity in the direction C to be measured, the center of the image at the measurement position 1B formed on the pair of line sensors 31c and 31d by the pair of lenses 31a and 31b is The reference positions 31cy and 31dy are separated from each other by the base line length k. Next, when the measurement position 1B at the infinity position approaches along the distance measurement direction C and reaches the position shown in FIG. 12A, the image at the measurement position 1B formed by the lens 31a is displayed on the line sensor 31c. Does not change, but the position of the image at the measurement position 1B formed by the lens 31b on the line sensor 3dc is shifted from the reference position 31dy by a phase difference (shift amount) α ′.
[0056]
From the principle of triangulation, the distance LR to the measurement position 1B is LR = kf / (α′cosβ). The angle β is a tilt angle of the distance measurement direction C with respect to the vertical line of the base line length k, that is, the optical axis 31ax of the lens 31a, and is an angle determined by determining the measurement direction C. Since the base line length k, the focal length f and the cos β are known values, the distance LR can be measured by detecting the phase difference (shift amount) α ′.
[0057]
The distance LR ′ from the same plane (base line length k) constituting the front of the projector 2 on which the lenses 31a and 31b are arranged to the measurement position 1B is obtained by LR ′ = LRcosβ = kf / α ′. That is, the distance LR ′ can be obtained from the known base line length k and focal length f by detecting the phase difference (shift amount) α ′. That is, the angle β is unnecessary for measuring the distance LR ′.
[0058]
In order to detect the phase difference (shift amount) α ′, the above-described correlation calculation is performed. As shown in FIG. 12B, the position is fixed using the partial image data group iLm corresponding to the reference position 31cy from one line sensor 31c as a reference part, and the partial image data group iRn from the other line sensor 31d is fixed. The reference portion iRm having the data with the highest matching degree with the data of the reference portion iLm is found by shifting the position as a reference portion by one pixel and overlapping each other.
[0059]
Each of the line sensors 31c and 31d is composed of a pair of line CCDs in which a predetermined number of photodetector cells (pixels) are linearly arranged at a predetermined length as described later with reference to FIG. The phase difference (shift amount) α ′ is calculated from the position (pixel number) in the image data signal sequence IR of the partial image data group iRn and the position (pixel number) in the image data signal sequence IL of the partial image data group iLm and the pixel pitch. It can be easily obtained.
[0060]
In the above-described correlation calculation method, the partial image data group iLm from one line sensor 31c is fixed as a reference unit, and the partial image data group iRn from the other line sensor 31d is used as a reference unit and the position is set to one pixel. It is said that the degree of coincidence is inspected by shifting each other. However, when the distance measurement direction is a direction from the intermediate position between the lenses 31a and 31b, the position of the partial image data groups iLm and iRn is moved in the opposite direction on the line sensors 31c and 31d. The group iLm and iRm may be inspected for a high degree of matching with each other.
[0061]
Next, one of the pair of line sensors 31c and 31d will be described in detail with reference to FIG. The other line sensor 31d is configured similarly to the line sensor 31c. The line sensor 31c is configured by a linear CCD (charge coupled device) in which a large number of, for example, 104 photodetector cells (pixels) are linearly arranged, or another linear imaging device. The 104 photodetector cells (pixels) are assigned pixel numbers in order from the left end to the right end in the figure. In these photodetector cells (pixels), seven distance measurement calculation areas are divided into 31c1 (1-26), 31c2 (13-38), 31c3 (27-52), and 31c4 (39) by a group of adjacent 26 units. 64), 31c5 (53 to 78), 31c6 (65 to 90) and 31c7 (79 to 104). Here, the numbers in parentheses are the photodetector cell (pixel) numbers. Each of the distance measurement calculation areas 31c1 to 31c7 has the first half of the 26 photodetector cells included in the distance measurement calculation area adjacent to the front and the latter half included in the distance measurement calculation area adjacent to the rear. The distance calculation areas 31c1 to 31c7 overlap the adjacent distance measurement calculation areas by half each other.
[0062]
The signals from the photodetector cells (pixels) in each of the distance measurement calculation areas 31c1 to 31c7 correspond to each partial image data group iLm of the image data signal sequence IL of the line sensor 31c in FIGS. Each of the center positions a (13), b (26), c (38), d (52), e (64), f (78) and g (90) of each of the distance measurement calculation areas 31c1 to 31c7 is (however, , The number in parentheses is the pixel number), which is the reference position for determining the distance measurement direction. As a result, the distance measuring device 3 using the line sensors 31c and 31d according to the present embodiment measures the distance to the seven separated positions on the screen 1 in the same plane (horizontal plane) as the reference line k. be able to. However, the actual distance measurement direction can be corrected by the contrast centroid position in the distance measurement calculation area by the contrast centroid calculation unit 32h in FIG. FIG. 13 shows reference positions a ', b', c ', d', e ', f', and g 'corresponding to the other line sensor 31d. It is used when calculating a shift amount when performing a correlation calculation with the distance calculation area.
[0063]
The plurality of different positions on the screen 1 for which the distance is to be measured according to the present invention need not be limited to seven, but may be an appropriate number, for example, 11 or the number of pixels of the line sensors 31c and 31d or the distance measurement operation area Can be selected by appropriately selecting the number.
[0064]
For example, 11 distance measurement calculation areas may be provided in units of 27 photodetector cell (pixel) groups using a line CCD having 162 photodetector cells (pixels). In each area, 13 to 14 pixels out of the 27 pixels are used in an overlapping manner with the adjacent distance measurement calculation area. In this example, one of 11 positions along the reference line direction (horizontal direction) on the screen 1 can be selected.
[0065]
Next, description will be made with reference to FIG. FIG. 14 shows a state where the mutual positional relationship between the screens 1 of the projector 2 is set to a predetermined positional relationship in order to perform initial adjustment of the line type distance measuring devices 3 and 4. That is, the screen 1 is previously set in parallel with the base lengths k and k ′ (not shown) so that the projection optical axis from the projection optical lens system 8 of the projector 2 is perpendicular to the screen 1. An image suitable for initial adjustment of the mold distance measuring devices 3 and 4 is projected. The initial adjustment means, for example, that the lenses 31a and 31b have aberrations. For this reason, when different measurement positions along the base line length k direction on the screen 1 are imaged on the line sensors 31c and 31d, they are actually distorted instead of being formed on a straight line. In the initial adjustment, a correction coefficient for correcting the distortion due to the lens aberration is calculated, stored in the memory unit 10, and used by the calculation units 32 and 42 thereafter. The line-type distance measuring device 3 measures the distances on the screen 1 in the seven distance-measuring directions using the seven distance-measuring calculation areas 31c1 to 31c7 on the line sensor 31c. For simplicity, in FIG. 14, out of the seven directions, 1C, 1E, and 1G on the screen 1 in three ranging directions corresponding to the three ranging calculation areas 31c3, 31c5, and 31c7 on the line sensor 31c. Only the position is shown.
[0066]
Next, a method of measuring the relative inclination angle of the screen 1 using the passive line distance measuring device 3 will be described with reference to FIGS. For the sake of simplicity, the two distance measurement directions C and G of the two distance measurement calculation areas 31c3 and 31c7 of the line sensor 31c are used, and two distance measurement directions C and G on the screen 1 in the two distance measurement directions C and G are used. Two distances LR ′ and LL ′ to the two measurement positions 1C and 1G are measured by the method described with reference to FIG. In the present embodiment, only two distances LR ′ and LL ′ are measured, but actually, distances to seven measurement positions on the screen 1 in seven distance measurement directions are measured.
[0067]
If the measurement positions 1C and 1G on the screen 1 are images suitable for passive distance measurement, an image including a logo of a projector manufacturer projected on the screen 1 via the projection lens 8 of the projector 2 may be used. Also, when the angle detection operation is performed periodically during the operation of the projector 2, the measurement positions 1C and 1G on the screen 1 may be any images projected on the screen 1.
[0068]
The distance L between the reference positions c (38) and g (90) in the distance measurement directions C and G of the two distance measurement calculation areas 31c3 and 31c7 of the line sensor 31c is determined by the pixel number and pixel pitch in parentheses. This is a known value.
[0069]
Assuming that a point perpendicularly lowered from the measurement position 1C on the straight line k2 parallel to the base line length k to a straight line k1 parallel to the base line length k passing through the measurement position 1G is C ′, between the measurement positions 1C and C ′ Is equal to LR′−LL ′. When the inclination angle θ1 of the screen 1 is not so large, the point of the distance LR′−L / f from the measurement position 1G on the straight line k1 is C ″, and the magnitude of LR′−LL ′ is C ′. The distance 1C'-C "when the intersection point 1C 'between the screen 1 and the line orthogonal to the straight line k1 from" is obtained. Usually, the relative positional relationship between the screen 1 and the projector 2 is manually set in advance. Is often adjusted, the inclination angle θ1 does not become very large, and this approximation is appropriate in many cases.The triangle formed by the measurement position 1G and the point C ″ and the center of the lens 31a and the reference The triangle formed by the positions c and g and the center of the lens 31a have a similar relationship, and the two reference positions c (38) and g (90) of the two distance measurement calculation areas 31c3 and 31c7 on the line sensor 31c. ) Distance between L, since then corresponds to the distance between the measurement position 1G~ point C ", the value of the inclination angle θ1, using the relationship and trigonometric functions similar shape,
θ1 = arctan {(LR′−LL ′) / (LL ′ * L / f)}
You can ask.
[0070]
Therefore, the control circuit 5 of the projector 2 can calculate the inclination angle θ1 of the screen 1 and the projector 2 in the base line length k direction in the horizontal plane by performing the above equation. The control circuit 1 in FIG. 1 can give an instruction to correct the trapezoidal distortion of the image to the projection image generation unit 6 and / or the display drive unit 7 based on the magnitude of the inclination angle θ1. However, the inclination angle θ1 obtained from the above equation depends on the accuracy of the distance measurement results LR ′ and LL ′ to the measurement positions 1G and 1C.
[0071]
In FIG. 15, the measurement distances are replaced with the lengths of the vertical lines LR ′ and LL ′ lowered in the base line length k direction from the measurement positions 1C and 1G, and the distances along the distance measurement directions C and G from the lens 31a. The length may be up to the measurement positions 1C and 1G. This case will be described with reference to FIG.
[0072]
If high accuracy is required for angle detection, each distance measurement calculation area 31c3 and 31c7 used for angle detection is replaced by the distance L between the reference values c (38) and g (90). The distance of the position of the center of gravity of the contrast in the distance calculation areas 31c3 and 31c7 may be used.
[0073]
Referring to FIG. 19, distance measurement using the position of the center of gravity of the contrast by the contrast center of gravity calculation unit 32h of FIG. 10 will be described. As is well known, passive distance measurement includes an operation of detecting a location having the highest matching degree when a pair of images formed on two line sensors are superimposed. This is to detect whether or not the contrast states of the images match.
[0074]
Therefore, in the passive type distance measurement, if the designed distance measurement direction of one distance measurement operation area 31cn is the direction of the arrow J as shown in FIG. 19, an image is formed on the distance measurement operation area 31cn. If the image to be measured is an image in which the contrast position 1K exists only in the arrow K direction, the actual distance measurement direction is shifted from the arrow J direction to the arrow K direction. If the distance measurement target image formed on the distance measurement calculation area 31cn is an image in which the contrast position 1M exists only in the arrow M direction, the actual distance measurement direction is shifted from the arrow J direction in the arrow M direction. . Further, when the image of the distance measurement target formed on the distance measurement calculation area 31cn is an image in which the contrast positions 1K and 1M exist in the arrow K direction and the arrow M direction, the actual distance measurement direction is from the arrow J direction. The image is shifted to the position of the center of gravity of the contrast of the image formed on the measurement calculation area 31cn.
[0075]
Therefore, by using the distance of the position of the center of gravity of the contrast in each distance measurement calculation area as a value corresponding to the distance between the two distance measurement calculation areas used for angle detection, a highly accurate distance L can be used. The angle detection accuracy is improved. The method of determining the position of the center of gravity of the contrast is described in Patent Document 5 and is well known.
[0076]
[Patent Document 5]
JP-A-8-75985
For reference, Equation 1 for obtaining the position of the center of gravity of the contrast in the present embodiment is shown below.
[0078]
(Equation 1)
Figure 2004347911
Here, L (): sensor data Sa on the reference portion 31c side: light receiving element minimum No. on the reference portion 31c side.
Wn: number of light receiving elements in the subgroup t; integer (generally 1 to 4)
In order to cancel the influence of noise, when the absolute value of the difference is equal to or less than a predetermined value (noise cancellation level), the difference is not added to the sum.
The light receiving elements (pixels) arranged in one line of the line sensor 31c have a series of serial numbers (pixel numbers).
[0079]
Next, with reference to FIG. 20, a description will be given of a method of calculating the inclination angle θ1 using the passive line distance measuring device 3 according to another method. As shown in FIG. 20, the inclination angle of the screen 1 with respect to the base line length k of the line-type passive distance measuring device 3 (horizontal direction of the projector 2) is set to θ1, and the distance measurement of the line sensor 31c is performed by the method described with reference to FIG. The distance to the screen 1 calculated by the distance measurement along the distance measurement direction of the calculation area 31c7 is L1, and the distance to the screen 1 calculated by the distance measurement along the distance measurement direction of the distance calculation area 31c3. The distance is assumed to be L2. The angle formed by the distance measurement direction of the previously known distance measurement calculation area 31c3 and the direction perpendicular to the base line length direction is β, and the angle between the previously known distance measurement calculation area 31c7 and the base line length direction is the same. The angle formed by the vertical direction is γ. The inclination angle θ1 is calculated by the following equation.
[0080]
θ1 = arctan (L2cosβ−L1cosγ) / (L1sinγ + L2sinβ)
[0081]
In this way, the control circuit 5 shown in FIG. 10 calculates the tilt angle of the screen 1 and corrects the trapezoidal distortion of the image on the screen 1 based on the obtained tilt angle. As described above with reference to step 58 in FIG. 5, after correcting the trapezoidal distortion, the distance from the projector 2 to the screen 1 is measured by the distance measuring device 3 to adjust the focus of the projection lens optical system 8. Do it again. Specifically, for example, the control circuit 5 outputs a signal based on the focal position of the projection lens optical system 8 corresponding to the distance to the screen 1 measured by the distance measuring device to the optical system driving unit 23, and drives the optical system. The unit 23 performs focus adjustment by driving the projection lens optical system 8 to the focus position. This corrects the focus fluctuation after the trapezoidal distortion correction, and in the case of a relatively large screen, focuses the projection lens optics so that the image at a specific location on the screen, for example, the center position, is particularly focused. To readjust. This readjustment requires only a small adjustment with a small movement from the in-focus position by the hill-climbing AF in step 56 of FIG. 5 of the projection lens optical system 8, and power consumption can be suppressed.
[0082]
Note that, instead of the hill-climbing AF in step 56 in FIG. 5, when the power is turned on, a distance measurement operation by phase difference measurement using a pair of line sensors of the distance measurement device 3 is performed, and focusing is performed based on the distance measurement data. If the adjustment is made, the focus detection device 20 may not be required. However, it is considered that the image on the screen is out of focus at the initial stage such as when the power is turned on in step 55, and the contrast of the image on the screen is low. Therefore, the accuracy of the phase difference detected by the pair of line sensors of the distance measuring device 3 is low, and the accuracy of the distance measurement result is also low, and the focus adjustment cannot be accurately performed by the pair of line sensors of the distance measuring device 3. Is considered to occur. If the contrast of the image on the screen is low, the accuracy of the subsequent angle detection is also low, and there is a high possibility that the trapezoidal distortion correction in step 57 will not be accurate. Therefore, the focusing adjustment in step 56 in FIG. 5 performs the hill-climbing AF as shown in FIGS. 4 and 6 in which the projection lens optical system 8 is moved to detect the high frequency component or the contrast data of the image projected on the screen. Is preferred.
[0083]
【The invention's effect】
As described above, according to the projector of the present invention described in claim 1, an image projected on a screen using a pair of line sensors for angle detection does not require a separate light emitting element. It can perform both trapezoidal distortion correction and automatic focusing (autofocus).
[0084]
According to the projector of the second aspect of the present invention, it is possible to absorb the mounting error of the pair of line sensors and the error due to the characteristic of the lens that forms an image on the pair of line sensors, and to obtain the in-focus position accurately. Adjustment is possible, and highly reliable autofocus is possible.
[0085]
According to the projector of the third aspect of the present invention, the optical system driving unit for driving the optical system of the projection lens is located at a position where the image signal is accurately maximized by one operation due to a movement error or the like. Even if the image signal cannot be returned, the projection lens optical system is moved in both directions by a predetermined distance near the maximum image signal, and the position where the image signal is maximum is measured again to accurately adjust the focus position. can do.
[0086]
According to the method of the present invention, since the focus position of the image projected on the screen of the projection lens optical system is first adjusted, the image used for correcting the trapezoidal distortion is also reduced. It is focused and projected on the screen. For this reason, the images received by the pair of line sensors have high contrast, and thus a high phase difference can be obtained. As a result, the distance from the projector to a plurality of locations of the image projected on the screen can be measured with relatively high accuracy, and the relative tilt angle of the screen can be obtained with relatively high accuracy. Keystone distortion can be corrected with high accuracy. Further, the focus shift due to the trapezoidal distortion correction can be corrected by the distance measurement operation using the pair of line sensors after the trapezoidal distortion correction.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing a configuration of a projector according to one embodiment of the present invention.
FIG. 2 is a schematic front view of the projector shown in FIG.
FIG. 3 is a functional block diagram of a calculation unit of the automatic focus detection device according to one embodiment of the present invention.
FIG. 4 shows the focus position of a projection lens optical system of a projector on a horizontal axis to explain an automatic focusing method according to one embodiment of the present invention, and shows an image projected on a screen by the projection lens optical system. 4 is a graph in which a vertical axis indicates a high frequency component (or contrast data) included in a light receiving signal.
FIG. 5 is a flowchart illustrating a method for adjusting an image of a projector according to an embodiment of the present invention.
FIG. 6 is a flowchart illustrating an automatic focusing method according to one embodiment of the present invention.
FIG. 7 is a flowchart illustrating an automatic focusing method according to another embodiment of the present invention.
FIG. 8 is a flowchart showing details of an automatic focusing method according to the embodiment of FIG. 7;
FIG. 9 is a flowchart showing details of an automatic focusing method according to the embodiment of FIG. 7;
FIG. 10 is a functional block diagram of an angle detector according to one embodiment of the present invention.
FIG. 11 is a diagram illustrating a distance measuring operation of the distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 12 is another diagram illustrating a distance measuring operation of the distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 13 is a block diagram schematically showing a pair of line sensors of a distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 14 is a view for explaining distance measurement at a plurality of positions by a distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 15 is a diagram illustrating an angle detection method by a distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 16 is a view for explaining an angle detection method by the distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 17 is a diagram illustrating an angle detection method by a distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 18 is a diagram illustrating an angle detection method by a distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 19 is a view for explaining a method for obtaining the position of the center of gravity of the contrast of the ranging operation area of the ranging device included in the angle detector according to one embodiment of the present invention.
FIG. 20 is a view for explaining an angle detection method by the distance measuring device included in the angle detector according to one embodiment of the present invention.
FIG. 21 illustrates a focus position of a projection lens optical system of a projector on a horizontal axis to explain an automatic focus adjustment method according to another embodiment of the present invention, and shows an image projected on a screen by the projection lens optical system. 4 is a graph in which a vertical axis indicates a high frequency component (or contrast data) included in a light receiving signal.
[Explanation of symbols]
1 Screen 2 Projector 3 Distance measuring device 4 Distance measuring device 5 Control circuit 8 Projection lens optical system 20 Automatic focus detection device 22 Operation unit 23 Optical system drive unit 31 Imaging unit 31a Lens 31b Lens 31c Line sensor 31d Line sensor 32 Operation unit k Baseline length θ1 Inclination angle of screen 1 with baseline length k in horizontal plane

Claims (4)

スクリーン上に画像を投影する投影レンズ光学系と、当該投影レンズ光学系により前記スクリーン上に投影された画像の台形歪みを補正するための一対のラインセンサを含む角度検出装置と、前記投影レンズ光学系の焦点位置を動かしながら前記投影された画像を前記一対のラインセンサにより受光して得られる画像信号が最大となる所を測定して前記投影レンズ光学系の焦点位置を前記最大となる所に調節する自動焦点検出装置とを備えたプロジェクタ。An angle detection device including a projection lens optical system for projecting an image on a screen, a pair of line sensors for correcting trapezoidal distortion of an image projected on the screen by the projection lens optical system, and the projection lens optical system The focal point of the projection lens optical system is moved to the position where the image signal obtained by receiving the projected image by the pair of line sensors while moving the focal position of the system is maximized. A projector comprising an automatic focus detection device for adjusting. 前記自動焦点検出装置は、前記一対のラインセンサがそれぞれ受光した前記画像信号の平均値を測定する請求項1に記載のプロジェクタ。The projector according to claim 1, wherein the automatic focus detection device measures an average value of the image signals received by the pair of line sensors. 前記自動焦点検出装置は、前記画像信号が最大となる所に前記投影レンズ光学系の焦点位置を調節した後、その位置から所定間隔だけ前記投影光学レンズ系を最遠焦点位置方向及び最近焦点位置方向へ移動しながら前記スクリーン上に投影された画像を受光して得られる画像信号が最大となる所を再度測定して焦点位置を再度調節する請求項1乃至2に記載のプロジェクタ。The automatic focus detection device adjusts the focal position of the projection lens optical system to a position where the image signal is maximum, and then moves the projection optical lens system by a predetermined interval from the position to the direction of the farthest focus position and the closest focus position. 3. The projector according to claim 1, further comprising: measuring again a position where an image signal obtained by receiving an image projected on the screen while moving in the direction and obtaining a maximum image signal, and adjusting a focus position again. 投影レンズ光学系によりスクリーン上に投影された画像を調節する方法であって、前記投影レンズ光学系の焦点位置を移動しながら前記スクリーン上に画像を投影するステップと、投影された前記画像を一対のラインセンサにより受光して得られる画像信号が最大となる所を測定するステップと、前記最大となる所に前記投影レンズ光学系の焦点位置を調節するステップと、前記調節するステップ後に前記一対のラインセンサを使用して前記スクリーン上に投影された画像までの距離を測定して前記スクリーンの相対的な傾斜角度を算出して前記画像の台形歪みを補正するステップと、前記台形歪みを補正するステップの後に前記一対のラインセンサを使用して前記スクリーン上に投影された画像までの距離を測定して前記投影レンズ光学系の焦点位置を再度調節するステップとを備えた画像調節方法。A method of adjusting an image projected on a screen by a projection lens optical system, comprising: projecting an image on the screen while moving a focal position of the projection lens optical system; Measuring the position where the image signal obtained by receiving light by the line sensor is maximum, adjusting the focal position of the projection lens optical system at the maximum, and adjusting the focal position of the pair of the projection lens optical systems after the adjustment. Measuring a distance to an image projected on the screen using a line sensor to calculate a relative inclination angle of the screen to correct trapezoidal distortion of the image; and correcting the trapezoidal distortion. Measuring the distance to the image projected on the screen using the pair of line sensors after the step, and Image adjustment method comprising a step of adjusting the focal position again.
JP2003145726A 2003-05-23 2003-05-23 Projector and automatic focusing method Pending JP2004347911A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003145726A JP2004347911A (en) 2003-05-23 2003-05-23 Projector and automatic focusing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003145726A JP2004347911A (en) 2003-05-23 2003-05-23 Projector and automatic focusing method

Publications (1)

Publication Number Publication Date
JP2004347911A true JP2004347911A (en) 2004-12-09

Family

ID=33532786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003145726A Pending JP2004347911A (en) 2003-05-23 2003-05-23 Projector and automatic focusing method

Country Status (1)

Country Link
JP (1) JP2004347911A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102566005A (en) * 2010-12-16 2012-07-11 佳能株式会社 Focus detecting apparatus and control method thereof
US8953101B2 (en) 2011-08-18 2015-02-10 Ricoh Company, Ltd. Projector and control method thereof
JP2016176919A (en) * 2015-03-20 2016-10-06 株式会社リコー Image processor, imaging apparatus, program, apparatus control system, and apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102566005A (en) * 2010-12-16 2012-07-11 佳能株式会社 Focus detecting apparatus and control method thereof
US8704941B2 (en) 2010-12-16 2014-04-22 Canon Kabushiki Kaisha Focus detecting apparatus and control method thereof
US8953101B2 (en) 2011-08-18 2015-02-10 Ricoh Company, Ltd. Projector and control method thereof
JP2016176919A (en) * 2015-03-20 2016-10-06 株式会社リコー Image processor, imaging apparatus, program, apparatus control system, and apparatus

Similar Documents

Publication Publication Date Title
JP2006313116A (en) Distance tilt angle detection device, and projector with detection device
KR101774167B1 (en) Focus position detection device, focus position detection method, and computer program for focus position detection
JP2005331585A (en) Projector having device for measuring distance and tilt angle
EP1426732A1 (en) Angle detection apparatus, projector including the same, and angle detection method
JP2004347908A (en) Projector and automatic focusing method
JP2004347907A (en) Projector and image adjusting method for projector
JP2004347911A (en) Projector and automatic focusing method
JP2005031205A (en) Angle detector and projector equipped therewith
JP6329037B2 (en) Auxiliary light projector, imaging device, and focus adjustment method
JP2004347909A (en) Projector and automatic focusing method
JP2005249432A (en) Projector device and distance measuring method
JP2005049604A (en) Projector and focusing method for projector
JP2004347910A (en) Projector equipped with automatic focusing device and automatic focusing method
JP4098194B2 (en) Angle detection device and projector equipped with the same
JP2005181726A (en) Projector apparatus and method for adjusting projected image
JP2005043085A (en) Angle detector and projector equipped with the same
JP2004191221A (en) Angle detector and projector equipped with the same
JP2005354232A (en) Image projection apparatus
JP3709406B2 (en) Projector having automatic trapezoidal distortion correction means
JP2005234071A (en) Projector device and projection image adjustment method
JP4150300B2 (en) Angle detection device and projector including the same
JP5150986B2 (en) projector
JP2005143054A (en) Projector and method for detecting fault state thereof
JP3655875B2 (en) Camera ranging device
JP2005143043A (en) Projector and focus detecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20051115

Free format text: JAPANESE INTERMEDIATE CODE: A621

A131 Notification of reasons for refusal

Effective date: 20080922

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090223