JP3804301B2 - Light valve positioning method - Google Patents
Light valve positioning method Download PDFInfo
- Publication number
- JP3804301B2 JP3804301B2 JP31670798A JP31670798A JP3804301B2 JP 3804301 B2 JP3804301 B2 JP 3804301B2 JP 31670798 A JP31670798 A JP 31670798A JP 31670798 A JP31670798 A JP 31670798A JP 3804301 B2 JP3804301 B2 JP 3804301B2
- Authority
- JP
- Japan
- Prior art keywords
- light valve
- axis direction
- liquid crystal
- crystal light
- adjustment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Liquid Crystal (AREA)
- Projection Apparatus (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、投射型表示装置のライトバルブの位置決め方法、表示ユニットおよび投射型表示装置に関するものである。
【0002】
【従来の技術】
液晶ライトバルブ(液晶光シャッター)を用いた投射型表示装置が知られている。
【0003】
図34は、従来の投射型表示装置の光学系を模式的に示す図である。
【0004】
同図に示すように、この投射型表示装置300は、光源301と、インテグレータレンズ302および303で構成された照明光学系と、ミラー304、306、309、赤色光および緑色光を反射する(青色光のみを透過する)ダイクロイックミラー305、緑色光のみを反射するダイクロイックミラー307、赤色光のみを反射するダイクロイックミラー(または赤色光を反射するミラー)308、集光レンズ310、311、312、313および314で構成された色分離光学系(導光光学系)と、青色、緑色および赤色に対応した3つの液晶ライトバルブ316、317および318と、ダイクロイックプリズム(色合成光学系)315と、投射レンズ(投射光学系)319とを有している。
【0005】
光源301から出射された白色光(白色光束)は、インテグレータレンズ302および303を透過する。この白色光の光強度(輝度分布)は、インテグレータレンズ302および303により均一にされる。
【0006】
インテグレータレンズ302および303を透過した白色光は、ミラー304で図34中左側に反射し、その反射光のうちの赤色光(R)および緑色光(G)は、それぞれダイクロイックミラー305で図34中下側に反射し、青色光(B)は、ダイクロイックミラー305を透過する。
【0007】
ダイクロイックミラー305を透過した青色光は、ミラー306で図34中下側に反射し、その反射光は、集光レンズ310により平行光とされ、青色用の液晶ライトバルブ316に入射する。
【0008】
ダイクロイックミラー305で反射した赤色光および緑色光のうちの緑色光は、ダイクロイックミラー307で図34中左側に反射し、赤色光は、ダイクロイックミラー307を透過する。
【0009】
ダイクロイックミラー307で反射した緑色光は、集光レンズ311により平行光とされ、緑色用の液晶ライトバルブ317に入射する。
【0010】
また、ダイクロイックミラー307を透過した赤色光は、ダイクロイックミラー(またはミラー)308で図34中左側に反射し、その反射光は、ミラー309で図34中上側に反射する。前記赤色光は、集光レンズ312、313および314により平行光とされ、赤色用の液晶ライトバルブ318に入射する。
【0011】
このように、光源301から出射された白色光は、色分離光学系により、赤色、緑色および青色の三原色に色分離され、それぞれ、対応する液晶ライトバルブに導かれ、入射する。
【0012】
これらの青色光、緑色光および赤色光は、それぞれ、液晶ライトバルブ316、317および318で変調され、これにより、青色用の画像、緑色用の画像および赤色用の画像がそれぞれ形成される。
【0013】
前記液晶ライトバルブ316、317および318からの各色の光、すなわち液晶ライトバルブ316、317および318により形成された各画像は、ダイクロイックプリズム315により合成され、これによりカラーの画像が形成される。この画像は、投射レンズ319により、所定の位置に設置されているスクリーン320上に投影(拡大投射)される。
【0014】
前述した投射型表示装置300の組み立ての際は、コントラスト(画像の鮮明さ)が高く、色ずれ(画素ずれ)のない画像をスクリーン320上に表示し得るように、3つの液晶ライトバルブ316、317および318の位置決め、すなわち、3つの液晶ライトバルブ316、317および318のフォーカス調整および位置調整が、それぞれ行われる。
【0015】
フォーカス調整では、コントラストの認識しやすい調整用画像を投影して、作業者が、肉眼でコントラストを確認しつつ、調整器具を用いて、コントラストが最も高くなるように液晶ライトバルブを変位させ、固定するという方法が採られている。
【0016】
また、位置調整では、色ずれの認識しやすい調整用画像を投影して、作業者が、肉眼で画素のずれを確認しつつ、調整器具を用いて、色ずれが最も少なくなるように液晶ライトバルブを変位させ、固定するという方法が採られている。
【0017】
しかしながら、従来は、液晶ライトバルブの位置決めを手作業で行うので、非常に手間がかかり、また、熟練者が行っても作業に長時間かかっていた。
【0018】
また、コントラストや色ずれを肉眼で観察するので、位置決めの精度が悪いという欠点がある。
【0019】
また、画像が投影されるスクリーンと、位置決めされる液晶ライトバルブの位置とが離れているので、1人で位置決めを行う場合には、スクリーンと液晶ライトバルブとの間を何度も行き来する必要があり、作業に非常に時間がかかる。
【0020】
また、2人で位置決めを行う場合には、一方の作業者がスクリーンの近傍に位置し、投影された画像を観察し、その情報を他方の作業者に伝え、その情報を受けた作業者が液晶ライトバルブを変位させるので、作業人員が増えるばかりでなく、作業者間で情報が正確に伝わらないことがあり、確実性に欠ける。
【0021】
【発明が解決しようとする課題】
本発明の目的は、投射型表示装置のライトバルブの位置決めを容易、迅速、確実かつ精度良く行うことができるライトバルブの位置決め方法と、該位置決め方法により位置決めされたライトバルブを有する表示ユニットおよび投射型表示装置とを提供することにある。
【0022】
【課題を解決するための手段】
このような目的は、下記(1)〜(32)の本発明により達成される。
【0023】
(1) ライトバルブにより形成された画像を投射光学系により投影する投射型表示装置の前記ライトバルブの位置決めを行う位置決め方法であって、
四角形の投影領域の所定の角部があらかじめ設定された目的領域内に入っているか否かを検出する検出処理と、
前記角部が前記目的領域内に入っていない場合には、前記投影領域を変位させて、前記角部を前記目的領域内に導入する導入処理とを含むことを特徴とするライトバルブの位置決め方法。
【0024】
(2) 前記検出処理では、あらかじめ設定された前記角部に対応するパターンとの一致を検索するパターンマッチング法により、前記角部が前記目的領域内に入っているか否かを検出する上記(1)に記載のライトバルブの位置決め方法。
【0025】
(3) 前記導入処理において、前記投影領域と前記目的領域との相対的な位置関係を特定する位置関係特定処理を行う上記(1)または(2)に記載のライトバルブの位置決め方法。
【0026】
(4) 前記位置関係特定処理において、前記投影領域の辺が、前記目的領域内に入っているか否かを検出する処理を行う上記(3)に記載のライトバルブの位置決め方法。
【0027】
(5) 前記辺の検出は、あらかじめ設定された前記辺に対応するパターンとの一致を検索するパターンマッチング法により行う上記(4)に記載のライトバルブの位置決め方法。
【0028】
(6) 前記位置関係特定処理において、前記目的領域が前記投影領域内に包含されているか否かを検出する上記(3)に記載のライトバルブの位置決め方法。
【0029】
(7) 前記目的領域が前記投影領域内に包含されているか否かの検出は、前記目的領域内の明るさを検出することにより行う上記(6)に記載のライトバルブの位置決め方法。
【0030】
(8) 前記導入処理において、前記位置関係特定処理の特定結果に基づき、前記目的領域に対する前記投影領域の位置関係を是正するように前記投影領域を変位させる上記(3)ないし(7)のいずれかに記載のライトバルブの位置決め方法。
【0031】
(9) 前記導入処理において、前記投影領域の辺を、該辺に対応するあらかじめ設定された目的線に対してほぼ平行にする処理を行う上記(1)ないし(8)のいずれかに記載のライトバルブの位置決め方法。
【0032】
(10) 前記検出処理を、少なくとも2箇所の角部で行う上記(1)ないし(9)のいずれかに記載のライトバルブの位置決め方法。
【0033】
(11) さらに、前記角部を、前記目的領域内のあらかじめ設定された目的位置に合致するように移動させる位置調整処理を行う上記(1)ないし(10)のいずれかに記載のライトバルブの位置決め方法。
【0034】
(12) 前記位置調整処理において、少なくとも2つの角部の位置を計測する角部位置計測処理を行う上記(11)に記載のライトバルブの位置決め方法。
【0035】
(13) 前記位置調整処理において、前記投影領域の中心を求め、該中心をあらかじめ設定された位置に近づける処理を行う上記(11)または(12)に記載のライトバルブの位置決め方法。
【0036】
(14) 前記位置調整処理において、前記角部のうち、あらかじめ設定された目的位置から最も離れているところに位置する角部を、前記目的位置に近づける処理を行う上記(11)ないし(13)のいずれかに記載のライトバルブの位置決め方法。
【0037】
(15) 前記目的領域は、電子画像として撮像される領域である上記(1)ないし(14)のいずれかに記載のライトバルブの位置決め方法。
【0038】
(16) 前記目的領域は、電子画像として撮像される領域であり、
前記位置調整処理において、前記角部と前記目的位置との合致は、前記角部中の特定の位置である特定位置と前記目的位置との合致である上記(11)に記載のライトバルブの位置決め方法。
【0039】
(17) 前記位置調整処理は、前記電子画像中の前記角部のうちの少なくとも一部を含む所定領域の輝度を画素単位で求め、互いに直交するX軸方向およびY軸方向の各々の方向に積算し、前記電子画像に対してX−Y座標を想定したときの前記X軸方向の輝度の積算値のY軸方向における変化を示す第1の波形と、前記Y軸方向の輝度の積算値のX軸方向における変化を示す第2の波形とに基づいて前記特定位置を検出することにより行う上記(16)に記載のライトバルブの位置決め方法。
【0040】
(18) 前記第1の波形のピークまたはボトムのY軸方向の位置を前記特定位置のY座標とし、前記第2の波形のピークまたはボトムのX軸方向の位置を前記特定位置のX座標とする上記(17)に記載のライトバルブの位置決め方法。
【0041】
(19) 前記撮像された投影領域の端部側から、前記第1の波形のピークおよびボトムのNy 番目のY軸方向の位置を前記特定位置のY座標とし、前記撮像された投影領域の端部側から、前記第2の波形のピークおよびボトムのNx 番目のX軸方向の位置を前記特定位置のX座標とする上記(17)に記載のライトバルブの位置決め方法。
【0042】
(20) 前記Ny および前記Nx は、それぞれ、偶数である上記(19)に記載のライトバルブの位置決め方法。
【0043】
(21) 前記Ny および前記Nx は、それぞれ、2以上である上記(19)または(20)に記載のライトバルブの位置決め方法。
【0044】
(22) 前記Ny と前記Nx とが等しい上記(19)ないし(21)のいずれかに記載のライトバルブの位置決め方法。
【0045】
(23) 前記位置調整処理における前記ライトバルブの変位は、X軸方向の移動と、Y軸方向の移動と、X軸およびY軸のそれぞれに直交するZ軸の回りの回転である上記(17)ないし(22)のいずれかに記載のライトバルブの位置決め方法。
【0046】
(24) 前記ライトバルブは、液晶ライトバルブである上記(1)ないし(23)のいずれかに記載のライトバルブの位置決め方法。
【0047】
(25) 前記投射型表示装置は、赤色、緑色および青色に対応した3つのライトバルブを有している上記(1)ないし(24)のいずれかに記載のライトバルブの位置決め方法。
【0048】
(26) 前記3つのライトバルブのそれぞれについて、前記位置決めを行う上記(25)に記載のライトバルブの位置決め方法。
【0049】
(27) 前記3つのライトバルブにより形成された各画像が重なるように前記位置決めを行う上記(25)または(26)に記載のライトバルブの位置決め方法。
【0050】
(28) 前記緑色に対応したライトバルブについて前記位置決めを行い、
そのライトバルブにより形成された画像に、前記赤色に対応したライトバルブにより形成された画像と、前記青色に対応したライトバルブにより形成された画像とが重なるように、前記赤色に対応したライトバルブおよび前記青色に対応したライトバルブのそれぞれについて前記位置決めを行う上記(25)ないし(27)のいずれかに記載のライトバルブの位置決め方法。
【0051】
(29) 前記位置決めに先立って、前記ライトバルブのフォーカス調整を行う上記(1)ないし(28)のいずれかに記載のライトバルブの位置決め方法。
【0052】
(30) 前記ライトバルブのフォーカス調整では、投影領域のうちの所定領域を撮像して電子画像を得、前記電子画像の輝度を集計して輝度の分散を求め、その分散が最も大きくなるように前記ライトバルブを変位させる上記(29)に記載のライトバルブの位置決め方法。
【0053】
(31) 上記(1)ないし(30)のいずれかに記載のライトバルブの位置決め方法により位置決めされ、画像を形成する赤色、緑色および青色に対応した3つのライトバルブと、前記各画像を合成する色合成光学系とを有することを特徴とする表示ユニット。
【0054】
(32) 上記(1)ないし(30)のいずれかに記載のライトバルブの位置決め方法により位置決めされ、画像を形成する赤色、緑色および青色に対応した3つのライトバルブと、光源と、該光源からの光を赤色、緑色および青色の光に分離し、前記各光を対応する前記ライトバルブに導く色分離光学系と、前記各画像を合成する色合成光学系と、前記合成された画像を投影する投射光学系とを有することを特徴とする投射型表示装置。
【0055】
【発明の実施の形態】
以下、本発明のライトバルブの位置決め方法、表示ユニットおよび投射型表示装置を添付図面に示す好適実施例に基づいて詳細に説明する。
【0056】
図1は、本発明のライトバルブの位置決め方法に用いる位置決め装置の構成例を模式的に示す側面図、図2は、図1に示す位置決め装置の回路構成を示すブロック図である。
【0057】
これらの図に示す位置決め装置1は、投射型表示装置(例えば、液晶プロジェクター)のライトバルブ(光シャッターアレイ)の位置決め、すなわち、赤色、緑色および青色に対応した3つのライトバルブのフォーカス調整(コントラスト調整)および位置調整(アライメント調整)をそれぞれ自動的に行う装置である。
【0058】
まず、投射型表示装置を説明する。
【0059】
図3は、投射型表示装置の光学ヘッド部(各液晶ライトバルブおよび光学系の一部)を示す平面図、図4は、ダイクロイックプリズムと、緑色に対応した液晶ライトバルブと、支持部材とを示す分解斜視図である。
【0060】
図1および図3に示すように、投射型表示装置は、図示しない光源と、図示しない複数のダイクロイックミラーを備えた色分離光学系(導光光学系)と、赤色に対応した(赤色用の)液晶ライトバルブ(液晶光シャッターアレイ)24と、緑色に対応した(緑色用の)液晶ライトバルブ(液晶光シャッターアレイ)25と、青色に対応した(青色用の)液晶ライトバルブ(液晶光シャッターアレイ)26と、赤色光のみを反射するダイクロイックミラー面211および青色光のみを反射するダイクロイックミラー面212が形成されたダイクロイックプリズム(色合成光学系)21と、投射レンズ(投射光学系)22と、L字状の支持体23とを有している。
【0061】
ダイクロイックプリズム21および投射レンズ22は、それぞれ、支持体23に固定的に設置されている。
【0062】
また、3つの液晶ライトバルブ24、25および26は、それぞれ、支持部材27を介して、ダイクロイックプリズム21の図3中上側の面213、図3中右側の面214および図3中下側の面215に設置されている。
【0063】
前記各支持部材27の構造は、同様であるので、代表的に、緑色用の液晶ライトバルブ25を支持(固定)している支持部材27を説明する。
【0064】
図4に示すように、支持部材27は、ダイクロイックプリズム21側に位置する固定板28と、液晶ライトバルブ25側に位置する固定板29と、これらの固定板28、29を固定する4つのネジ31とで構成されている。
【0065】
固定板28の中央部には、光通過用の矩形の開口281が形成されている。そして、固定板28の4隅には、前記ネジ31と螺合するネジ孔282が形成されている。
【0066】
また、固定板29の中央部には、光通過用の矩形の開口291が形成されている。そして、固定板29の4隅の前記ネジ孔282に対応する位置には、前記ネジ31の頭部より小径で、そのネジ31が挿入される貫通孔292が形成されている。さらに、固定板29の開口291の各角部の近傍には、ダイクロイックプリズム21の反対側に突出する突起293が立設されている。
【0067】
固定板28と固定板29とは、4つのネジ31で固定された状態で、接着剤33により、プリズム21の面214に接着されている。
【0068】
液晶ライトバルブ25の枠部材251の4隅の前記突起293に対応する位置には、前記突起293が挿入される貫通孔252が形成されている。この貫通孔252の内径は、後述する位置決めの際、液晶ライトバルブ25を変位し得るように設定されている。
【0069】
そして、枠部材251の図4中左側および右側の端面には、それぞれ、後述する楔32を差し込むための切り欠き部253が設けられている。
【0070】
この液晶ライトバルブ25は、固定板29の各突起293が対応する貫通孔252に挿入された状態で、後述する位置決め装置1により位置決めされる。
【0071】
位置決めが終了すると、予め枠部材251の各貫通孔252に注入されている接着剤を硬化させることにより、液晶ライトバルブ25が仮固定される。この仮固定用の接着剤としては、例えば、紫外線硬化型接着剤等を用いることができる。
【0072】
この仮固定の後、支持部材27の固定板29と液晶ライトバルブ25の枠部材251との間に、切り欠き部253から2つの楔32が差し込まれる。そして、これらの楔32を介し、支持部材27と液晶ライトバルブ25とが接着剤で固定(本固定)される。この固定用の接着剤としては、例えば、紫外線硬化型接着剤等を用いることができる。
【0073】
赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26についても前述した緑色用の液晶ライトバルブ25と同様に、それぞれ、後述する位置決め装置1により位置決めされ、仮固定された後、固定される。
【0074】
なお、各液晶ライトバルブ24、25および26の位置決めは、それぞれ、3つの支持部材27が設置されたダイクロイックプリズム21、投射レンズ22および支持体23で構成される図1に示す光学ブロック20を所定の姿勢で所定の位置に設置(セット)して行う。
【0075】
この光学ブロック20と、ダイクロイックプリズム21に対して固定的に設置された液晶ライトバルブ24、25および26とで、投射型表示装置の表示ユニットが構成される。
【0076】
次に、前記投射型表示装置の作用を説明する。
【0077】
光源から出射された白色光(白色光束)は、色分離光学系により、赤色、緑色および青色の三原色に色分離され、図3に示すように、赤色光、緑色光および青色光は、それぞれ、赤色用の液晶ライトバルブ24、緑色用の液晶ライトバルブ25および青色用の液晶ライトバルブ26に導かれる。
【0078】
赤色光は、液晶ライトバルブ24に入射し、液晶ライトバルブ24で変調され、これにより赤色用の画像が形成される。この際、液晶ライトバルブ24の各画素は、赤色用の画像信号に基づいて作動する図示しない駆動回路(駆動手段)により、スイッチング制御(オン/オフ)される。
【0079】
同様に、緑色光および青色光は、それぞれ、液晶ライトバルブ25および26に入射し、液晶ライトバルブ25および26で変調され、これにより緑色用の画像および青色用の画像が形成される。この際、液晶ライトバルブ25の各画素は、緑色用の画像信号に基づいて作動する図示しない駆動回路により、スイッチング制御され、液晶ライトバルブ26の各画素は、青色用の画像信号に基づいて作動する図示しない駆動回路により、スイッチング制御される。
【0080】
図3に示すように、前記液晶ライトバルブ24により形成された赤色用の画像、すなわち液晶ライトバルブ24からの赤色光は、面213からダイクロイックプリズム21に入射し、ダイクロイックミラー面211で図3中左側に反射し、ダイクロイックミラー面212を透過して、出射面216から出射する。
【0081】
また、前記液晶ライトバルブ25により形成された緑色用の画像、すなわち液晶ライトバルブ25からの緑色光は、面214からダイクロイックプリズム21に入射し、ダイクロイックミラー面211および212をそれぞれ透過して、出射面216から出射する。
【0082】
また、前記液晶ライトバルブ26により形成された青色用の画像、すなわち液晶ライトバルブ26からの青色光は、面215からダイクロイックプリズム21に入射し、ダイクロイックミラー面212で図3中左側に反射し、ダイクロイックミラー面211を透過して、出射面216から出射する。
【0083】
このように、前記液晶ライトバルブ24、25および26からの各色の光、すなわち液晶ライトバルブ24、25および26により形成された各画像は、ダイクロイックプリズム21により合成され、これによりカラーの画像が形成される。この画像は、投射レンズ22により、所定の位置に設置されている図示しないスクリーン上に投影(拡大投射)される。
【0084】
次に、本発明のライトバルブの位置決め方法に用いる位置決め装置1を説明する。なお、位置決め装置1の構造の説明においては、代表的に、緑色用の液晶ライトバルブ25を用いて説明する。
【0085】
図1および図2に示すように、位置決め装置1は、液晶ライトバルブ24、25、26を挟持するチャック11と、チャック11を支持する支持部材12と、フォーカス調整用の3軸テーブル(変位手段)8と、位置調整用(アライメント調整用)の3軸テーブル(変位手段)9と、電子画像(画像データ)を形成し得るフォーカス調整用の4台のカメラ(ビデオカメラ)51、52、53および54と、電子画像(画像データ)を形成し得る位置調整用の4台のカメラ(ビデオカメラ)61、62、63および64と、4台の照明装置71、72、73および74とを有している。
【0086】
図1に示すように、3軸テーブル8に3軸テーブル9が支持され、この3軸テーブル9に支持部材12が支持され、この支持部材12の先端部にチャック11が設置されている。
【0087】
図5は、位置決め装置1のチャック11で挟持された液晶ライトバルブ25を模式的に示す図である。
【0088】
同図に示すように、互いに直交するX軸、Y軸およびZ軸(X−Y−Z座標)を想定する。
【0089】
フォーカス調整用の3軸テーブル8は、Z軸方向に移動し、H方向(Y軸の回り)に両方向に回転し、かつ、V方向(X軸の回り)に両方向に回転し得るように構成されている。
【0090】
3軸テーブル8がZ軸方向に移動すると、液晶ライトバルブ25は3軸テーブル8とともにZ軸方向に移動する。また、3軸テーブル8がH方向に回転すると、液晶ライトバルブ25は3軸テーブル8とともにH方向に回転する。また、3軸テーブル8がV方向に回転すると、液晶ライトバルブ25は3軸テーブル8とともにV方向に回転する。
【0091】
この3軸テーブル8の変位、すなわち、Z軸方向の移動と、H方向およびV方向の回転は、それぞれ、後述する3軸テーブル駆動機構81を介し、制御手段3により制御される。
【0092】
また、位置調整用の3軸テーブル9は、X軸方向およびY軸方向に移動し、かつ、W方向(Z軸の回り)に両方向に回転し得るように構成されている。
【0093】
3軸テーブル9がX軸方向に移動すると、液晶ライトバルブ25は3軸テーブル9とともにX軸方向に移動する。また、3軸テーブル9がY軸方向に移動すると、液晶ライトバルブ25は3軸テーブル9とともにY軸方向に移動する。また、3軸テーブル9がW方向に回転すると、液晶ライトバルブ25は3軸テーブル8とともにW方向に回転する。
【0094】
この3軸テーブル9の変位、すなわち、X軸方向およびY軸方向の移動と、W方向の回転は、それぞれ、後述する3軸テーブル駆動機構91を介し、制御手段3により制御される。
【0095】
また、図1に示すように、4台の照明装置71、72、73および74は、それぞれ、チャック11で挟持された液晶ライトバルブ25の背面側(図1中右側)に位置するように設置されている。各照明装置71〜74の照明範囲は、それぞれ、少なくともカメラ51〜54およびカメラ61〜64の後述する撮像領域をカバーし得るように設定されている。
【0096】
また、位置決め装置1に設置された光学ブロック20から所定距離離間した位置には、スクリーン2が設置されている。
【0097】
そして、カメラ51〜54およびカメラ61〜64は、それぞれ、スクリーン2の表面側(図1中右側)に設置されている。
【0098】
図6は、液晶ライトバルブ25によるスクリーン2上の投影領域と、カメラ51〜54および61〜64の撮像領域とを模式的に示す図である。
【0099】
同図に示すように、投影領域(投影された画像の範囲)110は、液晶ライトバルブ24〜26の有効画面領域と対応する形状であり、ほぼ長方形(四角形)をなしている。
【0100】
同図に示すように、カメラ51、52、53および54は、それぞれ、液晶ライトバルブ25によるスクリーン2上の投影領域110の4隅であって、かつ、投影領域110の内側を撮像し得るように、すなわち、カメラ51の撮像領域(撮像された画像の範囲)511、カメラ52の撮像領域521、カメラ53の撮像領域531およびカメラ54の撮像領域541が、それぞれ、図6に示すようになるように配置されている。
【0101】
本実施例では、フォーカス調整において、図6中左上を撮像するカメラ51を「カメラNo.1」、図6中右上を撮像するカメラ52を「カメラNo.2」、図6中左下を撮像するカメラ53を「カメラNo.3」、図6中右下を撮像するカメラ54を「カメラNo.4」とする。
【0102】
また、カメラ61、62、63および64は、それぞれ、液晶ライトバルブ25によるスクリーン2上の投影領域110の4隅であって、かつ、投影領域110の角部111a、角部111b、角部111cおよび角部111dを撮像し得るように、すなわち、カメラ61の撮像領域611、カメラ62の撮像領域621、カメラ63の撮像領域631およびカメラ64の撮像領域641が、それぞれ、図6に示すようになるように配置されている。
【0103】
これら撮像領域611、621、631および641は、ほぼ長方形である。
【0104】
本実施例では、位置調整(アライメント調整)において、図6中左上を撮像するカメラ61を「カメラNo.1」、図6中右上を撮像するカメラ62を「カメラNo.2」、図6中左下を撮像するカメラ63を「カメラNo.3」、図6中右下を撮像するカメラ64を「カメラNo.4」とする。
【0105】
また、図2に示すように、位置決め装置1は、制御手段3、メモリー4、3軸テーブル駆動機構81および91を有している。
【0106】
制御手段3は、通常、マイクロコンピュータ(CPU)で構成され、メモリー4と、カメラ51、52、53、54、61、62、63および64と、照明装置71、72、73および74と、3軸テーブル駆動機構81および91等、位置決め装置1全体の制御を行う。なお、この制御手段3は、必要に応じて、液晶ライトバルブ24、25および26の駆動回路の制御も行う。
【0107】
次に、本発明のライトバルブの位置決め方法(位置決め装置1の作用)を説明する。
【0108】
光学ブロック20を位置決め装置1の所定の位置に設置し、位置決め装置1を作動させると、位置決め装置1により、自動的に、各液晶ライトバルブ24、25および26の位置決めが行われ、それらが光学ブロック20に仮固定される。
【0109】
本実施例では、各液晶ライトバルブ24、25および26の位置決めを行う場合、初めに、緑色用の液晶ライトバルブ25の位置決めを行い、この後、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めをそれぞれ行う。
【0110】
すなわち、初めに、液晶ライトバルブ25を予め設定された位置に位置決めし、この後、液晶ライトバルブ25の位置を検出し、この検出された位置に相当する位置に液晶ライトバルブ24および26をそれぞれ位置決めする。
【0111】
また、各液晶ライトバルブ24、25および26の位置決めの際は、それぞれ初めに、フォーカス調整(コントラスト調整)を行い、次いで、位置調整(アライメント調整)を行う。
【0112】
フォーカス調整では、まず、粗調整(第1のフォーカス調整)により、粗く調整し、次いで、微調整(第2のフォーカス調整)により密に調整する。以下、代表的に緑色用の液晶ライトバルブ25のフォーカス調整を説明する。
【0113】
図7は、フォーカス調整における位置決め装置1の制御手段3の制御動作を示すフローチャートである。以下、このフローチャートに基づいて説明する。
【0114】
フォーカス調整では、まず、4台の照明装置71〜74を点灯させる(ステップS101)。なお、液晶ライトバルブ25は、駆動させない。
【0115】
このステップS101により、図1に示すように、照明装置71〜74から出射し、液晶ライトバルブ25の各画素を透過した光がスクリーン2上に投影される。
【0116】
次いで、3軸テーブル8により、液晶ライトバルブ25をZ軸に沿ってZ軸方向基準位置(粗調整における画像データ取得開始位置)へ移動させる(ステップS102)。
【0117】
前記Z軸方向基準位置は、フォーカスが合うと予想される位置から、ダイクロイックプリズム21に接近する方向に所定量(所定距離)離間した位置、または、ダイクロイックプリズム21から離間する方向に所定量離間した位置に予め設定されている。
【0118】
次いで、カメラNo.1(カメラ51)で撮像し、撮像領域511の輝度に関する画像データ(以下、単に「画像データ」と言う)を求め、これをメモリー4に記憶する(ステップS103)。
【0119】
次いで、カメラNo.2(カメラ52)で撮像し、撮像領域521の画像データをメモリー4に記憶する(ステップS104)。
【0120】
次いで、カメラNo.3(カメラ53)で撮像し、撮像領域531の画像データをメモリー4に記憶する(ステップS105)。
【0121】
次いで、カメラNo.4(カメラ54)で撮像し、撮像領域541の画像データをメモリー4に記憶する(ステップS106)。
【0122】
次いで、図8に示すように、3軸テーブル8により、液晶ライトバルブ25をZ軸方向に一定量(一定距離)(例えば、50μm )移動させる(ステップS107)。
【0123】
前記Z軸方向基準位置がフォーカスが合うと予想される位置よりダイクロイックプリズム21に近い側の所定位置に設定されている場合には、ステップS107では、液晶ライトバルブ25をダイクロイックプリズム21から離間する方向(図8中右側)に移動させる。
【0124】
また、前記Z軸方向基準位置がフォーカスが合うと予想される位置よりダイクロイックプリズム21に遠い側の所定位置に設定されている場合には、ステップS107では、液晶ライトバルブ25をダイクロイックプリズム21に接近する方向(図8中左側)に移動させる。
【0125】
また、ステップS107は、粗調整における画像データ取得のための液晶ライトバルブ25の移動制御であるので、その移動量(移動距離)は、後述するステップ117の微調整における画像データ取得のための液晶ライトバルブ25の移動制御での液晶ライトバルブ25の移動量より大きく設定されている。
【0126】
前記ステップS107での液晶ライトバルブ25の移動量をL1、後述するステップS117での液晶ライトバルブ25の移動量をL2としたとき、これらの比L1/L2は、2〜10程度が好ましく、3〜7程度がより好ましい。
【0127】
また、ステップS107での液晶ライトバルブ25の移動量L1は、20〜240μm 程度が好ましく、30〜100μm 程度がより好ましい。
【0128】
また、後述するステップS117での液晶ライトバルブ25の移動量L2は、3〜30μm 程度が好ましく、5〜20μm 程度がより好ましい。
【0129】
次いで、液晶ライトバルブ25のZ軸方向基準位置からの移動量(Z軸方向基準位置と液晶ライトバルブ25の現在の位置との間の距離)が、粗調整におけるZ軸方向設定移動量に達したか否かを判断する(ステップS108)。
【0130】
前記Z軸方向設定移動量は、前記Z軸方向基準位置とフォーカスが合うと予想される位置との間の距離より大きく設定されている。
【0131】
前記ステップS108において、液晶ライトバルブ25のZ軸方向基準位置からの移動量がZ軸方向設定移動量に達していないと判断した場合には、ステップS103に戻り、再度、ステップS103〜ステップS108を実行する。
【0132】
また、前記ステップS108において、液晶ライトバルブ25のZ軸方向基準位置からの移動量がZ軸方向設定移動量に達したと判断した場合には、粗調整におけるフォーカス計算を行う(ステップS109)。
【0133】
図9は、スクリーン2上に投影された画像と、その画像を撮像したときの輝度のヒストグラムとを示す図である。
【0134】
同図に示すように、フォーカスが合った状態(合焦状態)では、スクリーン2上に投影された画像は、コントラストが高い(画像が鮮明である)。この画像を撮像したときの輝度と、その輝度の画素数(カメラ上の画素数)との関係を表わすグラフ(輝度のヒストグラム)は、図9に示す通りであり、輝度のバラツキ、すなわち、輝度の分散(σ2)が大きい。
【0135】
そして、フォーカスがずれるほど、コントラストが低下し(画像が不鮮明になり)、輝度のバラツキ、すなわち、輝度の分散(σ2)が小さくなる。
【0136】
前記ステップS109では、カメラNo.1で撮像したすべての画像(電子画像)について、画像毎に、メモリー4から画像データを読み出して、輝度を集計し、輝度の分散を求め、その分散が最も大きい画像、すなわち、図9中最も上側の状態(合焦状態)またはそれに最も近い状態の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置を求める。得られた前記位置に液晶ライトバルブ25が位置しているときにカメラNo.1で撮像した画像を粗調整における目標画像No.1とする。
【0137】
同様に、カメラNo.2、カメラNo.3およびカメラNo.4で撮像した画像について、それぞれ、輝度の分散が最も大きい画像、すなわち、図9中最も上側の状態またはそれに最も近い状態の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置を求める。得られた前記位置に液晶ライトバルブ25が位置しているときにカメラNo.2、カメラNo.3およびカメラNo.4で撮像した画像をそれぞれ粗調整における目標画像No.2、目標画像No.3および目標画像No.4とする。
【0138】
そして、得られた前記4つの位置から、粗調整における液晶ライトバルブ25の目標の状態(姿勢およびZ軸方向の位置)からの液晶ライトバルブのH方向(Y軸回り)の角度、V方向(X軸の回り)の角度およびZ軸方向の位置のずれ量をそれぞれ求める。
【0139】
前記目標の状態とは、得られた前記4つの位置に液晶ライトバルブ25が位置しているときの対応する画像、すなわち、前記目標画像No.1、目標画像No.2、目標画像No.3および目標画像No.4が、同時に得られる状態のことである。
【0140】
次いで、得られた前記Z軸方向の位置、H方向の角度およびV方向の角度のずれ量がそれぞれ0になるように、3軸テーブル8を変位させる(ステップS110)。
【0141】
すなわち、このステップS110では、3軸テーブル8により、前記目標の状態が得られるように、液晶ライトバルブ25をZ軸方向に移動させ、また、H方向、V方向に回転させる。これにより粗く4隅のフォーカスが合う。
【0142】
なお、前記ステップS110では、必要に応じて、液晶ライトバルブ25をX軸方向、Y軸方向に所定量移動させる。
【0143】
このステップS110で粗調整が終了する。
【0144】
次いで、微調整における画像データ取得のための液晶ライトバルブ25のZ軸方向移動範囲を設定する(ステップS111)。
【0145】
このステップS111では、粗調整終了時の液晶ライトバルブ25の位置(現在の位置)から、ダイクロイックプリズム21に接近する方向に所定量離間した位置と、前記粗調整終了時の位置から、ダイクロイックプリズム21から離間する方向に所定量離間した位置とのうちの一方を後述するステップS112のZ軸方向設定位置(微調整における画像データ取得開始位置)として設定する。
【0146】
そして、前記ダイクロイックプリズム21に接近する方向に所定量離間した位置と、前記ダイクロイックプリズム21から離間する方向に所定量離間した位置との間の距離を後述するステップS118の微調整におけるZ軸方向設定移動量として設定する。
【0147】
すなわち、微調整における画像データ取得のための液晶ライトバルブ25のZ軸方向移動範囲は、前記ダイクロイックプリズム21に接近する方向に所定量離間した位置と、前記ダイクロイックプリズム21から離間する方向に所定量離間した位置とのうちの一方から他方までの範囲に設定される。
【0148】
次いで、3軸テーブル8により、液晶ライトバルブ25をZ軸に沿って前記Z軸方向設定位置(微調整における画像データ取得開始位置)へ移動させる(ステップS112)。
【0149】
次いで、カメラNo.1で撮像し、撮像領域511の画像データをメモリー4に記憶する(ステップS113)。
【0150】
次いで、カメラNo.2で撮像し、撮像領域521の画像データをメモリー4に記憶する(ステップS114)。
【0151】
次いで、カメラNo.3で撮像し、撮像領域531の画像データをメモリー4に記憶する(ステップS115)。
【0152】
次いで、カメラNo.4で撮像し、撮像領域541の画像データをメモリー4に記憶する(ステップS116)。
【0153】
次いで、図8に示すように、3軸テーブル8により、液晶ライトバルブ25をZ軸方向に一定量(例えば、10μm )移動させる(ステップS117)。
【0154】
前記Z軸方向設定位置が粗調整終了時の液晶ライトバルブ25の位置よりダイクロイックプリズム21に近い側の所定位置に設定されている場合には、ステップS117では、液晶ライトバルブ25をダイクロイックプリズム21から離間する方向(図8中右側)に移動させる。
【0155】
また、前記Z軸方向設定位置が粗調整終了時の液晶ライトバルブ25の位置よりダイクロイックプリズム21に遠い側の所定位置に設定されている場合には、ステップS117では、液晶ライトバルブ25をダイクロイックプリズム21に接近する方向(図8中左側)に移動させる。
【0156】
次いで、液晶ライトバルブ25のZ軸方向設定位置からの移動量(Z軸方向設定位置と液晶ライトバルブ25の現在の位置との間の距離)が、微調整における前記Z軸方向設定移動量に達したか否かを判断する(ステップS118)。
【0157】
前記ステップS118において、液晶ライトバルブ25のZ軸方向設定位置からの移動量がZ軸方向設定移動量に達していないと判断した場合には、ステップS113に戻り、再度、ステップS113〜ステップS118を実行する。
【0158】
また、前記ステップS118において、液晶ライトバルブ25のZ軸方向設定位置からの移動量がZ軸方向設定移動量に達したと判断した場合には、微調整におけるフォーカス計算を行う(ステップS119)。
【0159】
このステップS119では、カメラNo.1で撮像したすべての画像について、画像毎に、メモリー4から画像データを読み出して、輝度を集計し、輝度の分散を求め、その分散が最も大きい画像、すなわち、図9中最も上側の状態またはそれに最も近い状態の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置を求める。得られた前記位置に液晶ライトバルブ25が位置しているときにカメラNo.1で撮像した画像を微調整における目標画像No.1とする。
【0160】
同様に、カメラNo.2、カメラNo.3およびカメラNo.4で撮像した画像について、それぞれ、輝度の分散が最も大きい画像、すなわち、図9中最も上側の状態またはそれに最も近い状態の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置を求める。得られた前記位置に液晶ライトバルブ25が位置しているときにカメラNo.2、カメラNo.3およびカメラNo.4で撮像した画像をそれぞれ微調整における目標画像No.2、目標画像No.3および目標画像No.4とする。
【0161】
そして、得られた前記4つの位置から、微調整における液晶ライトバルブ25の目標の状態(姿勢およびZ軸方向の位置)からの液晶ライトバルブ25のH方向の角度、V方向の角度およびZ軸方向の位置のずれ量をそれぞれ求める。
【0162】
前記目標の状態とは、得られた前記4つの位置に液晶ライトバルブ25が位置しているときの対応する画像、すなわち、前記目標画像No.1、目標画像No.2、目標画像No.3および目標画像No.4が、同時に得られる状態のことである。
【0163】
前述したように、このステップS117の微調整における移動量L2は、前記ステップS107の微調整における移動量L1より小さく設定されているので、微調整では、細かい間隔で撮像され、これにより、前記目標画像No.1〜No.4は、それぞれ、前記粗調整における目標画像No.1〜No.4に比べ、図9中最も上側の状態またはそれにより近い状態の画像となる。
【0164】
次いで、得られた前記Z軸方向の位置、H方向の角度およびV方向の角度のずれ量がそれぞれ0になるように、3軸テーブル8を変位させる(ステップS120)。
【0165】
すなわち、このステップS120では、3軸テーブル8により、前記目標の状態が得られるように、液晶ライトバルブ25をZ軸方向に移動させ、また、H方向、V方向に回転させる。これにより4隅のフォーカスが合う。
【0166】
なお、前記ステップS120では、必要に応じて、液晶ライトバルブ25をX軸方向、Y軸方向に所定量移動させる。
【0167】
このステップS120で微調整が終了、すなわち、フォーカス調整が終了する。
【0168】
フォーカス調整終了後、フォーカス調整用のカメラ51〜54から位置調整用のカメラ61〜64へ切り替え(ステップS201)、この後、位置調整(アライメント調整)へ移行する。以下、代表的に緑色用の液晶ライトバルブ25の位置調整(アライメント調整)を説明する。
【0169】
図10、13〜18は、位置調整(アライメント調整)における位置決め装置1の制御手段3の制御動作を示すフローチャートである。以下、このフローチャートに基づいて説明する。
【0170】
以下のアライメント調整の説明において、投影領域110を移動させるとは、3軸テーブル9で液晶ライトバルブ25をX軸方向およびY軸方向に移動させることにより、投影領域110を移動させることを意味する。また、投影領域110を回転させるとは、3軸テーブル9で液晶ライトバルブ25をW方向(Z軸の回り)に回転させることにより、投影領域110を回転させることを意味する。
【0171】
また、以下のアライメント調整の説明において、図19〜25中左右方向は、液晶ライトバルブ25のX軸方向に対応し、図19〜25中上下方向は、液晶ライトバルブ25のY軸方向に対応している。
【0172】
以下の位置調整を行う前に、あらかじめ、メモリー4に、図11に示すような、投影領域110の各角部111a、111b、111cおよび111dを含む部分に対応した4つのパターンA1、B1、C1およびD1の画像データ(輝度データ)を記憶しておく。さらに、あらかじめ、図12に示すような、投影領域110の図6中左側のY軸方向の辺113aを含む部分に対応したパターンH1、および、投影領域110の図6中下側のX軸方向の辺114aを含む部分に対応したパターンV1の画像データを記憶しておく。
【0173】
各パターンA1、B1、C1およびD1中には、それぞれ、位置121、122、123および124があらかじめ設定されている。これら位置121、122、123および124は、それぞれ、投影領域110のエッジ(頂点)112a、112b、112c、112dの位置に対応している。また、パターンH1およびV1には、それぞれ位置129aおよび129bがあらかじめ設定されている。なお、これら位置129aおよび129bは、投影領域110の対応する辺113aおよび114a上に重なるように位置している。
【0174】
なお、これらのパターンをあらかじめメモリー4に記憶しておかずに、以下の位置調整において必要に応じ、位置決め装置1に接続されている図示しない外部記憶装置(例えば、フロッピーディスク、ハードディスク、光磁気ディスクなど)から、適宜メモリー4に読み込んでもよい。
【0175】
なお、以下の位置調整を説明するに先立って、以下の位置調整中で適宜行われるパターンマッチング(パターンマッチング法)について、まず説明する。
【0176】
パターンマッチングでは、例えばカメラNo.1、2、3、4で撮影され、メモリ4に取り込まれた画像データ(被検索データ)中に、パターンA1、B1、C1、D1、H1、V1等の特定のパターン(検索パターン)が存在するか否かを検索する。
【0177】
そして、かかる検索パターンが存在しない場合には、かかる検索パターンは被検索データ中に存在しないと判別される。
【0178】
一方、かかる検索パターンが存在する場合には、かかる検索パターンは被検索データ中に存在すると判別される。また、このとき、撮像した画像(被検索データ)中の所定領域と、検索パターンとが一致したときの位置(例えば位置121〜124、129a、129b等)の座標(X座標、Y座標)を得る。この座標(位置)をその後の処理で必要としない場合は、かかる座標は、得なくてもよい。
【0179】
ここで、パターンマッチング中において、「検索パターンが存在する」とは、検索パターンと完全に合致するパターンが、被検索データ中に存在するという意ではなく、検索パターンとの一致度(認識率)が一定値(しきい値)以上のパターンが存在することをいう。
【0180】
この値(しきい値)は、位置決め装置1の置かれている環境等、種々の条件により好ましい値は異なるが、80%程度に設定することが好ましく、90%程度に設定することがより好ましい。しきい値をこの値に設定すると、パターンマッチングをより高い精度で行うことができる。
【0181】
なお、検索パターンが被検索データ中に存在する旨の結果を出力あるいは返却する際に、必要に応じ、かかる一致度を返却または出力してもよい。
【0182】
図10に示すように、位置調整(アライメント調整)では、まず、粗調整を行い(S300)、次いで、微調整(S350)を行う。
【0183】
まず、ステップS300の粗調整について説明する。
【0184】
ステップS300の粗調整では、第1の処理(処理S30A)と、第2の処理(処理S30B)と、第3の処理(処理S30C)と、第4の処理(処理S30D)と、第5の処理(処理S30E)と、第6の処理(処理S30F)と、第7の処理(処理S30G)と、第8の処理(処理S30H)とを行う。以下、図13〜16、19〜24に基づいて、各処理を、ステップごとに詳細に説明する。
【0185】
[処理S30A]第1の処理は、ステップS301〜S303とパターンC導入処理(処理S90a)とで構成される。
【0186】
ステップS301〜S303を実行することにより、投影領域110の角部111cが撮像領域(目的領域)631内に存在するか否かを検出することができる。また、角部111cが撮像領域631内に存在しない場合には、パターンC導入処理(処理S90a)を実行することにより、角部111cを撮像領域631内に導入することができる。
【0187】
[ステップS301]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0188】
[ステップS302]次に、前記ステップS301でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0189】
[ステップS303]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンC1が存在する場合、すなわち図19(A1)に示すように、撮像領域631内に角部111cが存在する場合には、第2の処理(処理S30B)すなわちステップS304を行い、存在しない場合には、パターンC導入処理(処理S90a)を実行する。
【0190】
なお、ここで、「撮像領域631内に角部111cが存在しない」とは、パターンマッチングで、角部111cが存在しないという結果が得られたという意である。以下の説明において、パターンマッチングの結果に基づき本ステップと同様の判断を行う場合にも、これと同様のことが言える。
【0191】
[処理S90a]パターンC導入処理は、図16に示すように、ステップS901〜S910で構成される。
【0192】
このパターンC導入処理を実行することにより、角部111cを撮像領域631内に入れるもしくは近づけることができる。さらには、この処理を実行することにより、投影領域110と撮像領域631との相対的な位置関係が分かる。
【0193】
[ステップS901]まず、前記ステップS301でメモリー4に記憶した画像データに対して、パターンH1を検索パターンとして、パターンマッチングを行う。
【0194】
[ステップS902]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンH1が存在する場合、すなわち図19(A2)に示すように、撮像領域631内に投影領域110のY軸方向の辺113aが存在する場合には、ステップS903を行い、存在しない場合には、ステップS904を実行する。
【0195】
[ステップS903]次に、投影領域110を、図19中上方に移動(変位)させる。このときの移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量である。
【0196】
これにより、図19(B2)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、例えば角部111cが撮像領域631からn/3より離間した位置に存在する場合のように、投影領域110の角部111cが撮像領域631から遠い場合には、投影領域110の角部111cが撮像領域631に近づく。
【0197】
その後、ステップS301へ戻る。
【0198】
なお、本ステップにおいて、投影領域110の移動量は、アライメントを調整する際の諸条件に応じて、任意の値に設定することが可能である。これは、以下のステップにおいて、本ステップと同様の処理を行う場合(例えば、ステップS906、ステップS909、ステップS910など)にも言える。
【0199】
[ステップS904]次に、前記ステップS301でメモリー4に記憶した画像データに対して、パターンV1を検索パターンとして、パターンマッチングを行う。
【0200】
[ステップS905]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンV1が存在する場合、すなわち図19(A3)に示すように、撮像領域631内に投影領域110のX軸方向の辺114aが存在する場合には、ステップS906を行い、存在しない場合には、ステップS907を実行する。
【0201】
[ステップS906]次に、投影領域110を、図19中右方向に移動させる。このときの移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0202】
これにより、図19(B3)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、例えば角部111cが撮像領域631からm/3より離間した位置に存在する場合のように、投影領域110の角部111cが撮像領域631から遠い場合には、投影領域110の角部111cが撮像領域631に近づく。
【0203】
その後、ステップS301へ戻る。
【0204】
[ステップS907]次に、前記ステップS301でメモリー4に記憶した画像データに対して、かかる画像データ全体の輝度、すなわち撮像領域631内の明るさを求める。
【0205】
[ステップS908]次に、輝度を求めた結果、かかる輝度がしきい値未満の場合(撮像領域631内の明るさがしきい値未満の場合)、すなわち図20(A4)に示すように、撮像領域631中に投影領域110の角部111c、辺113a、114aのいずれも存在しない場合には、ステップS909を実行する。一方、輝度が一定値以上の場合(撮像領域631内の明るさがしきい値以上の場合)、すなわち図20(A5)に示すように、撮像領域631が投影領域110内に包含されている場合には、ステップS910を実行する。
【0206】
なお、このしきい値は、撮像領域631中に投影領域110の角部111c、辺113a、114aのいずれも存在しない場合の輝度よりも十分高く、かつ、撮像領域631が投影領域110内に包含されている場合の輝度よりも十分低く設定されている。
【0207】
[ステップS909]次に、投影領域110を、図20中左下方向に移動させる。このとき図20中下方向への移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量であり、図19中左方向への移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0208】
これにより、図20(B4)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、投影領域110の角部111cが、かかる移動量に相当する距離より、撮像領域631から離間していた場合には、投影領域110の角部111cが撮像領域631に近づく。
【0209】
その後、ステップS301へ戻る。
【0210】
[ステップS910]次に、投影領域110を、図20中右上方向に移動させる。このとき図20中上方向への移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量であり、図20中右方向への移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0211】
これにより、図20(B5)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、投影領域110の角部111cが、かかる移動量に相当する距離より、撮像領域631から離間していた場合には、投影領域110の角部111cが撮像領域631に近づく。
【0212】
その後、ステップS301へ戻る。
【0213】
なお、角部111cが撮像領域631から大きく離間している場合のように、1回のパターンC導入処理で角部111cを撮像領域631内に入れることができない場合でも、パターンC導入処理を1回実行する度に角部111cを撮像領域631に近づけることができるので、パターンC導入処理を複数回実行することにより、最終的に角部111cを撮像領域631内に入れることができる。
【0214】
[処理S30B]第2の処理は、ステップS304、S305で構成される。
【0215】
この第2の処理を実行することにより、角部111cを撮像領域631の中心125cに合致させることができる。
【0216】
[ステップS304]まず、前記ステップS302における最後のパターンマッチングで得られた位置123に基づいて、投影領域110のエッジ112cを撮像領域631の中心125cに移動させるための、投影領域110のX軸方向およびY軸方向の移動量を求める。
【0217】
これは、前述したように、得られた位置123の座標は、エッジ112cの座標に対応している、すなわち、位置123の座標は、エッジ112cの座標を表しているので、位置123の座標と中心125cとの座標から、投影領域110の移動量を求めることができる。
【0218】
[ステップS305]次に、前記ステップS304で求めた投影領域110のX軸方向およびY軸方向の移動量に基づいて、投影領域110を移動させる。
【0219】
これにより、図19(B1)に示すように、投影領域110の角部111cが、撮像領域631の中心125cに合致する。
【0220】
以下に説明する第3〜第5の処理(処理S30C〜S30E)では、撮像領域611と撮像領域631とを基準として位置合わせを行う。すなわち、投影領域110のY軸方向、換言すれば、液晶ライトバルブ25のY軸方向に重きを置いて位置合わせを行う。
【0221】
[処理S30C]第3の処理は、ステップS306〜S310とパターンA導入処理(処理S90b)とで構成される。
【0222】
上記第1の処理および第2の処理を実行することにより、投影領域110の角部111cを撮像領域631内に導入し、さらには角部111cを撮像領域631の中心125cに合致させることができる。
【0223】
しかし、かかる処理を行った後でも、図21(A6)に示すように、辺113aが撮像領域631の中心125cと撮像領域611の中心125aとを結ぶ線に対して大きく傾いている場合には、角部111aが撮像領域611内に入っていない場合がある。
【0224】
このような場合でも、この第3の処理を実行することにより、角部111aを撮像領域611内に導入することができる。
【0225】
なお、以下のステップS308を実行するに先だって、後述するステップS921で投影領域110の移動量を算出するために必要な変数Iに、あらかじめ0を代入しておく。
【0226】
[ステップS306]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0227】
[ステップS307]次に、前記ステップS306でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0228】
[ステップS308]次に、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0229】
[ステップS309]次に、前記ステップS308でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0230】
[ステップS310]次に、パターンマッチングを行った結果、前記ステップS308でメモリー4に記憶した画像データにパターンA1が存在しない場合、すなわち図21(A6)に示すように、撮像領域611内に角部111aが存在しない場合には、パターンA導入処理(処理S90b)を実行する。一方、パターンA1が存在する場合には、第4の処理(処理S30D)すなわちステップS311を実行する。
【0231】
[処理S90b]パターンA導入処理は、ステップS921、S922とで構成される。
【0232】
このパターンA導入処理を所定回数実行することにより、角部111aを撮像領域611内に導入することができる。
【0233】
[ステップS921]まず、次のステップS922で投影領域110を移動させる際の移動先のエッジ112cの位置(座標)を求める。これは、例えば次の式で求めることができる。この式は、Iの値に対応したエッジ112cの座標を与える。なお、前述したように、nは、撮像領域631のY軸方向の長さであり、mは、撮像領域631のX軸方向の長さである。
【0234】
X軸方向の位置 = IDOU_X1 + (I mod 3)*(m/3) (ここで、(I mod 3)とは、Iを3で割ったときの余りを求めることを意味する)
Y軸方向の位置 = IDOU_Y1 + (I/3)*(n/3) (なお、得られた移動量の小数点以下は切り捨てる)
ここで、定数IDOU_X1およびIDOU_Y1は、I=0のときの、次のステップS922におけるエッジ112cの移動先の座標に対応している。
【0235】
これら定数IDOU_X1およびIDOU_Y1としては、I=0のときの移動後のエッジ112cの位置が、撮像領域631の中心125cよりも図21中左上に来るような値が好ましい。これにより、エッジ112aを効率よく撮像領域611内に導入することができる。
【0236】
[ステップS922]次に、前記ステップS921で求めたエッジ112cの移動先の位置に、エッジ112cが来るように、投影領域110を移動させる。
【0237】
これにより、図21(B61)〜(B64)および図22(B65)〜(B69)に示すように、Iが所定の値になった場合に、エッジ112aが、撮像領域611内に入る。
【0238】
なお、図21の(B61)はI=0のときの投影領域110の位置を、(B62)はI=1のときの投影領域110の位置を、(B63)はI=2のときの投影領域110の位置を、(B64)はI=3のときの投影領域110の位置を、図22の(B65)はI=4のときの投影領域110の位置を、(B66)はI=5のときの投影領域110の位置を、(B67)はI=6のときの投影領域110の位置を、(B68)はI=7のときの投影領域110の位置を、(B69)はI=8のときの投影領域110の位置をそれぞれ表している。
【0239】
なお、図21および図22に示す例では、I=8となったときに、エッジ112aが、撮像領域611内に入る。
【0240】
その後、ステップS308へ戻る。そのとき、Iに1を加える。
【0241】
このように、Iの値を変化させつつパターンA導入処理(処理S90b)を所定回数実行することにより、エッジ112aを撮像領域611内に入れることができる。
【0242】
なお、前記ステップS921において、エッジ112cのX軸方向の位置およびY軸方向の位置は、同一の変数Iによりそれぞれを求めているが、X軸およびY軸に対応した変数をそれぞれ用意し、X軸方向の位置およびY軸方向の位置を、これら用意した変数からそれぞれ独立に求めてもよい。
【0243】
なお、前記ステップS921において、エッジ112cのX軸方向の位置およびY軸方向の位置は、計算により求めているが、あらかじめIの値に対応したX軸方向およびY軸方向の位置もしくは移動量を、テーブルとして用意しておき、かかるテーブルに基づいて前記ステップS922で投影領域110を移動させてもよい。
【0244】
[処理S30D]第4の処理は、ステップS311、S312とで構成される。
【0245】
この第4の処理を実行することにより、撮像領域611の中心125aと撮像領域631の中心125cとを結ぶ直線126(目的線)と、辺113とを平行にすることができる。すなわち、辺113の傾きを解消することができる。
【0246】
[ステップS311]まず、前記パターンA導入処理(処理S90b)における前記ステップS921で最後に求めたエッジ112cの座標(位置)と、前記ステップS309の最後のパターンマッチングで得られたエッジ112aの座標とに基づいて、図23(A7)に示すような、直線126と辺113aとの傾きθ1を求める。
【0247】
なお、前記パターンA導入処理(処理S90b)を一度も行わなかった場合には、前記ステップS307のパターンマッチングで得られた位置123が、エッジ112cの位置となる。
【0248】
[ステップS312]次に、前記ステップS311で求めたθ1に基づいて、投影領域110を回転させる。
【0249】
これにより、図23(B71)に示すように、直線126と辺113aとを平行にすることができる。
【0250】
[処理S30E]第5の処理は、ステップS313〜S317とで構成される。
【0251】
この第5の処理を実行することにより、エッジ112aと112cとが、目的位置に近づく。また、撮像領域611内に入る投影領域110の画素数と、撮像領域631内に入る投影領域110の画素数とをほぼ一致させることができる。
【0252】
[ステップS313]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0253】
[ステップS314]次に、前記ステップS313でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0254】
[ステップS315]次に、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0255】
[ステップS316]次に、前記ステップS315でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0256】
[ステップS317]次に、前記ステップS314およびS316におけるパターンマッチングで得られたエッジ112aとエッジ112cの位置に基づいて、直線126と辺113aとが合致するように、かつ、y1=y2となるように、投影領域110を移動させる。
【0257】
なお、y1とは、図23(B72)に示すように、撮像領域611の図23中上の辺612と、投影領域110の図23中上の辺114bとの間の幅である。また、y2とは、撮像領域631の図23中下の辺632と、投影領域110の図23中下の辺114aとの間の幅である。
【0258】
これにより、図23(B72)に示すように、エッジ112aと112cとが、目的位置に近づく。また、撮像領域611内に入る投影領域110の画素数と、撮像領域631内に入る投影領域110の画素数とがほぼ一致する。
【0259】
以下に説明する第6〜第8の処理は、前記第3〜第5の処理と類似の処理である。
【0260】
前記第3〜第5の処理は、撮像領域611と撮像領域631とを基準として位置合わせを行った。すなわち、投影領域110のY軸方向(辺113a)、換言すれば、液晶ライトバルブ25のY軸方向に重きを置いた位置合わせを行った。それに対し、以下の第6〜第8の処理では、撮像領域631と撮像領域641とを基準として位置合わせを行う。すなわち、投影領域110のX軸方向(辺114a)、換言すれば、液晶ライトバルブ25のX軸方向に重きを置いた位置合わせを行う。
【0261】
[処理S30F]第6の処理は、ステップS318〜S322とパターンD導入処理(処理S90c)とで構成される。
【0262】
上記第3〜第5の処理を実行することにより、投影領域110の角部111aを撮像領域611内に導入でき、さらには辺113aを直線126と平行にすることができ、さらにはエッジ112aと112cとを、目的位置に近づけることができた。
【0263】
しかし、かかる処理を行った後でも、図23(A8)に示すように、角部111dが撮像領域641内に入っていない可能性も、非常に少ないが、有り得る。
【0264】
このような場合でも、この第6の処理を実行することにより、角部111dを撮像領域641内に導入することができる。
【0265】
なお、以下のステップS320を実行するに先だって、後述するステップS931で投影領域110の移動量を算出するために必要な変数Iに、あらかじめ0を代入しておく。
【0266】
[ステップS318]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0267】
[ステップS319]次に、前記ステップS318でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0268】
[ステップS320]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0269】
[ステップS321]次に、前記ステップS320でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0270】
[ステップS322]次に、パターンマッチングを行った結果、前記ステップS320でメモリー4に記憶した画像データにパターンD1が存在しない場合、すなわち図23(A8)に示すように、撮像領域641内に角部111dが存在しない場合には、パターンD導入処理(処理S90c)を実行する。一方、パターンD1が存在する場合には、第7の処理(処理S30G)すなわちステップS323を実行する。
【0271】
[処理S90c]パターンD導入処理は、ステップS931、S932とで構成される。
【0272】
このパターンD導入処理を所定回数実行することにより、角部111dを撮像領域641内に導入することができる。
【0273】
[ステップS931]まず、次のステップS932で投影領域110を移動させる際の移動先のエッジ112cの位置(座標)を求める。これは、例えば次の式で求めることができる。この式は、Iの値に対応したエッジ112cの座標を与える。なお、前述したように、nは、撮像領域631のY軸方向の長さであり、mは、撮像領域631のX軸方向の長さである。
【0274】
X軸方向の位置 = IDOU_X2 + (I mod 3)*(m/3) (ここで、(I mod 3)とは、Iを3で割ったときの余りを求めることを意味する)
Y軸方向の位置 = IDOU_Y2 + (I/3)*(n/3) (なお、得られた移動量の小数点以下は切り捨てる)
ここで、定数IDOU_X2およびIDOU_Y2は、I=0のときの、次のステップS932におけるエッジ112cの移動先の座標に対応している。
【0275】
これら定数IDOU_X2およびIDOU_Y2としては、I=0のときの移動後のエッジ112cの位置が、投影領域631の中心125cよりも図23中左上に来るような値が好ましい。これにより、エッジ112dを効率よく撮像領域641内に導入することができる。
【0276】
[ステップS932]次に、前記ステップS931で求めたエッジ112cの移動先の位置に、エッジ112cが来るように、投影領域110を移動させる。
【0277】
これにより、Iが所定の値になった場合に、エッジ112dが、撮像領域641内に入る。
【0278】
その後、ステップS320へ戻る。そのとき、Iに1を加える。
【0279】
このように、Iの値を変化させつつパターンD導入処理(処理S90c)を所定回数実行することにより、エッジ112dを撮像領域641内に入れることができる。
【0280】
なお、前記ステップS931において、エッジ112cのX軸方向の位置およびY軸方向の位置は、同一の変数Iによりそれぞれを求めているが、X軸およびY軸に対応した変数をそれぞれ用意し、X軸方向の位置およびY軸方向の位置を、これら用意した変数からそれぞれ独立に求めてもよい。
【0281】
なお、前記ステップS931において、エッジ112cのX軸方向の位置およびY軸方向の位置は、計算により求めているが、あらかじめIの値に対応したX軸方向およびY軸方向の位置もしくは移動量を、テーブルとして用意しておき、かかるテーブルに基づいて前記ステップ932で投影領域110を移動させてもよい。
【0282】
[処理S30G]第7の処理は、ステップS323、S324とで構成される。
【0283】
この第7の処理を実行することにより、撮像領域631の中心125cと撮像領域641の中心125dとを結ぶ直線127(目的線)と、辺114aとを平行にすることができる。すなわち、辺114aの傾きを解消することができる。
【0284】
[ステップS323]まず、前記パターンD導入処理(処理S90c)における前記ステップS931で最後に求めたエッジ112cの座標(位置)と、前記ステップS321の最後のパターンマッチングで得られたエッジ112dの座標とに基づいて、図24(A9)に示すような、直線127と辺114aとの傾きθ2を求める。
【0285】
なお、前記パターンD導入処理(処理S90c)を一度も行わなかった場合には、前記ステップS319のパターンマッチングで得られた位置123が、エッジ112cの位置となる。
【0286】
[ステップS324]次に、前記ステップS323で求めたθ2に基づいて、投影領域110を回転させる。
【0287】
これにより、図24(B91)に示すように、直線127と辺114aとを平行にすることができる。
【0288】
[処理S30H]第8の処理は、ステップS325〜S329とで構成される。
【0289】
この第8の処理を実行することにより、エッジ112cと112dとが、目的位置に近づく。また、撮像領域631内に入る投影領域110の画素数と、撮像領域641内に入る投影領域110の画素数とをほぼ一致させることができる。
【0290】
[ステップS325]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0291】
[ステップS326]次に、前記ステップS325でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0292】
[ステップS327]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0293】
[ステップS328]次に、前記ステップS327でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0294】
[ステップS329]次に、前記ステップS314およびS316におけるパターンマッチングで得られたエッジ112cとエッジ112dの位置に基づいて、直線127と辺114aとが合致するように、かつ、x1=x2となるように、投影領域110を移動させる。
【0295】
なお、x1とは、図24(B92)に示すように、撮像領域631の図24中左の辺633と、投影領域110の図24中左の辺113aとの間の幅である。また、x2とは、撮像領域641の図24中右の辺643と、投影領域110の図24中右の辺113bとの間の幅である。
【0296】
これにより、図24(B92)に示すように、エッジ112cと112dとが、目的位置に近づく。また、撮像領域631内に入る投影領域110の画素数と、撮像領域641内に入る投影領域110の画素数とがほぼ一致する。
【0297】
以上で、粗調整が終了する。
【0298】
以下、ステップS350の微調整(位置調整処理)の第1の実施の形態について説明する。
【0299】
以下のステップS350の微調整を行うことにより、アライメントを非常に高精度で調整することができる。さらには、図25(A13)に示すような、投影領域110が、完全に長方形でない場合でも、正確にアライメント調整を行うことができる。
【0300】
ステップS350の微調整を説明するに先立って、ステップS350の微調整中で適宜行われる四頂点位置計測処理(処理S90d)についてまず説明する。
【0301】
[処理S90d]図18に示すように、四頂点位置計測処理は、ステップS941〜S948で構成される。
【0302】
この四頂点位置計測処理を実行することにより、エッジ112a、エッジ112b、エッジ112cおよびエッジ112dの座標を得ることができる。
【0303】
[ステップS941]まず、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0304】
[ステップS942]次に、前記ステップS941でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0305】
[ステップS943]次に、カメラNo.2(カメラ62)で撮像し、撮像領域621の画像データをメモリー4に記憶する。
【0306】
[ステップS944]次に、前記ステップS943でメモリー4に記憶した画像データに対して、パターンB1を検索パターンとして、パターンマッチングを行う。
【0307】
[ステップS945]次に、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0308】
[ステップS946]次に、前記ステップS945でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0309】
[ステップS947]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0310】
[ステップS948]次に、前記ステップS947でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0311】
なお、以上の四頂点位置計測処理(処理S90d)で得られたエッジ112aの座標を(gluxg,gluyg)、エッジ112bの座標を(gruxg,gruyg)、エッジ112cの座標を(gldxg,gldyg)、エッジ112dの座標を(grdxg,grdyg)とする(図25(A10)参照)。
【0312】
ステップS350の微調整では、第1の処理(処理S35A)と、第2の処理(処理S35B)と、第3の処理(処理S35C)とを行う。以下、図17、18、25に基づいて、各処理を、ステップごとに詳細に説明する。
【0313】
[処理S35A]第1の処理は、四頂点位置計測処理(処理S90d)と、ステップS351〜S353とで構成される。
【0314】
この第1の処理を実行することにより、投影領域110全体の傾き、すなわち、液晶ライトバルブ25全体の傾きが最も小さくなる。
【0315】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0316】
[ステップS351]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標に基づいて、θgux、θgdx、θglyおよびθgryを求める。
【0317】
図25(A11)に示すように、θguxは、辺114bと、撮像領域611の中心125aと撮像領域621の中心125bとを結ぶ線との間の角度である。θgdxは、辺114aと、撮像領域631の中心125cと撮像領域641の中心125dとを結ぶ線との間の角度である。θglyは、辺113aと、撮像領域611の中心125aと撮像領域631の中心125cとを結ぶ線との間の角度である。θgryは、辺113bと、撮像領域621の中心125bと撮像領域641の中心125dとを結ぶ線との間の角度である。
【0318】
これらθgux、θgdx、θglyおよびθgryは、四頂点位置計測処理(処理S90d)で得られたエッジ112a〜112dの座標(gluxg,gluyg)、(gruxg,gruyg)、(gldxg,gldyg)および(grdxg,grdyg)と、中心125a〜dの座標とから求めることができる。
【0319】
[ステップS352]次に、前記ステップS351で求めたθgux、θgdx、θglyおよびθgryに基づいて、次のステップS353で投影領域110を回転させる際の回転角度θを求める。
【0320】
これは、次の式から求めることができる。なお、θkとは、あらかじめ設定された基準角度である。
【0321】
θgx = (θgux + θgdx)/2
θgy = (θgly + θgry)/2
θg = (θgx + θgy)/2
θ = θk − θg
[ステップS353]次に、投影領域110を、前記ステップS352で求めた回転角度θ度回転させる。
【0322】
これにより、図25(B12)に示すように、投影領域110のX軸方向およびy軸方向の傾きが最も小さくなる。
【0323】
[処理S35B]第2の処理は、四頂点位置計測処理(処理S90d)と、ステップS354〜S356とで構成される。
【0324】
この第2の処理を実行することにより、投影領域110の中心の位置が、あらかじめ設定された基準座標に合致する。すなわち、この第2の処理を実行することにより、投影領域110の中心の位置を調整することができる。
【0325】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0326】
[ステップS354]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標に基づいて、投影領域110の中心座標(gxg,gyg)を求める。
【0327】
この座標は、例えば、四頂点位置計測処理(処理S90d)で得られたエッジ112a〜112dの座標(gluxg,gluyg)、(gruxg,gruyg)、(gldxg,gldyg)、(grdxg,grdyg)から、辺113a、113b、114aおよび114bの中点の座標をそれぞれ求め、これらの中点の座標から、辺113aの中点と辺113bの中点とを結ぶ直線と、辺114aの中点と辺114bの中点とを結ぶ直線との交点の座標を求めることにより得ることができる。
【0328】
すなわち、辺113aの中点と辺113bの中点とを結ぶ直線と、辺114aの中点と辺114bの中点とを結ぶ直線との交点の座標が、投影領域110の中心座標(gxg,gyg)となる。
【0329】
[ステップS355]次に、前記ステップS354で求めた投影領域110の中心座標(gxg,gyg)に基づいて、次のステップS356で投影領域110を移動させる際の移動量を求める。
【0330】
これは、次の式から求めることができる。なお、kxgとkygは、あらかじめ設定された基準座標である。
【0331】
X軸移動量 = kxg − gxg
Y軸移動量 = kyg − gyg
[ステップS356]次に、投影領域110を、前記ステップS355で求めたX軸移動量およびY軸移動量に基づいて移動させる。
【0332】
これにより、撮像領域110の中心が基準座標に移動する。
【0333】
[処理S35C]第3の処理は、四頂点位置計測処理(処理S90d)と、ステップS357〜S359とで構成される。
【0334】
この第3の処理を実行することにより、液晶ライトバルブ25全体を、X軸方向およびY軸方向のずれが最も小さくなる位置に調整することができる。
【0335】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0336】
[ステップS357]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標について、エッジ112a〜112dごとにそれぞれあらかじめ設定された基準座標(目的位置)からのずれを求める。
【0337】
ここで、エッジ112aの基準座標を(kluxg,kluyg)、エッジ112bの基準座標を(kruxg,kruyg)、エッジ112cの基準座標を(kldxg,kldyg)、エッジ112dの基準座標を(krdxg,krdyg)とする。
【0338】
ここで、エッジ112a〜112dのX軸方向の基準座標からのずれをそれぞれX1〜X4、エッジ112a〜112dのY軸方向の基準座標からのずれをそれぞれY1〜Y4とすると、X1〜X4およびY1〜Y4は、例えば次の式で表すことができる。
【0339】
X1 = kluxg − gluxg
X2 = gruxg − kruxg
X3 = kldxg − gldxg
X4 = grdxg − krdxg
Y1 = kluyg − gluyg
Y2 = kruyg − gruyg
Y3 = gldyg − kldyg
Y4 = grdyg − krdyg
[ステップS358]次に、前記ステップS357で求めたX1〜X4およびY1〜Y4に基づいて、次のステップS359で投影領域110を移動させる際の移動量を求める。
【0340】
X軸方向の移動量は、X1〜X4のうち、1番目に大きい絶対値と2番目に大きい絶対値を有するものの平均をとることにより求める。なお、絶対値が1番大きいものと2番目に大きいものの値の正負が同符号の場合は、X1〜X4のうち、1番目に大きい絶対値と3番目に大きい絶対値を有するものの平均をとることにより、X軸方向の移動量を求める。さらには、絶対値が1番大きいものと3番目に大きいものの値の正負が同符号の場合は、X1〜X4のうち、1番目に大きい絶対値と4番目に大きい絶対値を有するものの平均をとることにより、X軸方向の移動量を求める。
【0341】
Y軸方向の移動量は、Y1〜Y4のうち、1番目に大きい絶対値と2番目に大きい絶対値を有するものの平均をとることにより求める。なお、絶対値が1番大きいものと2番目に大きいものの値の正負が同符号の場合は、Y1〜Y4のうち、1番目に大きい絶対値と3番目に大きい絶対値を有するものの平均をとることにより、Y軸方向の移動量を求める。さらには、絶対値が1番大きいものと3番目に大きいものの値の正負が同符号の場合は、Y1〜Y4のうち、1番目に大きい絶対値と4番目に大きい絶対値を有するものの平均をとることにより、Y軸方向の移動量を求める。
【0342】
[ステップS359]次に、前記ステップS358で求めたX軸方向の移動量およびY軸方向の移動量に基づいて、投影領域110を移動させる。
【0343】
これによりエッジ112a〜112d(角部111a〜111d)のうち、これらに対応する基準座標から最も離れたエッジ(角部)は、かかる基準座標に近づく。
【0344】
従って、例えば、図25(A13)に示すように、投影領域110が、完全に長方形でない場合でも、正確に位置調整を行うことができる。
【0345】
以上で、第1の実施の形態のステップS350の微調整(位置調整処理)が終了する。
【0346】
なお、この微調整では、第1の処理(処理S35A)、第2の処理(処理S35B)および第3の処理(処理S35C)の各処理ごとに四頂点位置計測処理(処理S90d)を行っているが、各処理ごとに四頂点位置計測処理(処理S90d)を行わなくてもよい。ただし、この第1の実施の形態のように、各処理ごとに四頂点位置計測処理(処理S90d)を実行することが好ましい。これにより、アライメント調整の精度がより向上する。
【0347】
なお、この微調整では、四頂点位置計測処理(処理S90d)を行い、エッジ112a〜112dの座標をそれぞれ求め、第1〜第3の処理(処理S35A〜処理S35C)を行っているが、エッジ112a〜112dの座標のうちの少なくとも2つの座標を求め、かかる座標に基づいて、第1の処理(処理S35A)、第2の処理(処理S35B)および第3の処理(処理S35C)を行ってもよい。
【0348】
アライメント調整において、光学系の特性(レンズの収差)等により、スクリーン2上に投影される画像(投影画像)、すなわちライトバルブの画素の投影画像が変形する(例えば、カブリ、ムラ、ぼけ、にじみ等が生じる)ことがある。
【0349】
このような場合、例えば、図11に示すようなパターンA1〜D1を検索パターンとしてパターンマッチングを行った場合、検索を的確に行うことが困難な場合がある。
【0350】
このときは、図26に示すような、パターンA2、B2、C2およびD2を検索パターンとして、パターンマッチングを行ってもよい。これら各パターンA2、B2、C2およびD2は、それぞれ、液晶ライトバルブの画素の投影像にレンズの収差による投影画像の変形がある場合に、対応する角部111a、111b、111cおよび111dを含む部分に対応するものである。
【0351】
さらには、まずは、図11に示すようなパターンA1〜D1を検索パターンとしてパターンマッチングを行い、かかるパターンマッチングで、被検索データ中に検索パターンが存在しなかった場合に、図26に示すようなパターンA2〜D2を検索パターンとして再びパターンマッチングを行うようにしてもよい。
【0352】
このように、パターンマッチングに用いる所定のパターン(1つの角部に対応するパターン)を複数設定しておくことにより、レンズの収差による投影画像の変形がある場合とない場合の両者に、容易に対応することができ、アライメントの精度を向上させることができる。
【0353】
この場合、図26に示すように、パターンA2〜D2中において、位置121、122、123および124は、例えば、各画素にレンズの収差による投影画像の変形がないときのエッジ112a、112b、112cおよび112dの位置に対応したものとすることができる。
【0354】
また前記と同様に、図12に示すようなパターンH1およびパターンV1についても、図27に示すような、パターンH1およびパターンV1に対応したパターンH2およびパターンV2を用意して、これらを用いてパターンマッチングを行うことができる。
【0355】
これらパターンH2およびパターンV2は、それぞれ、液晶ライトバルブの画素の投影像にレンズの収差による投影画像の変形がある場合に、対応する辺113aおよび114aを含む部分に対応したものである。
【0356】
この場合、図27に示すように、パターンH2およびV2中において、位置129aおよび129bは、例えば、各画素にレンズの収差による投影画像の変形がないとしたときの辺113aおよび114a上に重なるような位置とすることができる。
【0357】
以下、ステップS350の微調整(位置調整処理)の第2の実施の形態について説明する。
【0358】
微調整では、まず、カメラNo.1、カメラNo.2、カメラNo.3およびカメラNo.4でそれぞれ撮像し、撮像領域611、621、631および641の各画像データをメモリー4に記憶する。
【0359】
次いで、メモリー4からカメラNo.1、カメラNo.2、カメラNo.3およびカメラNo.4で撮像された画像の各画像データをそれぞれ読み出し、エッジ処理(エッジ処理法)により、図28(a)に示す各特定位置128を検出する(特定位置128のX座標およびY座標を求める)。なお、このエッジ処理については後に詳述する。
【0360】
そして、図28(b)に示すように、各特定位置128がそれぞれ対応する目的位置にさらに近づくように(一致する場合も含む)、3軸テーブル9により、液晶ライトバルブ25を変位させる。すなわち、各特定位置128がそれぞれ対応する目的位置にさらに近づくように(一致する場合も含む)、液晶ライトバルブ25をW方向に回転させ、X軸方向およびY軸方向に移動させる。
【0361】
次に、エッジ処理について説明する。なお、代表的に、カメラNo.4で撮像した画像の特定位置のY座標を求める場合を説明する。
【0362】
図29は、エッジ処理における位置決め装置1の制御手段3の制御動作を示すフローチャートである。以下、このフローチャートに基づいて説明する。
【0363】
エッジ処理では、まず、カメラNo.4(本実施例では、画素:400行×600列)で撮像し、画像領域641の画像データをメモリー4に記憶する(ステップS401)。
【0364】
前記カメラNo.4で撮像された画像、すなわち、メモリー4に記憶された画像は、例えば、図30に示す通りである。
【0365】
図30に示すように、X−Y座標を想定する。このX−Y座標は、電子画像の面に対応している。すなわち、カメラNo.4の各画素の列(第1列〜第600列)および行(第1行〜第400行)は、それぞれ、その画素のX軸方向の座標(X座標)およびY軸方向の座標(Y座標)に対応する。本実施例では、カメラNo.4の第j行(j行目)、第i列(i列目)の画素の座標は、(i,j)である。
【0366】
次いで、各画素における輝度をY軸方向に積算し、Y軸方向の輝度の積算値Iy[i]=Σ f(i,j )を求める(ステップS402)。
【0367】
前記積算値Iy[i]のグラフを図30に示す。なお、グラフの縦軸に、積算値Iy[i]、横軸に、画素のX座標iをとる。
【0368】
次いで、前記積算値Iy[i]の最大値Iymaxと、最小値Iyminとをそれぞれ求める(ステップS403)。
【0369】
次いで、しきい値Ty を設定する(ステップS404)。
【0370】
このステップS404では、前記ステップS403で求めた最大値Iymaxおよび最小値Iyminを下記式に代入することにより、しきい値Ty を求める。
【0371】
Ty =(Iymax+Iymin)*α(但し、0<α<1)
次いで、図30に示すように、しきい値Ty と積算値Iy[i]とのクロス点のX座標Xc を求める(ステップS405)。
【0372】
次いで、図31に示すように、座標(0,0)、座標(Xc ,0)、座標(Xc ,400)および座標(0,400)の4点で囲まれる四角形の領域を設定する(ステップS406)。
【0373】
次いで、前記設定された領域内において、各画素における輝度をX軸方向に積算し、X軸方向の輝度の積算値Iax[j] =Σ f(i,j )を求める(ステップS407)。
【0374】
前記積算値Iax[j] (第1の波形)のグラフを図31に示す。なお、グラフの横軸に、積算値Iax[j] 、縦軸に、画素のY座標jをとる。この積算値Iax[j] をX軸方向の輝度の積算値のY軸方向における変化を示す第1の波形とする。
【0375】
次いで、前記積算値Iax[j] の最大値Iaxmax と、最小値Iaxmin とをそれぞれ求める(ステップS408)。
【0376】
次いで、しきい値Taxを設定する(ステップS409)。
【0377】
このステップS409では、前記ステップS408で求めた最大値Iaxmax および最小値Iaxmin を下記式に代入することにより、しきい値Taxを求める。
【0378】
Tax=(Iaxmax +Iaxmin )*α(但し、0<α<1)
次いで、図31に示すように、しきい値Taxと積算値Iax[j] とのクロス点のY座標Yacを求める(ステップS410)。
【0379】
次いで、図31に示すように、積算値Iax[j] のグラフの各ピーク(正ピーク)におけるY座標Ppy[P] と、各ボトム(負ピーク)におけるY座標Pmy[q] とをそれぞれ求める(ステップS411)。
【0380】
なお、図31の場合には、正ピークの数が4、負ピークの数が3であるので、前記4つの正ピークにおけるY座標Ppy[1] 、Ppy[2] 、Ppy[3] およびPpy[4] と、前記3つの負ピークにおけるY座標Pmy[1] 、Pmy[2] およびPmy[3] とがそれぞれ検出される。
【0381】
次いで、下記式から、隣接する正ピークの縦軸方向の間隔の平均値Ppyavr を求める(ステップS412)。
【0382】
Ppyavr ={Σ(Ppy[p+1] −Ppy[p] )}/(n−1)
(但し、nは、正ピークの数である)
次いで、図31に示すように、Y座標がYac−1.2*Ppyavr 未満の範囲で、Yac−1.2*Ppyavr −Pmy[q] が最小となる負のピークにおけるY座標Pmpymaxを検出する(ステップS413)。
【0383】
なお、換言すれば、前記Pmpymaxは、Yac−1.2*Ppyavr より小さく、かつ、Yac−1.2*Ppyavr に最も近いPmy[q] である。
【0384】
次いで、下記式から、積算値Iax[j] の差分値Diax[j]を計算する(ステップS414)。
【0385】
Diax[j]=Iax[j+1] −Iax[j−1]
なお、換言すれば、j行目の差分値Diax[j]は、j+1行目の積算値Iax[j+1] からj−1行目の積算値Iax[j−1]を引いた値である。
【0386】
前記差分値Diax[j]のグラフと、積算値Iax[j] のグラフとを図32に示す。なお、差分値Diax[j]のグラフでは、その横軸に、差分値Diax[j]、縦軸に、画素のY座標jをとる。
【0387】
次いで、図32に示すように、Pmpymax付近(図32中丸で示す)で、Diax[j]を用いてゼロクロス点(Diax[j]=0のときのY座標)を計算し(ゼロクロス処理を行い)、得られたゼロクロス点を特定位置のY座標とする(ステップS415)。
【0388】
すなわち、このステップS415により、カメラNo.4で撮像した画像の特定位置のY座標が求まる。
【0389】
以上で、エッジ処理を終了する。
【0390】
なお、カメラNo.4で撮像された画像の特定位置のX座標を求めるには、前述した特定位置のY座標を求めるエッジ処理において、xをyに、yをxに変えて同様に行えばよい。
【0391】
この場合、設定された領域内において、各画素における輝度をY軸方向に積算したY軸方向の輝度の積算値と、画素のX座標との関係(Y軸方向の輝度の積算値のX軸方向における変化)を示す図示しないグラフにおける波形が、第2の波形であり、前述した特定位置のY座標を求めるエッジ処理と同様に、この第2の波形に基づいて特定位置のX座標を求める。
【0392】
図33は、第1の波形および第2の波形を示す図である。
【0393】
同図に示すように、第2の実施の形態では、図33中下側(撮像された投影領域の端部側)から、第1の波形のピークおよびボトムの4番目のY軸方向の位置が特定位置128のY座標とされ、図33中右側(撮像された投影領域の端部側)から、第2の波形のピークおよびボトムの4番目のX軸方向の位置が特定位置128のX座標とされる。
【0394】
また、カメラNo.1、カメラNo.2およびカメラNo.3で撮像された各画像の特定位置のX座標およびY座標を求めるには、それぞれ、前述したように行えばよい。
【0395】
以上で、第2の実施の形態のステップS350の微調整(位置調整処理)が終了する。
【0396】
以上のようなエッジ処理のフローチャートから判るように、第2の実施の形態のステップS350の微調整では、エッジ処理において、図33に示す第1の波形のピークまたはボトムのY軸方向の位置を特定位置のY座標とし、第2の波形のピークまたはボトムのX軸方向の位置を特定位置のX座標とするのが好ましい。
【0397】
また、図33中下側(撮像された投影領域の端部側)から、第1の波形のピークおよびボトム(1次微分係数が0となる点)のNy 番目のY軸方向の位置を特定位置のY座標とし、図33中右側(撮像された投影領域の端部側)から、第2の波形のピークおよびボトム(1次微分係数が0となる点)のNx 番目のX軸方向の位置を特定位置のX座標とするのが好ましい。
【0398】
この場合、Ny とNx は、異なっていてもよいが、等しいのが好ましい。Ny とNx とを等しくすることにより、位置調整の精度をより高くすることができる。
【0399】
また、Ny およびNx は、それぞれ、偶数であるのが好ましい。すなわち、第1の波形のボトムのY軸方向の位置を特定位置のY座標とするのが好ましく、また、第2の波形のボトムのX軸方向の位置を特定位置のX座標とするのが好ましい。
【0400】
Ny 、Nx が偶数であると、より正確に特定位置のY座標、X座標を求めることができ、これにより位置調整の精度を向上させることができる。
【0401】
また、Ny およびNx は、それぞれ、2以上であるのが好ましく、4以上であるのがより好ましく、4〜8程度がさらに好ましい。
【0402】
Ny 、Nx が2以上であると、より正確に特定位置のY座標、X座標を求めることができ、これにより位置調整の精度を向上させることができる。
【0403】
以上で、緑色用の液晶ライトバルブ25の位置決めが終了し、前述したように、この液晶ライトバルブ25は、光学ブロック20に仮固定され、この後、本固定される。
【0404】
次いで、前記と同様に、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めが行われる。
【0405】
このとき、ステップS350の微調整(位置調整処理)を第1の実施の形態の微調整で行う場合には、次のように行うことにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0406】
まず、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うに先立って、前記四頂点位置計測処理(処理S90d)を行い、緑色用の液晶ライトバルブ25の投影領域110のエッジ112a〜112dの座標を得る。
【0407】
かかる座標に基づいて、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めにおいてステップS352で用いられるθkと、ステップS355で用いられるkxgおよびkygと、ステップS357で用いられるエッジ112a〜112dの基準座標(kluxg,kluyg)と(kruxg,kruyg)と(kldxg,kldyg)と(krdxg,krdyg)とを求める。
【0408】
そして、これらの値に基づいて、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行う。
【0409】
これにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0410】
一方、ステップS350の微調整(位置調整処理)を第2の実施の形態の微調整で行う場合には、次のように行うことにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0411】
まず、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うに先立って、緑色用の液晶ライトバルブ25の投影領域110をカメラ61〜64でそれぞれ撮像し、各画像データをメモリー4に記憶する。
【0412】
そして、メモリー4から前記各画像データをそれぞれ読み出し、前述したエッジ処理により、各特定位置のX座標およびY座標を求める。得られた各特定位置のX座標およびY座標を、それぞれ、位置調整のうちの微調整における各目的位置のX座標およびY座標として設定する。
【0413】
これにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0414】
液晶ライトバルブ24の位置決めが終了すると、前述したように、この液晶ライトバルブ24は、光学ブロック20に仮固定され、この後、本固定される。
【0415】
同様に、液晶ライトバルブ26の位置決めが終了すると、前述したように、この液晶ライトバルブ26は、光学ブロック20に仮固定され、この後、本固定される。
【0416】
以上説明したように、本発明のライトバルブの位置決め方法によれば、各液晶ライトバルブ24〜26の位置決めが自動的に行われるので、それを手作業で行う場合に比べ、容易、迅速かつ確実に位置決めすることができる。
【0417】
また、位置決めを手作業で行う場合に比べ、精度良く、位置決めすることができる。
【0418】
また、フォーカス調整では、粗調整と微調整とを行うので、短時間で、精度良くフォーカス調整することができる。
【0419】
また、位置調整では、粗調整と微調整とを行うので、短時間で、精度良く位置調整を行うことができる。
【0420】
また、粗調整を行うことにより、スクリーン上に投影した画像が目的領域内に存在しない場合でも、かかる画像の角部を目的領域内に導入することができ、効率よく位置調整を行うことができる。これにより、投影領域が目的領域から離間したところに位置する場合でも、位置調整を容易に行うことができる。
【0421】
また、第1の実施の形態の微調整を行う場合には、スクリーン上に投影した画像が完全に長方形でない場合でも、正確に位置調整を行うことができる。
【0422】
また、位置調整のうちの微調整において、第2の実施の形態の微調整を行う場合には、輝度の積算値を利用する前述したエッジ処理により特定位置のX座標およびY座標を求めるので、正確に特定位置のX座標およびY座標を求めることができ、これにより位置調整の精度をさらに向上させることができる。
【0423】
以上、本発明のライトバルブの位置決め方法を、図示の実施例に基づいて説明したが、本発明はこれに限定されるものではない。
【0424】
例えば、本発明では、用いる位置決め装置の構造は、図示のものに限定されない。
【0425】
前記実施例では、フォーカス調整専用のカメラと、位置調整専用のカメラとを用いて位置決めを行っているが、本発明では、フォーカス調整と位置調整とに、共通のカメラを用いて位置決めを行ってもよい。
【0426】
また、前記実施例では、ライトバルブを作動させずにスクリーン上に画像を投影して位置決めを行っているが、本発明では、ライトバルブを作動させてスクリーン上に画像を投影して位置決めを行ってもよい。
【0427】
また、前記第1の実施の形態のステップS350の微調整において、四頂点位置計測処理(処理S90d)では、エッジ処理を行い特定位置を検出し、かかるエッジ処理で検出した特定位置に基づいて、前記第1の処理(処理S35A)と、第2の処理(処理S35B)と、第3の処理(処理S35C)とを行ってもよい。
【0428】
【発明の効果】
以上説明したように、本発明のライトバルブの位置決め方法によれば、容易、迅速、確実に、かつ精度良く位置決めすることができる。
【0429】
また、位置調整では、粗調整と微調整とを行うので、短時間で、精度良く位置調整を行うことができる。
【0430】
また、投影領域の所定の角部があらかじめ設定された目的領域内に入っていない場合には、前記角部を目的領域内に導入することができる。すなわち、投影領域が目的領域から離間したところに位置する場合でも、効率よく位置調整を行うことができる。
【0431】
また、投影領域の中心を求め、該中心をあらかじめ設定された位置に近づける処理を行うと、スクリーン上に投影した画像が完全に長方形でない場合でも、正確に位置調整を行うことができる。
【0432】
また、投影領域の角部のうち、あらかじめ設定された目的位置から最も離れているところに位置する角部を、前記目的位置に近づける処理を行うと、スクリーン上に投影した画像が完全に長方形でない場合でも、正確に位置調整を行うことができる。
【図面の簡単な説明】
【図1】本発明のライトバルブの位置決め方法に用いる位置決め装置の構成例を模式的に示す側面図である。
【図2】図1に示す位置決め装置の回路構成を示すブロック図である。
【図3】本発明における投射型表示装置の光学ヘッド部(各液晶ライトバルブおよび光学系の一部)を示す平面図である。
【図4】本発明におけるダイクロイックプリズムと、緑色に対応した液晶ライトバルブと、支持部材とを示す分解斜視図である。
【図5】図1に示す位置決め装置のチャックで挟持された液晶ライトバルブを模式的に示す図である。
【図6】本発明における液晶ライトバルブによるスクリーン上の投影領域と、各カメラの撮像領域とを模式的に示す図である。
【図7】本発明におけるフォーカス調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図8】本発明におけるフォーカス調整の際の液晶ライトバルブの移動を説明するための模式図である。
【図9】本発明におけるスクリーン上に投影された画像と、その画像を撮像したときの輝度のヒストグラムとを示す図である。
【図10】本発明における位置調整(アライメント調整)の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図11】本発明における4つのパターンを模式的に示す図である。
【図12】本発明における2つのパターンを模式的に示す図である。
【図13】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図14】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図15】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図16】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図17】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図18】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図19】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図20】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図21】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図22】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図23】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図24】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図25】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整を説明するための図である。
【図26】本発明における他の4つのパターンを模式的に示す図である。
【図27】本発明における他の2つのパターンを模式的に示す図である。
【図28】本発明における位置調整(アライメント調整)における第2の実施の形態の微調整を説明するための図である。
【図29】本発明におけるエッジ処理における位置決め装置の制御手段の制御動作を示すフローチャートである。
【図30】本発明におけるエッジ処理を説明するための図である。
【図31】本発明におけるエッジ処理を説明するための図である。
【図32】本発明におけるエッジ処理を説明するための図である。
【図33】本発明における第1の波形および第2の波形を示す図である。
【図34】従来の投射型表示装置の光学系を模式的に示す図である。
【符号の説明】
1 位置決め装置
2 スクリーン
3 制御手段
4 メモリー
51〜54 カメラ
511、521 撮像領域
531、541 撮像領域
61〜64 カメラ
611、621 撮像領域
612 辺
631、641 撮像領域
632、633 辺
643 辺
71〜74 照明装置
8 3軸テーブル
81 3軸テーブル駆動機構
9 3軸テーブル
91 3軸テーブル駆動機構
11 チャック
12 支持部材
20 光学ブロック
21 ダイクロイックプリズム
211、212 ダイクロイックミラー面
213〜215 面
216 出射面
22 投射レンズ
23 支持体
24〜26 液晶ライトバルブ
251 枠部材
252 貫通孔
253 切り欠き部
27 支持部材
28 固定板
281 開口
282 ネジ孔
29 固定板
291 開口
292 貫通孔
293 突起
31 ネジ
32 楔
33 接着剤
110 投影領域
111a、111b 角部
111c、111d 角部
112a、112b エッジ
112c、112d エッジ
113a、113b 辺
114a、114b 辺
121〜124 位置
125a、125b 中心
125c、125d 中心
126、127 直線
128 特定位置
129a、129b 位置
300 投射型表示装置
301 光源
302、303 インテグレータレンズ
304、306、309 ミラー
305、307、308 ダイクロイックミラー
310〜314 集光レンズ
315 ダイクロイックプリズム
316〜318 液晶ライトバルブ
319 投射レンズ
320 スクリーン
S101〜S120 ステップ
S201 ステップ
S300 粗調整
S30A〜S30H 処理
S301〜S329 ステップ
S350 微調整
S351〜S359 ステップ
S401〜S415 ステップ
S90a〜S90d 処理
S901〜S910 ステップ
S921、S922 ステップ
S931、S932 ステップ
S941〜S948 ステップ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a light valve positioning method for a projection display device, a display unit, and a projection display device.
[0002]
[Prior art]
A projection display device using a liquid crystal light valve (liquid crystal light shutter) is known.
[0003]
FIG. 34 is a diagram schematically showing an optical system of a conventional projection display apparatus.
[0004]
As shown in the figure, the
[0005]
White light (white light beam) emitted from the
[0006]
The white light transmitted through the
[0007]
The blue light transmitted through the
[0008]
Of the red light and green light reflected by the
[0009]
The green light reflected by the
[0010]
Further, the red light transmitted through the
[0011]
As described above, the white light emitted from the
[0012]
These blue light, green light, and red light are modulated by the liquid
[0013]
The light of each color from the liquid
[0014]
When assembling the
[0015]
In the focus adjustment, an adjustment image that makes it easy to recognize the contrast is projected, and the operator confirms the contrast with the naked eye, and uses an adjustment tool to displace and fix the liquid crystal light valve so that the contrast becomes the highest. The method of doing is taken.
[0016]
In the position adjustment, an adjustment image that easily recognizes color misregistration is projected, and an operator checks the pixel misregistration with the naked eye, and uses an adjustment tool to adjust the liquid crystal light so that the color misregistration is minimized. A method of displacing and fixing the valve is employed.
[0017]
Conventionally, however, the positioning of the liquid crystal light valve is performed manually, which is very time-consuming and takes a long time even by a skilled person.
[0018]
In addition, since contrast and color shift are observed with the naked eye, there is a drawback that positioning accuracy is poor.
[0019]
In addition, since the screen on which the image is projected is separated from the position of the liquid crystal light valve to be positioned, it is necessary to go back and forth between the screen and the liquid crystal light valve many times when positioning by one person. And it takes a very long time to work.
[0020]
When positioning by two people, one worker is located near the screen, observes the projected image, conveys the information to the other worker, and the worker who receives the information Since the liquid crystal light valve is displaced, not only does the number of workers increase, but information may not be accurately transmitted between the workers, which is not reliable.
[0021]
[Problems to be solved by the invention]
An object of the present invention is to provide a light valve positioning method capable of easily, quickly, reliably and accurately positioning a light valve of a projection display device, a display unit having a light valve positioned by the positioning method, and a projection. It is to provide a mold display device.
[0022]
[Means for Solving the Problems]
Such an object is achieved by the present inventions (1) to (32) below.
[0023]
(1) A positioning method for positioning the light valve of a projection display device that projects an image formed by a light valve by a projection optical system,
A detection process for detecting whether or not a predetermined corner of the quadrangle projection area is within a preset target area;
A light valve positioning method comprising: an introduction process of displacing the projection area and introducing the corner into the target area when the corner is not within the target area. .
[0024]
(2) In the detection process, the above-described (1) detecting whether or not the corner is within the target area by a pattern matching method for searching for a match with a pattern corresponding to the corner set in advance. The light valve positioning method according to
[0025]
(3) The light valve positioning method according to (1) or (2), wherein in the introduction process, a positional relationship specifying process for specifying a relative positional relationship between the projection area and the target area is performed.
[0026]
(4) The light valve positioning method according to (3), wherein in the positional relationship specifying process, a process of detecting whether a side of the projection area is within the target area is performed.
[0027]
(5) The light valve positioning method according to (4), wherein the detection of the side is performed by a pattern matching method for searching for a match with a pattern corresponding to the side set in advance.
[0028]
(6) The light valve positioning method according to (3), wherein in the positional relationship specifying process, it is detected whether or not the target area is included in the projection area.
[0029]
(7) The light valve positioning method according to (6), wherein whether or not the target area is included in the projection area is detected by detecting brightness in the target area.
[0030]
(8) In any one of (3) to (7), in the introduction process, the projection area is displaced so as to correct the positional relation of the projection area with respect to the target area based on the identification result of the positional relationship identification process. The light valve positioning method according to
[0031]
(9) The method according to any one of (1) to (8), wherein in the introduction process, a process is performed in which a side of the projection area is substantially parallel to a preset target line corresponding to the side. Light valve positioning method.
[0032]
(10) The light valve positioning method according to any one of (1) to (9), wherein the detection processing is performed at at least two corners.
[0033]
(11) Further, the light valve according to any one of (1) to (10), wherein the corner portion is moved so as to match a preset target position in the target area. Positioning method.
[0034]
(12) The light valve positioning method according to (11), wherein in the position adjustment processing, corner position measurement processing for measuring positions of at least two corner portions is performed.
[0035]
(13) The light valve positioning method according to (11) or (12), wherein, in the position adjustment process, a center of the projection area is obtained and a process of bringing the center close to a preset position is performed.
[0036]
(14) In the position adjustment process, the corners located farthest from a preset target position among the corners are subjected to a process of approaching the target position (11) to (13) The light valve positioning method according to any one of the above.
[0037]
(15) The light valve positioning method according to any one of (1) to (14), wherein the target area is an area captured as an electronic image.
[0038]
(16) The target area is an area captured as an electronic image,
In the position adjustment process, the match between the corner and the target position is a match between the specific position that is a specific position in the corner and the target position. Method.
[0039]
(17) In the position adjustment process, the luminance of a predetermined area including at least a part of the corners in the electronic image is obtained in units of pixels, and the X-axis direction and the Y-axis direction orthogonal to each other are obtained. A first waveform indicating a change in the Y-axis direction of an integrated value of luminance in the X-axis direction when an XY coordinate is assumed for the electronic image, and an integrated value of luminance in the Y-axis direction The light valve positioning method according to (16), which is performed by detecting the specific position based on a second waveform indicating a change in the X-axis direction.
[0040]
(18) The peak or bottom position of the first waveform in the Y-axis direction is the Y coordinate of the specific position, and the peak or bottom position of the second waveform is the X coordinate of the specific position. The light valve positioning method according to (17) above.
[0041]
(19) From the end side of the imaged projection region, the position of the first waveform peak and bottom in the Ny-th Y-axis direction is set as the Y coordinate of the specific position, and the end of the imaged projection region The light valve positioning method according to the above (17), wherein the position of the Nxth X-axis direction of the peak and bottom of the second waveform from the section side is the X coordinate of the specific position.
[0042]
(20) The light valve positioning method according to (19), wherein each of Ny and Nx is an even number.
[0043]
(21) The light valve positioning method according to (19) or (20), wherein Ny and Nx are each 2 or more.
[0044]
(22) The light valve positioning method according to any one of (19) to (21), wherein Ny and Nx are equal.
[0045]
(23) The displacement of the light valve in the position adjustment process is movement in the X-axis direction, movement in the Y-axis direction, and rotation around the Z-axis orthogonal to the X-axis and the Y-axis (17 The light valve positioning method according to any one of (1) to (22).
[0046]
(24) The light valve positioning method according to any one of (1) to (23), wherein the light valve is a liquid crystal light valve.
[0047]
(25) The light valve positioning method according to any one of (1) to (24), wherein the projection display device includes three light valves corresponding to red, green, and blue.
[0048]
(26) The light valve positioning method according to (25), wherein the positioning is performed for each of the three light valves.
[0049]
(27) The light valve positioning method according to (25) or (26), wherein the positioning is performed so that the images formed by the three light valves overlap.
[0050]
(28) Perform the positioning for the light valve corresponding to the green color,
The light valve corresponding to the red color and the image formed by the light valve corresponding to the red color and the image formed by the light valve corresponding to the blue color overlap the image formed by the light valve, and 28. The light valve positioning method according to any one of (25) to (27), wherein the positioning is performed for each of the light valves corresponding to the blue color.
[0051]
(29) The light valve positioning method according to any one of (1) to (28), wherein focus adjustment of the light valve is performed prior to the positioning.
[0052]
(30) In the focus adjustment of the light valve, an electronic image is obtained by imaging a predetermined area of the projection area, the luminance of the electronic image is totaled to obtain a luminance variance, and the variance is maximized. The light valve positioning method according to (29), wherein the light valve is displaced.
[0053]
(31) Three light valves corresponding to red, green, and blue, which are positioned by the light valve positioning method according to any one of (1) to (30) and form an image, and the respective images are synthesized. A display unit comprising a color synthesis optical system.
[0054]
(32) Three light valves corresponding to red, green, and blue, which are positioned by the light valve positioning method according to any one of (1) to (30) and form an image, a light source, and the light source Are separated into red, green, and blue light, a color separation optical system that guides each light to the corresponding light valve, a color synthesis optical system that synthesizes the images, and a projection of the synthesized image And a projection optical system.
[0055]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a light valve positioning method, a display unit, and a projection display device according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
[0056]
FIG. 1 is a side view schematically showing a configuration example of a positioning device used in the light valve positioning method of the present invention, and FIG. 2 is a block diagram showing a circuit configuration of the positioning device shown in FIG.
[0057]
The
[0058]
First, a projection display device will be described.
[0059]
FIG. 3 is a plan view showing an optical head part (each liquid crystal light valve and a part of the optical system) of the projection display device, and FIG. 4 shows a dichroic prism, a liquid crystal light valve corresponding to green, and a support member. It is a disassembled perspective view shown.
[0060]
As shown in FIG. 1 and FIG. 3, the projection display device corresponds to a red light source (a light guide optical system) including a light source (not shown), a plurality of dichroic mirrors (not shown), and red (for red). ) Liquid crystal light valve (liquid crystal light shutter array) 24, liquid crystal light valve (liquid crystal light shutter array) 25 corresponding to green (for green), and liquid crystal light valve (liquid crystal light shutter for blue) corresponding to blue Array) 26, a dichroic prism (color combining optical system) 21 on which a
[0061]
The
[0062]
Further, the three liquid
[0063]
Since the structure of each of the
[0064]
As shown in FIG. 4, the
[0065]
A
[0066]
A
[0067]
The fixed
[0068]
Through
[0069]
And the
[0070]
The liquid crystal
[0071]
When the positioning is completed, the liquid crystal
[0072]
After the temporary fixing, two
[0073]
Similarly to the green liquid crystal
[0074]
The liquid
[0075]
The
[0076]
Next, the operation of the projection display device will be described.
[0077]
White light emitted from the light source (white light flux) is separated into three primary colors of red, green and blue by a color separation optical system, and as shown in FIG. 3, red light, green light and blue light are respectively The liquid crystal
[0078]
The red light enters the liquid crystal
[0079]
Similarly, green light and blue light are incident on the liquid
[0080]
As shown in FIG. 3, the red image formed by the liquid crystal
[0081]
Further, the green image formed by the liquid crystal
[0082]
Further, the blue image formed by the liquid crystal
[0083]
Thus, the light of each color from the liquid
[0084]
Next, the
[0085]
As shown in FIGS. 1 and 2, the
[0086]
As shown in FIG. 1, a triaxial table 9 is supported by a triaxial table 8, a
[0087]
FIG. 5 is a diagram schematically showing the liquid crystal
[0088]
As shown in the figure, an X axis, a Y axis, and a Z axis (XYZ coordinates) orthogonal to each other are assumed.
[0089]
The focus adjustment triaxial table 8 is configured to move in the Z axis direction, rotate in both directions in the H direction (around the Y axis), and rotate in both directions in the V direction (around the X axis). Has been.
[0090]
When the three-axis table 8 moves in the Z-axis direction, the liquid crystal
[0091]
The displacement of the three-axis table 8, that is, the movement in the Z-axis direction and the rotation in the H-direction and the V-direction are each controlled by the control means 3 via a three-axis
[0092]
Further, the position adjusting triaxial table 9 is configured to move in the X axis direction and the Y axis direction and to rotate in both directions in the W direction (around the Z axis).
[0093]
When the triaxial table 9 moves in the X axis direction, the liquid crystal
[0094]
The displacement of the three-axis table 9, that is, movement in the X-axis direction and Y-axis direction, and rotation in the W-direction are controlled by the control means 3 via a three-axis
[0095]
Further, as shown in FIG. 1, the four
[0096]
A
[0097]
And the cameras 51-54 and the cameras 61-64 are each installed in the surface side (right side in FIG. 1) of the
[0098]
FIG. 6 is a diagram schematically showing the projection area on the
[0099]
As shown in the figure, the projection area (projected image range) 110 has a shape corresponding to the effective screen area of the liquid
[0100]
As shown in the figure, the
[0101]
In this embodiment, in the focus adjustment, the
[0102]
The
[0103]
These
[0104]
In this embodiment, in the position adjustment (alignment adjustment), the
[0105]
As shown in FIG. 2, the
[0106]
The control means 3 is usually composed of a microcomputer (CPU), the
[0107]
Next, the light valve positioning method of the present invention (the operation of the positioning device 1) will be described.
[0108]
When the
[0109]
In this embodiment, when the liquid
[0110]
That is, first, the liquid crystal
[0111]
Further, when positioning each of the liquid
[0112]
In focus adjustment, first, coarse adjustment (first focus adjustment) is performed, and then coarse adjustment is performed, and then fine adjustment (second focus adjustment) is performed. The focus adjustment of the green liquid crystal
[0113]
FIG. 7 is a flowchart showing the control operation of the control means 3 of the
[0114]
In the focus adjustment, first, the four
[0115]
By this step S101, as shown in FIG. 1, the light emitted from the
[0116]
Next, the liquid crystal
[0117]
The Z-axis direction reference position is a position separated by a predetermined amount (predetermined distance) in a direction approaching the
[0118]
Next, camera no. 1 (camera 51), image data relating to the luminance of the imaging region 511 (hereinafter simply referred to as “image data”) is obtained and stored in the memory 4 (step S103).
[0119]
Next, camera no. 2 (camera 52), and the image data of the
[0120]
Next, camera no. 3 (camera 53), and the image data of the
[0121]
Next, camera no. 4 (camera 54), and the image data of the
[0122]
Next, as shown in FIG. 8, the liquid crystal
[0123]
When the Z-axis direction reference position is set at a predetermined position closer to the
[0124]
If the Z-axis direction reference position is set to a predetermined position farther from the
[0125]
Further, since step S107 is a movement control of the liquid crystal
[0126]
When the movement amount of the liquid crystal
[0127]
Further, the moving amount L1 of the liquid crystal
[0128]
Further, the moving amount L2 of the liquid crystal
[0129]
Next, the movement amount of the liquid crystal
[0130]
The Z-axis direction set movement amount is set to be larger than the distance between the Z-axis direction reference position and the position where the focus is expected.
[0131]
If it is determined in step S108 that the movement amount of the liquid crystal
[0132]
If it is determined in step S108 that the amount of movement of the liquid crystal
[0133]
FIG. 9 is a diagram illustrating an image projected on the
[0134]
As shown in the figure, in an in-focus state (in-focus state), the image projected on the
[0135]
As the focus shifts, the contrast decreases (the image becomes unclear), and the brightness varies, that is, the brightness dispersion (σ 2 ) Becomes smaller.
[0136]
In step S109, the camera No. For all the images (electronic images) taken in 1, the image data is read from the
[0137]
Similarly, camera no. 2, Camera No. 3 and camera no. 4, the position of the liquid crystal
[0138]
Then, from the obtained four positions, the angle of the liquid crystal light valve in the H direction (around the Y axis) from the target state (position and position in the Z axis direction) of the liquid crystal
[0139]
The target state is a corresponding image when the liquid crystal
[0140]
Next, the triaxial table 8 is displaced so that the obtained shift positions in the Z-axis direction, the H-direction angle, and the V-direction angle are each zero (step S110).
[0141]
That is, in step S110, the liquid crystal
[0142]
In step S110, the liquid crystal
[0143]
In this step S110, the rough adjustment is completed.
[0144]
Next, a Z-axis direction moving range of the liquid crystal
[0145]
In this step S111, the
[0146]
Then, the Z-axis direction setting in the fine adjustment in step S118, which will be described later, is the distance between the position spaced apart by a predetermined amount in the direction approaching the
[0147]
That is, the movement range of the liquid crystal
[0148]
Next, the liquid crystal
[0149]
Next, camera no. 1 and the image data of the
[0150]
Next, camera no. 2 and the image data of the
[0151]
Next, camera no. 3 and the image data of the
[0152]
Next, camera no. 4 and the image data of the
[0153]
Next, as shown in FIG. 8, the liquid crystal
[0154]
If the Z-axis direction setting position is set to a predetermined position closer to the
[0155]
If the Z-axis direction setting position is set at a predetermined position on the side farther from the
[0156]
Next, the movement amount of the liquid crystal
[0157]
If it is determined in step S118 that the movement amount of the liquid crystal
[0158]
If it is determined in step S118 that the movement amount of the liquid crystal
[0159]
In this step S119, the camera No. For all the images captured in 1, image data is read from the
[0160]
Similarly, camera no. 2, Camera No. 3 and camera no. 4, the position of the liquid crystal
[0161]
Then, from the obtained four positions, the angle in the H direction, the angle in the V direction, and the Z axis of the liquid crystal
[0162]
The target state is a corresponding image when the liquid crystal
[0163]
As described above, the movement amount L2 in the fine adjustment in step S117 is set to be smaller than the movement amount L1 in the fine adjustment in step S107. Therefore, in the fine adjustment, images are taken at fine intervals. Image No. 1-No. 4 is a target image No. 4 in the rough adjustment. 1-No. Compared to 4, the image is in the uppermost state in FIG.
[0164]
Next, the triaxial table 8 is displaced so that the obtained shift positions in the Z-axis direction, the H-direction angle, and the V-direction angle are each zero (step S120).
[0165]
That is, in this step S120, the liquid crystal
[0166]
In step S120, the liquid crystal
[0167]
In step S120, the fine adjustment is finished, that is, the focus adjustment is finished.
[0168]
After the focus adjustment is completed, the
[0169]
10 and 13 to 18 are flowcharts showing the control operation of the control means 3 of the
[0170]
In the following description of the alignment adjustment, moving the
[0171]
In the following description of alignment adjustment, the horizontal direction in FIGS. 19 to 25 corresponds to the X-axis direction of the liquid crystal
[0172]
Before performing the following position adjustment, four patterns A1, B1, C1 corresponding to the portions including the
[0173]
[0174]
In addition, without storing these patterns in the
[0175]
Prior to describing the following position adjustment, pattern matching (pattern matching method) performed as appropriate during the following position adjustment will be described first.
[0176]
In pattern matching, for example, camera No. There are specific patterns (search patterns) such as patterns A1, B1, C1, D1, H1, and V1 in the image data (data to be searched) captured by 1, 2, 3, 4 and loaded into the
[0177]
If such a search pattern does not exist, it is determined that such a search pattern does not exist in the searched data.
[0178]
On the other hand, when such a search pattern exists, it is determined that such a search pattern exists in the searched data. At this time, the coordinates (X coordinate, Y coordinate) of the position (for example,
[0179]
Here, in the pattern matching, “the search pattern exists” does not mean that the pattern that completely matches the search pattern exists in the searched data, but the degree of matching with the search pattern (recognition rate) This means that there is a pattern having a value equal to or greater than a certain value (threshold value).
[0180]
This value (threshold value) varies depending on various conditions such as the environment where the
[0181]
In addition, when outputting or returning the result that the search pattern exists in the search target data, the degree of coincidence may be returned or output as necessary.
[0182]
As shown in FIG. 10, in the position adjustment (alignment adjustment), first, rough adjustment is performed (S300), and then fine adjustment (S350) is performed.
[0183]
First, the rough adjustment in step S300 will be described.
[0184]
In the coarse adjustment in step S300, the first process (process S30A), the second process (process S30B), the third process (process S30C), the fourth process (process S30D), and the fifth process The processing (processing S30E), the sixth processing (processing S30F), the seventh processing (processing S30G), and the eighth processing (processing S30H) are performed. Hereinafter, each process is demonstrated in detail for every step based on FIGS. 13-16 and 19-24.
[0185]
[Process S30A] The first process includes steps S301 to S303 and a pattern C introduction process (process S90a).
[0186]
By executing Steps S301 to S303, it is possible to detect whether or not the
[0187]
[Step S301] First, camera no. 3 (camera 63), and the image data of the
[0188]
[Step S302] Next, pattern matching is performed on the image data stored in the
[0189]
[Step S303] Next, as a result of pattern matching, when the pattern C1 exists in the image data stored in the
[0190]
Here, “the
[0191]
[Processing S90a] The pattern C introduction process includes steps S901 to S910 as shown in FIG.
[0192]
By executing this pattern C introduction processing, the
[0193]
[Step S901] First, pattern matching is performed on the image data stored in the
[0194]
[Step S902] Next, as a result of pattern matching, when the pattern H1 is present in the image data stored in the
[0195]
[Step S903] Next, the
[0196]
Accordingly, as shown in FIG. 19B2, the
[0197]
Then, it returns to step S301.
[0198]
In this step, the amount of movement of the
[0199]
[Step S904] Next, pattern matching is performed on the image data stored in the
[0200]
[Step S905] Next, as a result of pattern matching, when the pattern V1 is present in the image data stored in the
[0201]
[Step S906] Next, the
[0202]
Thereby, as shown in FIG. 19 (B3), the
[0203]
Then, it returns to step S301.
[0204]
[Step S907] Next, for the image data stored in the
[0205]
[Step S908] Next, as a result of obtaining the luminance, if the luminance is less than the threshold value (when the brightness in the
[0206]
This threshold value is sufficiently higher than the luminance when none of the
[0207]
[Step S909] Next, the
[0208]
Thereby, as shown in FIG. 20 (B4), the
[0209]
Then, it returns to step S301.
[0210]
[Step S910] Next, the
[0211]
Thereby, as shown in FIG. 20 (B5), the
[0212]
Then, it returns to step S301.
[0213]
Even when the
[0214]
[Process S30B] The second process includes steps S304 and S305.
[0215]
By executing the second process, the
[0216]
[Step S304] First, the X-axis direction of the
[0217]
As described above, the coordinates of the obtained
[0218]
[Step S305] Next, the
[0219]
Accordingly, as shown in FIG. 19B1, the
[0220]
In the third to fifth processes (processes S30C to S30E) described below, alignment is performed based on the
[0221]
[Process S30C] The third process includes steps S306 to S310 and a pattern A introduction process (process S90b).
[0222]
By executing the first process and the second process, the
[0223]
However, even after performing such processing, as shown in FIG. 21A6, when the
[0224]
Even in such a case, the
[0225]
Prior to executing the following step S308, 0 is substituted in advance for the variable I necessary for calculating the amount of movement of the
[0226]
[Step S306] First, camera no. 3 (camera 63), and the image data of the
[0227]
[Step S307] Next, pattern matching is performed on the image data stored in the
[0228]
[Step S308] Next, camera no. 1 (camera 61), and the image data of the
[0229]
[Step S309] Next, pattern matching is performed on the image data stored in the
[0230]
[Step S310] Next, as a result of pattern matching, when the pattern A1 does not exist in the image data stored in the
[0231]
[Process S90b] The pattern A introduction process includes steps S921 and S922.
[0232]
The
[0233]
[Step S921] First, the position (coordinates) of the
[0234]
Position in the X-axis direction = IDOU_X1 + (I mod 3) * (m / 3) (Here, (I mod 3) means obtaining the remainder when I is divided by 3)
Position in the Y-axis direction = IDOU_Y1 + (I / 3) * (n / 3) (Note that the obtained movement amount is rounded down)
Here, the constants IDOU_X1 and IDOU_Y1 correspond to the coordinates of the movement destination of the
[0235]
These constants IDOU_X1 and IDOU_Y1 are preferably values such that the position of the
[0236]
[Step S922] Next, the
[0237]
Thereby, as shown in FIGS. 21B61 to B64 and FIGS. 22B65 to B69, the
[0238]
In FIG. 21, (B61) shows the position of the
[0239]
In the example illustrated in FIGS. 21 and 22, the
[0240]
Thereafter, the process returns to step S308. At that time, 1 is added to I.
[0241]
Thus, the
[0242]
In step S921, the position in the X-axis direction and the position in the Y-axis direction of the
[0243]
In step S921, the position in the X-axis direction and the position in the Y-axis direction of the
[0244]
[Process S30D] The fourth process includes steps S311 and S312.
[0245]
By executing the fourth process, the straight line 126 (target line) connecting the
[0246]
[Step S311] First, in the pattern A introduction process (process S90b), the coordinates (position) of the
[0247]
If the pattern A introduction process (process S90b) has never been performed, the
[0248]
[Step S312] Next, the
[0249]
Thereby, as shown in FIG. 23 (B71), the
[0250]
[Process S30E] The fifth process includes Steps S313 to S317.
[0251]
By executing the fifth process, the
[0252]
[Step S313] First, camera no. 3 (camera 63), and the image data of the
[0253]
[Step S314] Next, pattern matching is performed on the image data stored in the
[0254]
[Step S315] Next, the camera No. 1 (camera 61), and the image data of the
[0255]
[Step S316] Next, pattern matching is performed on the image data stored in the
[0256]
[Step S317] Next, based on the positions of the
[0257]
Note that y1 is the width between the
[0258]
Thereby, as shown in FIG. 23 (B72), the
[0259]
The sixth to eighth processes described below are processes similar to the third to fifth processes.
[0260]
In the third to fifth processes, alignment is performed with reference to the
[0261]
[Process S30F] The sixth process includes steps S318 to S322 and a pattern D introduction process (process S90c).
[0262]
By executing the third to fifth processes, the
[0263]
However, even after such processing is performed, as shown in FIG. 23A8, there is a very small possibility that the
[0264]
Even in such a case, the
[0265]
Prior to executing the following step S320, 0 is substituted in advance for the variable I necessary for calculating the amount of movement of the
[0266]
[Step S318] First, camera no. 3 (camera 63), and the image data of the
[0267]
[Step S319] Next, pattern matching is performed on the image data stored in the
[0268]
[Step S320] Next, the camera No. 4 (camera 64), and the image data of the
[0269]
[Step S321] Next, pattern matching is performed on the image data stored in the
[0270]
[Step S322] Next, as a result of pattern matching, when the pattern D1 does not exist in the image data stored in the
[0271]
[Processing S90c] The pattern D introduction process includes steps S931 and S932.
[0272]
By executing the pattern D introduction process a predetermined number of times, the
[0273]
[Step S931] First, the position (coordinates) of the
[0274]
Position in the X-axis direction = IDOU_X2 + (I mod 3) * (m / 3) (Here, (I mod 3) means that the remainder when I is divided by 3 is obtained)
Position in the Y-axis direction = IDOU_Y2 + (I / 3) * (n / 3) (Note that the obtained moving amount is rounded down)
Here, the constants IDOU_X2 and IDOU_Y2 correspond to the coordinates of the movement destination of the
[0275]
These constants IDOU_X2 and IDOU_Y2 are preferably values such that the position of the
[0276]
[Step S932] Next, the
[0277]
As a result, the
[0278]
Thereafter, the process returns to step S320. At that time, 1 is added to I.
[0279]
As described above, by executing the pattern D introduction process (process S90c) a predetermined number of times while changing the value of I, the
[0280]
In step S931, the position in the X-axis direction and the position in the Y-axis direction of the
[0281]
In step S931, the position in the X-axis direction and the position in the Y-axis direction of the
[0282]
[Process S30G] The seventh process includes steps S323 and S324.
[0283]
By executing the seventh process, the straight line 127 (target line) connecting the
[0284]
[Step S323] First, in the pattern D introduction process (process S90c), the coordinates (position) of the
[0285]
If the pattern D introduction process (process S90c) has never been performed, the
[0286]
[Step S324] Next, the
[0287]
Thereby, as shown in FIG. 24 (B91), the
[0288]
[Process S30H] The eighth process includes steps S325 to S329.
[0289]
By executing the eighth process, the
[0290]
[Step S325] First, camera no. 3 (camera 63), and the image data of the
[0291]
[Step S326] Next, pattern matching is performed on the image data stored in the
[0292]
[Step S327] Next, the camera No. 4 (camera 64), and the image data of the
[0293]
[Step S328] Next, pattern matching is performed on the image data stored in the
[0294]
[Step S329] Next, based on the positions of the
[0295]
Note that x1 is the width between the
[0296]
Thereby, as shown in FIG. 24 (B92), the
[0297]
Thus, the rough adjustment is completed.
[0298]
Hereinafter, the first embodiment of the fine adjustment (position adjustment process) in step S350 will be described.
[0299]
By performing the fine adjustment in the following step S350, the alignment can be adjusted with very high accuracy. Furthermore, even when the
[0300]
Prior to explaining the fine adjustment in step S350, the four vertex position measurement process (process S90d) that is appropriately performed during the fine adjustment in step S350 will be described first.
[0301]
[Processing S90d] As shown in FIG. 18, the four-vertex position measurement processing includes steps S941 to S948.
[0302]
By executing the four-vertex position measurement process, the coordinates of the
[0303]
[Step S941] First, camera no. 1 (camera 61), and the image data of the
[0304]
[Step S942] Next, pattern matching is performed on the image data stored in the
[0305]
[Step S943] Next, camera no. 2 (camera 62), and the image data of the
[0306]
[Step S944] Next, pattern matching is performed on the image data stored in the
[0307]
[Step S945] Next, the camera No. 3 (camera 63), and the image data of the
[0308]
[Step S946] Next, pattern matching is performed on the image data stored in the
[0309]
[Step S947] Next, camera no. 4 (camera 64), and the image data of the
[0310]
[Step S948] Next, pattern matching is performed on the image data stored in the
[0311]
Note that the coordinates of the
[0312]
In the fine adjustment in step S350, a first process (process S35A), a second process (process S35B), and a third process (process S35C) are performed. Hereinafter, each process will be described in detail for each step based on FIGS.
[0313]
[Processing S35A] The first processing includes four vertex position measurement processing (Processing S90d) and Steps S351 to S353.
[0314]
By executing the first process, the inclination of the
[0315]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0316]
[Step S351] Next, θgux, θgdx, θgly, and θgry are obtained based on the coordinates of the
[0317]
As illustrated in FIG. 25A11, θgux is an angle between the
[0318]
These θgux, θgdx, θgly, and θgry are the coordinates (gluxg, gluyg), (gruxg, glyg), (gldxg, gldyg), and (grdxg, grdyg) and the coordinates of the
[0319]
[Step S352] Next, based on θgux, θgdx, θgly, and θgry obtained in step S351, a rotation angle θ for rotating the
[0320]
This can be obtained from the following equation. Note that θk is a preset reference angle.
[0321]
θgx = (θgux + θgdx) / 2
θgy = (θgly + θgry) / 2
θg = (θgx + θgy) / 2
θ = θk-θg
[Step S353] Next, the
[0322]
Thereby, as shown in FIG. 25 (B12), the inclination of the
[0323]
[Process S35B] The second process includes a four-vertex position measurement process (Process S90d) and Steps S354 to S356.
[0324]
By executing this second process, the position of the center of the
[0325]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0326]
[Step S354] Next, based on the coordinates of the
[0327]
The coordinates are obtained from, for example, the coordinates (gluxg, gluyg), (gruxg, gryg), (gldxg, gldyg), (grdxg, grdyg) of the
[0328]
That is, the coordinates of the intersection of the straight line connecting the midpoint of the
[0329]
[Step S355] Next, based on the center coordinates (gxg, gyg) of the
[0330]
This can be obtained from the following equation. Note that kxg and kyg are preset reference coordinates.
[0331]
X-axis travel = kxg-gxg
Y-axis movement amount = kyg-gyg
[Step S356] Next, the
[0332]
As a result, the center of the
[0333]
[Process S35C] The third process includes a four-vertex position measurement process (Process S90d) and Steps S357 to S359.
[0334]
By executing the third process, the entire liquid crystal
[0335]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0336]
[Step S357] Next, with respect to the coordinates of the
[0337]
Here, the reference coordinates of the
[0338]
Here, assuming that the deviations of the
[0339]
X1 = kluxg-gluxg
X2 = gruxg-kruxg
X3 = kldxg-gldxg
X4 = grdxg-krdxg
Y1 = kluyg-gluyg
Y2 = kruyg-gruyg
Y3 = gldyg-kldyg
Y4 = grdyg-krdyg
[Step S358] Next, based on X1 to X4 and Y1 to Y4 obtained in Step S357, the amount of movement for moving the
[0340]
The amount of movement in the X-axis direction is obtained by taking the average of X1 to X4 having the first largest absolute value and the second largest absolute value. When the absolute value of the largest value and the second largest value have the same sign, the average of the first absolute value and the third largest absolute value among X1 to X4 is taken. Thus, the amount of movement in the X-axis direction is obtained. Furthermore, when the absolute value of the largest value and the third largest value have the same sign, the average of the first absolute value and the fourth largest absolute value among X1 to X4 is calculated. As a result, the amount of movement in the X-axis direction is obtained.
[0341]
The amount of movement in the Y-axis direction is obtained by taking the average of Y1 to Y4 having the first largest absolute value and the second largest absolute value. When the absolute value of the largest value and the second largest value have the same sign, the average of the first absolute value and the third largest absolute value among Y1 to Y4 is taken. Thus, the amount of movement in the Y-axis direction is obtained. Furthermore, when the absolute value of the largest value and the third largest value have the same sign, the average of the first absolute value and the fourth largest absolute value among Y1 to Y4 is calculated. As a result, the amount of movement in the Y-axis direction is obtained.
[0342]
[Step S359] Next, the
[0343]
As a result, of the
[0344]
Therefore, for example, as shown in FIG. 25 (A13), the position can be accurately adjusted even when the
[0345]
This completes the fine adjustment (position adjustment process) in step S350 of the first embodiment.
[0346]
In this fine adjustment, the four vertex position measurement process (process S90d) is performed for each of the first process (process S35A), the second process (process S35B), and the third process (process S35C). However, the four-vertex position measurement process (process S90d) may not be performed for each process. However, it is preferable to execute the four vertex position measurement process (process S90d) for each process as in the first embodiment. Thereby, the precision of alignment adjustment improves more.
[0347]
In this fine adjustment, the four vertex position measurement process (process S90d) is performed, the coordinates of the
[0348]
In the alignment adjustment, the image projected on the screen 2 (projected image), that is, the projected image of the pixel of the light valve is deformed (for example, fog, unevenness, blur, blurring) due to the characteristics of the optical system (lens aberration). Etc.) may occur.
[0349]
In such a case, for example, when pattern matching is performed using patterns A1 to D1 as shown in FIG. 11 as a search pattern, it may be difficult to perform the search accurately.
[0350]
At this time, pattern matching may be performed using patterns A2, B2, C2, and D2 as search patterns as shown in FIG. Each of these patterns A2, B2, C2, and D2 includes portions corresponding to corner
[0351]
Furthermore, first, pattern matching is performed using the patterns A1 to D1 as shown in FIG. 11 as search patterns, and when there is no search pattern in the search target data by such pattern matching, as shown in FIG. Pattern matching may be performed again using the patterns A2 to D2 as search patterns.
[0352]
In this way, by setting a plurality of predetermined patterns (patterns corresponding to one corner) used for pattern matching, it is easy to perform both in cases where there is a deformation of the projected image due to lens aberration and in cases where there is no deformation. It is possible to cope with this, and the accuracy of alignment can be improved.
[0353]
In this case, as shown in FIG. 26, in the patterns A2 to D2, positions 121, 122, 123, and 124 are, for example, edges 112a, 112b, and 112c when there is no deformation of the projected image due to lens aberration in each pixel. And 112d.
[0354]
Similarly to the above, for the pattern H1 and the pattern V1 as shown in FIG. 12, a pattern H2 and a pattern V2 corresponding to the pattern H1 and the pattern V1 as shown in FIG. Matching can be performed.
[0355]
The pattern H2 and the pattern V2 correspond to portions including the corresponding
[0356]
In this case, as shown in FIG. 27, in patterns H2 and V2,
[0357]
Hereinafter, a second embodiment of fine adjustment (position adjustment processing) in step S350 will be described.
[0358]
In fine adjustment, the camera No. 1, Camera No. 2, Camera No. 3 and camera no. 4, each image data of the
[0359]
Next, the camera No. 1, Camera No. 2, Camera No. 3 and camera no. Each image data of the image imaged in 4 is read out, and each
[0360]
Then, as shown in FIG. 28 (b), the liquid crystal
[0361]
Next, edge processing will be described. Typically, camera no. The case where the Y coordinate of the specific position of the image imaged by 4 is calculated | required is demonstrated.
[0362]
FIG. 29 is a flowchart showing the control operation of the control means 3 of the
[0363]
In the edge processing, first, camera No. 4 (in this embodiment, pixels: 400 rows × 600 columns), and image data of the
[0364]
The camera No. For example, the image captured at 4, that is, the image stored in the
[0365]
As shown in FIG. 30, XY coordinates are assumed. The XY coordinates correspond to the surface of the electronic image. That is, the camera No. The column (first column to 600th column) and row (first row to 400th row) of each pixel of the four pixels are respectively coordinated in the X-axis direction (X coordinate) and Y-axis direction (Y). Corresponds to the coordinate). In this embodiment, the camera No. The coordinates of the pixels in the 4th j-th row (j-th row) and i-th column (i-th column) are (i, j).
[0366]
Next, the luminance in each pixel is integrated in the Y-axis direction, and an integrated value Iy [i] = Σf (i, j) of luminance in the Y-axis direction is obtained (step S402).
[0367]
A graph of the integrated value Iy [i] is shown in FIG. The vertical axis of the graph is the integrated value Iy [i], and the horizontal axis is the X coordinate i of the pixel.
[0368]
Next, a maximum value Iymax and a minimum value Iymin of the integrated value Iy [i] are obtained (step S403).
[0369]
Next, a threshold value Ty is set (step S404).
[0370]
In step S404, the threshold value Ty is obtained by substituting the maximum value Iymax and the minimum value Iymin obtained in step S403 into the following equation.
[0371]
Ty = (Iymax + Iymin) * α (where 0 <α <1)
Next, as shown in FIG. 30, the X coordinate Xc of the cross point between the threshold value Ty and the integrated value Iy [i] is obtained (step S405).
[0372]
Next, as shown in FIG. 31, a rectangular area surrounded by four points of coordinates (0, 0), coordinates (Xc, 0), coordinates (Xc, 400), and coordinates (0, 400) is set (step S406).
[0373]
Next, in the set area, the luminance in each pixel is integrated in the X-axis direction, and an integrated value Iax [j] = Σf (i, j) of the luminance in the X-axis direction is obtained (step S407).
[0374]
A graph of the integrated value Iax [j] (first waveform) is shown in FIG. The horizontal axis of the graph is the integrated value Iax [j], and the vertical axis is the Y coordinate j of the pixel. This integrated value Iax [j] is a first waveform that indicates the change in the Y-axis direction of the integrated value of luminance in the X-axis direction.
[0375]
Next, a maximum value Iaxmax and a minimum value Iaxmin of the integrated value Iax [j] are obtained (step S408).
[0376]
Next, a threshold value Tax is set (step S409).
[0377]
In step S409, the threshold value Tax is obtained by substituting the maximum value Iaxmax and the minimum value Iaxmin obtained in step S408 into the following equations.
[0378]
Tax = (Iaxmax + Iaxmin) * α (where 0 <α <1)
Next, as shown in FIG. 31, the Y coordinate Yac of the cross point between the threshold value Tax and the integrated value Iax [j] is obtained (step S410).
[0379]
Next, as shown in FIG. 31, the Y coordinate Ppy [P] at each peak (positive peak) and the Y coordinate Pmy [q] at each bottom (negative peak) of the graph of the integrated value Iax [j] are obtained. (Step S411).
[0380]
In the case of FIG. 31, the number of positive peaks is 4 and the number of negative peaks is 3. Therefore, the Y coordinates Ppy [1], Ppy [2], Ppy [3] and Ppy at the four positive peaks are used. [4] and Y coordinates Pmy [1], Pmy [2] and Pmy [3] at the three negative peaks are detected, respectively.
[0381]
Next, an average value Ppyavr of the intervals in the vertical axis direction of adjacent positive peaks is obtained from the following equation (step S412).
[0382]
Ppyavr = {Σ (Ppy [p + 1] −Ppy [p])} / (n−1)
(Where n is the number of positive peaks)
Next, as shown in FIG. 31, the Y coordinate Pmpymax at the negative peak where Yac−1.2 * Ppyavr−Pmy [q] is minimum within the range where the Y coordinate is less than Yac−1.2 * Ppyavr is detected. (Step S413).
[0383]
In other words, Pmpymax is Pmy [q] which is smaller than Yac-1.2 * Ppyavr and closest to Yac-1.2 * Ppyavr.
[0384]
Next, the difference value Diax [j] of the integrated value Iax [j] is calculated from the following equation (step S414).
[0385]
Diax [j] = Iax [j + 1] −Iax [j−1]
In other words, the difference value Diax [j] on the j-th row is a value obtained by subtracting the integrated value Iax [j−1] on the j−1-th row from the integrated value Iax [j + 1] on the j + 1-th row.
[0386]
FIG. 32 shows a graph of the difference value Diax [j] and a graph of the integrated value Iax [j]. In the graph of the difference value Diax [j], the horizontal axis represents the difference value Diax [j], and the vertical axis represents the Y coordinate j of the pixel.
[0387]
Next, as shown in FIG. 32, near Pmpymax (indicated by a circle in FIG. 32), a zero cross point (Y coordinate when Diax [j] = 0) is calculated using Diax [j] (zero cross processing is performed). ), And the obtained zero cross point is set as the Y coordinate of the specific position (step S415).
[0388]
That is, in step S415, the camera No. 4, the Y coordinate of the specific position of the image captured is obtained.
[0389]
This completes the edge processing.
[0390]
The camera No. In order to obtain the X coordinate of the specific position of the image captured in
[0390]
In this case, in the set area, the relationship between the integrated value of the luminance in the Y axis direction obtained by integrating the luminance in each pixel in the Y axis direction and the X coordinate of the pixel (the X axis of the integrated value of the luminance in the Y axis direction). The waveform in the graph (not shown) showing the change in the direction is the second waveform, and the X coordinate of the specific position is obtained based on the second waveform in the same manner as the edge processing for obtaining the Y coordinate of the specific position described above. .
[0392]
FIG. 33 is a diagram illustrating the first waveform and the second waveform.
[0393]
As shown in the figure, in the second embodiment, the positions of the peak and bottom of the first waveform in the fourth Y-axis direction from the lower side in FIG. 33 (the end side of the imaged projection area). Is the Y coordinate of the
[0394]
In addition, camera No. 1, Camera No. 2 and camera no. In order to obtain the X coordinate and Y coordinate of the specific position of each image captured in
[0395]
This completes the fine adjustment (position adjustment processing) in step S350 of the second embodiment.
[0396]
As can be seen from the edge processing flowchart as described above, in the fine adjustment in step S350 of the second embodiment, the position of the peak or bottom of the first waveform shown in FIG. Preferably, the Y coordinate of the specific position is used, and the peak or bottom position of the second waveform in the X axis direction is the X coordinate of the specific position.
[0397]
Also, the Ny-th position in the Y-axis direction of the peak and bottom of the first waveform (point where the first derivative is 0) is specified from the lower side in FIG. 33 (the end side of the imaged projection area). As the Y coordinate of the position, from the right side in FIG. 33 (the end side of the imaged projection area), the peak and bottom of the second waveform (points where the first derivative is 0) in the Nx-th X-axis direction The position is preferably the X coordinate of the specific position.
[0398]
In this case, Ny and Nx may be different but are preferably equal. By making Ny and Nx equal, the accuracy of position adjustment can be further increased.
[0399]
Ny and Nx are each preferably an even number. That is, it is preferable that the position of the bottom of the first waveform in the Y-axis direction is the Y coordinate of the specific position, and the position of the bottom of the second waveform in the X-axis direction is the X coordinate of the specific position. preferable.
[0400]
When Ny and Nx are even numbers, the Y coordinate and X coordinate of the specific position can be obtained more accurately, thereby improving the accuracy of position adjustment.
[0401]
Ny and Nx are each preferably 2 or more, more preferably 4 or more, and still more preferably about 4-8.
[0402]
When Ny and Nx are 2 or more, the Y coordinate and X coordinate of the specific position can be obtained more accurately, thereby improving the accuracy of position adjustment.
[0403]
Thus, the positioning of the green liquid crystal
[0404]
Next, the red liquid crystal
[0405]
At this time, when the fine adjustment (position adjustment process) in step S350 is performed in the fine adjustment of the first embodiment, the green liquid crystal
[0406]
First, prior to positioning the liquid crystal
[0407]
Based on the coordinates, θk used in step S352, kxg and kyg used in step S355, and
[0408]
Based on these values, the red liquid crystal
[0409]
Accordingly, the red liquid crystal
[0410]
On the other hand, when the fine adjustment (position adjustment processing) in step S350 is performed by the fine adjustment of the second embodiment, the green liquid crystal
[0411]
First, prior to positioning the red liquid crystal
[0412]
Then, each image data is read from the
[0413]
Accordingly, the red liquid crystal
[0414]
When the positioning of the liquid crystal
[0415]
Similarly, when the positioning of the liquid crystal
[0416]
As described above, according to the light valve positioning method of the present invention, each of the liquid
[0417]
In addition, positioning can be performed with higher accuracy than when positioning is performed manually.
[0418]
In focus adjustment, coarse adjustment and fine adjustment are performed, so that the focus adjustment can be performed with high accuracy in a short time.
[0419]
In the position adjustment, coarse adjustment and fine adjustment are performed, so that the position adjustment can be performed with high accuracy in a short time.
[0420]
Further, by performing rough adjustment, even when the image projected on the screen does not exist in the target area, the corner of the image can be introduced into the target area, and the position can be adjusted efficiently. . Thereby, even when the projection area is located away from the target area, the position adjustment can be easily performed.
[0421]
Further, when performing the fine adjustment of the first embodiment, the position can be accurately adjusted even when the image projected on the screen is not completely rectangular.
[0422]
Further, in the fine adjustment of the position adjustment, when performing the fine adjustment of the second embodiment, the X coordinate and the Y coordinate of the specific position are obtained by the above-described edge processing using the integrated luminance value. The X coordinate and Y coordinate of the specific position can be obtained accurately, and thereby the accuracy of position adjustment can be further improved.
[0423]
As mentioned above, although the positioning method of the light valve of this invention was demonstrated based on the Example of illustration, this invention is not limited to this.
[0424]
For example, in the present invention, the structure of the positioning device to be used is not limited to the illustrated one.
[0425]
In the above embodiment, positioning is performed using a camera dedicated to focus adjustment and a camera dedicated to position adjustment. However, in the present invention, positioning is performed using a common camera for focus adjustment and position adjustment. Also good.
[0426]
In the above-described embodiment, the image is projected on the screen without operating the light valve, but positioning is performed by operating the light valve to project the image on the screen. May be.
[0427]
In the fine adjustment in step S350 of the first embodiment, in the four-vertex position measurement process (process S90d), edge processing is performed to detect a specific position, and based on the specific position detected in the edge process, The first process (process S35A), the second process (process S35B), and the third process (process S35C) may be performed.
[0428]
【The invention's effect】
As described above, according to the light valve positioning method of the present invention, positioning can be performed easily, quickly, reliably and accurately.
[0429]
In the position adjustment, coarse adjustment and fine adjustment are performed, so that the position adjustment can be performed with high accuracy in a short time.
[0430]
Further, when a predetermined corner of the projection area is not within the preset target area, the corner can be introduced into the target area. That is, even when the projection area is located away from the target area, the position can be adjusted efficiently.
[0431]
Further, when the center of the projection area is obtained and the process of bringing the center close to a preset position is performed, the position can be accurately adjusted even when the image projected on the screen is not completely rectangular.
[0432]
In addition, if the corner portion of the projection area that is located farthest from the preset target position is moved closer to the target position, the image projected on the screen is not completely rectangular. Even in this case, the position can be adjusted accurately.
[Brief description of the drawings]
FIG. 1 is a side view schematically showing a configuration example of a positioning device used in a light valve positioning method of the present invention.
2 is a block diagram showing a circuit configuration of the positioning device shown in FIG. 1. FIG.
FIG. 3 is a plan view showing an optical head portion (each liquid crystal light valve and a part of an optical system) of the projection display device according to the present invention.
FIG. 4 is an exploded perspective view showing a dichroic prism, a liquid crystal light valve corresponding to green, and a support member according to the present invention.
5 is a view schematically showing a liquid crystal light valve held by a chuck of the positioning device shown in FIG.
FIG. 6 is a diagram schematically showing a projection area on a screen by a liquid crystal light valve and an imaging area of each camera according to the present invention.
FIG. 7 is a flowchart showing the control operation of the control means of the positioning device at the time of focus adjustment in the present invention.
FIG. 8 is a schematic diagram for explaining the movement of a liquid crystal light valve during focus adjustment in the present invention.
FIG. 9 is a diagram illustrating an image projected on a screen according to the present invention and a luminance histogram when the image is captured.
FIG. 10 is a flowchart showing a control operation of the control means of the positioning device at the time of position adjustment (alignment adjustment) in the present invention.
FIG. 11 is a diagram schematically showing four patterns in the present invention.
FIG. 12 is a diagram schematically showing two patterns in the present invention.
FIG. 13 is a flowchart showing the control operation of the control means of the positioning device during rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 14 is a flowchart showing the control operation of the control means of the positioning device during rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 15 is a flowchart showing the control operation of the control means of the positioning device at the time of coarse adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 16 is a flowchart showing the control operation of the control means of the positioning device at the time of coarse adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 17 is a flowchart showing a control operation of the control means of the positioning device at the time of fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 18 is a flowchart showing a control operation of the control means of the positioning device at the time of fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 19 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 20 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 21 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention;
FIG. 22 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 23 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 24 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 25 is a diagram for explaining fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 26 is a diagram schematically showing another four patterns in the present invention.
FIG. 27 is a diagram schematically showing two other patterns in the present invention.
FIG. 28 is a diagram for explaining fine adjustment according to the second embodiment in position adjustment (alignment adjustment) in the present invention;
FIG. 29 is a flowchart showing the control operation of the control means of the positioning device in edge processing according to the present invention.
FIG. 30 is a diagram for explaining edge processing in the present invention;
FIG. 31 is a diagram for explaining edge processing in the present invention;
FIG. 32 is a diagram for explaining edge processing in the present invention;
FIG. 33 is a diagram showing a first waveform and a second waveform in the present invention.
FIG. 34 is a diagram schematically showing an optical system of a conventional projection display apparatus.
[Explanation of symbols]
1 Positioning device
2 screens
3 Control means
4 memory
51-54 camera
511, 521 Imaging area
531 and 541 Imaging area
61-64 cameras
611, 621 Imaging area
612 side
631, 641 Imaging area
632, 633 sides
643 sides
71-74 Lighting device
8 3-axis table
81 3-axis table drive mechanism
9 3-axis table
91 3-axis table drive mechanism
11 Chuck
12 Support members
20 Optical block
21 Dichroic Prism
211, 212 Dichroic mirror surface
213-215
216 Output surface
22 Projection lens
23 Support
24-26 Liquid crystal light valve
251 Frame member
252 Through hole
253 Notch
27 Support member
28 Fixed plate
281 opening
282 screw holes
29 Fixed plate
291 opening
292 Through hole
293 protrusion
31 screws
32 wedges
33 Adhesive
110 Projection area
111a, 111b corner
111c, 111d corner
112a, 112b edge
112c, 112d edge
113a, 113b side
114a, 114b side
121-124 positions
125a, 125b center
125c, 125d center
126, 127 straight lines
128 specific position
129a, 129b position
300 Projection display
301 light source
302, 303 Integrator lens
304, 306, 309 Mirror
305, 307, 308 Dichroic mirror
310-314 Condensing lens
315 Dichroic Prism
316-318 Liquid crystal light valve
319 Projection lens
320 screens
Steps S101 to S120
Step S201
S300 Coarse adjustment
S30A-S30H treatment
Steps S301 to S329
S350 Fine adjustment
Steps S351 to S359
Steps S401 to S415
S90a-S90d processing
Steps S901 to S910
Steps S921 and S922
Steps S931 and S932
Steps S941 to S948
Claims (7)
四角形の投影領域の角部が、予め設定された目的領域に入っているか否かを検出し、且つ、四角形の投影領域の辺が、予め設定された目的領域内に入っているか否かを検出し、且つ、前記目的領域内の明るさを検出する検出処理により、前記目的領域に対する前記投影領域の位置関係を特定し、この位置関係特定結果に基づき、前記位置関係を是正するように、前記投影領域を変位させる位置調整処理を行うことを特徴とするライトバルブの位置決め方法。A positioning method for positioning the light valve of a projection type apparatus that projects an image formed by a light valve by a projection optical system,
Detects whether the corners of the quadrangular projection area are within the preset target area, and detects whether the sides of the quadrangular projection area are within the preset target area And, by detecting the brightness in the target area, the positional relation of the projection area with respect to the target area is specified, and based on the positional relation specifying result, the positional relation is corrected. A light valve positioning method comprising: performing a position adjustment process for displacing a projection region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31670798A JP3804301B2 (en) | 1998-11-06 | 1998-11-06 | Light valve positioning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31670798A JP3804301B2 (en) | 1998-11-06 | 1998-11-06 | Light valve positioning method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000147694A JP2000147694A (en) | 2000-05-26 |
JP3804301B2 true JP3804301B2 (en) | 2006-08-02 |
Family
ID=18080013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31670798A Expired - Fee Related JP3804301B2 (en) | 1998-11-06 | 1998-11-06 | Light valve positioning method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3804301B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3794251B2 (en) * | 2000-07-17 | 2006-07-05 | セイコーエプソン株式会社 | Position adjusting device and adjusting method for light modulator |
JP6001083B2 (en) * | 2012-10-30 | 2016-10-05 | 日立マクセル株式会社 | Projection-type image display device |
-
1998
- 1998-11-06 JP JP31670798A patent/JP3804301B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000147694A (en) | 2000-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200141721A1 (en) | Apparatus and method for measuring a three dimensional shape | |
JP6701101B2 (en) | Device and method for positioning multi-aperture optics with multiple optical channels relative to an image sensor | |
JP3646716B2 (en) | Position adjustment device for light modulation device and method for position adjustment of light modulation device | |
JP4096437B2 (en) | Light valve positioning method | |
JP4147841B2 (en) | Manufacturing method of optical device, optical device manufactured by this method, and projector provided with this optical device | |
JPH07297119A (en) | Method for position detection | |
JP3804301B2 (en) | Light valve positioning method | |
JP4096436B2 (en) | Light valve positioning method | |
JP3794190B2 (en) | Light valve positioning method | |
JP2006293387A (en) | Positioning apparatus of light valve | |
JP3849325B2 (en) | Light valve positioning method | |
JP2017032650A (en) | Projection type display device and projection type display system | |
JP2003237031A (en) | Alignment device for screen printing | |
JP2000134560A (en) | Method for positioning light valve, display unit and projection type display device | |
CN100419504C (en) | Manufacturing apparatus of optical device, manufacturing method thereof and projector | |
JP4923783B2 (en) | Color filter drawing method | |
KR100496083B1 (en) | Position-control device for light modulation device, position-controlling method for light modulation device, and initial-position controlling jig | |
JPS63289406A (en) | Three-dimensional configuration measuring instrument | |
JP7152925B2 (en) | machine tool with projector | |
JPH1047940A (en) | Measuring plate, and device and method for measuring wheel alignment | |
JPH07295229A (en) | Alignment method of projected image for magnifiedprojection type aligner | |
US8885051B2 (en) | Camera calibration method and camera calibration apparatus | |
JP2001313241A (en) | Aligner and aligning method | |
JP6646964B2 (en) | Projection display device and projection display system | |
JPH03232215A (en) | Method for alignment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051213 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060501 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100519 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110519 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120519 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130519 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140519 Year of fee payment: 8 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |