JP3804301B2 - Light valve positioning method - Google Patents

Light valve positioning method Download PDF

Info

Publication number
JP3804301B2
JP3804301B2 JP31670798A JP31670798A JP3804301B2 JP 3804301 B2 JP3804301 B2 JP 3804301B2 JP 31670798 A JP31670798 A JP 31670798A JP 31670798 A JP31670798 A JP 31670798A JP 3804301 B2 JP3804301 B2 JP 3804301B2
Authority
JP
Japan
Prior art keywords
light valve
axis direction
liquid crystal
crystal light
adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31670798A
Other languages
Japanese (ja)
Other versions
JP2000147694A (en
Inventor
和彦 古屋
広一 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP31670798A priority Critical patent/JP3804301B2/en
Publication of JP2000147694A publication Critical patent/JP2000147694A/en
Application granted granted Critical
Publication of JP3804301B2 publication Critical patent/JP3804301B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Liquid Crystal (AREA)
  • Projection Apparatus (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、投射型表示装置のライトバルブの位置決め方法、表示ユニットおよび投射型表示装置に関するものである。
【0002】
【従来の技術】
液晶ライトバルブ(液晶光シャッター)を用いた投射型表示装置が知られている。
【0003】
図34は、従来の投射型表示装置の光学系を模式的に示す図である。
【0004】
同図に示すように、この投射型表示装置300は、光源301と、インテグレータレンズ302および303で構成された照明光学系と、ミラー304、306、309、赤色光および緑色光を反射する(青色光のみを透過する)ダイクロイックミラー305、緑色光のみを反射するダイクロイックミラー307、赤色光のみを反射するダイクロイックミラー(または赤色光を反射するミラー)308、集光レンズ310、311、312、313および314で構成された色分離光学系(導光光学系)と、青色、緑色および赤色に対応した3つの液晶ライトバルブ316、317および318と、ダイクロイックプリズム(色合成光学系)315と、投射レンズ(投射光学系)319とを有している。
【0005】
光源301から出射された白色光(白色光束)は、インテグレータレンズ302および303を透過する。この白色光の光強度(輝度分布)は、インテグレータレンズ302および303により均一にされる。
【0006】
インテグレータレンズ302および303を透過した白色光は、ミラー304で図34中左側に反射し、その反射光のうちの赤色光(R)および緑色光(G)は、それぞれダイクロイックミラー305で図34中下側に反射し、青色光(B)は、ダイクロイックミラー305を透過する。
【0007】
ダイクロイックミラー305を透過した青色光は、ミラー306で図34中下側に反射し、その反射光は、集光レンズ310により平行光とされ、青色用の液晶ライトバルブ316に入射する。
【0008】
ダイクロイックミラー305で反射した赤色光および緑色光のうちの緑色光は、ダイクロイックミラー307で図34中左側に反射し、赤色光は、ダイクロイックミラー307を透過する。
【0009】
ダイクロイックミラー307で反射した緑色光は、集光レンズ311により平行光とされ、緑色用の液晶ライトバルブ317に入射する。
【0010】
また、ダイクロイックミラー307を透過した赤色光は、ダイクロイックミラー(またはミラー)308で図34中左側に反射し、その反射光は、ミラー309で図34中上側に反射する。前記赤色光は、集光レンズ312、313および314により平行光とされ、赤色用の液晶ライトバルブ318に入射する。
【0011】
このように、光源301から出射された白色光は、色分離光学系により、赤色、緑色および青色の三原色に色分離され、それぞれ、対応する液晶ライトバルブに導かれ、入射する。
【0012】
これらの青色光、緑色光および赤色光は、それぞれ、液晶ライトバルブ316、317および318で変調され、これにより、青色用の画像、緑色用の画像および赤色用の画像がそれぞれ形成される。
【0013】
前記液晶ライトバルブ316、317および318からの各色の光、すなわち液晶ライトバルブ316、317および318により形成された各画像は、ダイクロイックプリズム315により合成され、これによりカラーの画像が形成される。この画像は、投射レンズ319により、所定の位置に設置されているスクリーン320上に投影(拡大投射)される。
【0014】
前述した投射型表示装置300の組み立ての際は、コントラスト(画像の鮮明さ)が高く、色ずれ(画素ずれ)のない画像をスクリーン320上に表示し得るように、3つの液晶ライトバルブ316、317および318の位置決め、すなわち、3つの液晶ライトバルブ316、317および318のフォーカス調整および位置調整が、それぞれ行われる。
【0015】
フォーカス調整では、コントラストの認識しやすい調整用画像を投影して、作業者が、肉眼でコントラストを確認しつつ、調整器具を用いて、コントラストが最も高くなるように液晶ライトバルブを変位させ、固定するという方法が採られている。
【0016】
また、位置調整では、色ずれの認識しやすい調整用画像を投影して、作業者が、肉眼で画素のずれを確認しつつ、調整器具を用いて、色ずれが最も少なくなるように液晶ライトバルブを変位させ、固定するという方法が採られている。
【0017】
しかしながら、従来は、液晶ライトバルブの位置決めを手作業で行うので、非常に手間がかかり、また、熟練者が行っても作業に長時間かかっていた。
【0018】
また、コントラストや色ずれを肉眼で観察するので、位置決めの精度が悪いという欠点がある。
【0019】
また、画像が投影されるスクリーンと、位置決めされる液晶ライトバルブの位置とが離れているので、1人で位置決めを行う場合には、スクリーンと液晶ライトバルブとの間を何度も行き来する必要があり、作業に非常に時間がかかる。
【0020】
また、2人で位置決めを行う場合には、一方の作業者がスクリーンの近傍に位置し、投影された画像を観察し、その情報を他方の作業者に伝え、その情報を受けた作業者が液晶ライトバルブを変位させるので、作業人員が増えるばかりでなく、作業者間で情報が正確に伝わらないことがあり、確実性に欠ける。
【0021】
【発明が解決しようとする課題】
本発明の目的は、投射型表示装置のライトバルブの位置決めを容易、迅速、確実かつ精度良く行うことができるライトバルブの位置決め方法と、該位置決め方法により位置決めされたライトバルブを有する表示ユニットおよび投射型表示装置とを提供することにある。
【0022】
【課題を解決するための手段】
このような目的は、下記(1)〜(32)の本発明により達成される。
【0023】
(1) ライトバルブにより形成された画像を投射光学系により投影する投射型表示装置の前記ライトバルブの位置決めを行う位置決め方法であって、
四角形の投影領域の所定の角部があらかじめ設定された目的領域内に入っているか否かを検出する検出処理と、
前記角部が前記目的領域内に入っていない場合には、前記投影領域を変位させて、前記角部を前記目的領域内に導入する導入処理とを含むことを特徴とするライトバルブの位置決め方法。
【0024】
(2) 前記検出処理では、あらかじめ設定された前記角部に対応するパターンとの一致を検索するパターンマッチング法により、前記角部が前記目的領域内に入っているか否かを検出する上記(1)に記載のライトバルブの位置決め方法。
【0025】
(3) 前記導入処理において、前記投影領域と前記目的領域との相対的な位置関係を特定する位置関係特定処理を行う上記(1)または(2)に記載のライトバルブの位置決め方法。
【0026】
(4) 前記位置関係特定処理において、前記投影領域の辺が、前記目的領域内に入っているか否かを検出する処理を行う上記(3)に記載のライトバルブの位置決め方法。
【0027】
(5) 前記辺の検出は、あらかじめ設定された前記辺に対応するパターンとの一致を検索するパターンマッチング法により行う上記(4)に記載のライトバルブの位置決め方法。
【0028】
(6) 前記位置関係特定処理において、前記目的領域が前記投影領域内に包含されているか否かを検出する上記(3)に記載のライトバルブの位置決め方法。
【0029】
(7) 前記目的領域が前記投影領域内に包含されているか否かの検出は、前記目的領域内の明るさを検出することにより行う上記(6)に記載のライトバルブの位置決め方法。
【0030】
(8) 前記導入処理において、前記位置関係特定処理の特定結果に基づき、前記目的領域に対する前記投影領域の位置関係を是正するように前記投影領域を変位させる上記(3)ないし(7)のいずれかに記載のライトバルブの位置決め方法。
【0031】
(9) 前記導入処理において、前記投影領域の辺を、該辺に対応するあらかじめ設定された目的線に対してほぼ平行にする処理を行う上記(1)ないし(8)のいずれかに記載のライトバルブの位置決め方法。
【0032】
(10) 前記検出処理を、少なくとも2箇所の角部で行う上記(1)ないし(9)のいずれかに記載のライトバルブの位置決め方法。
【0033】
(11) さらに、前記角部を、前記目的領域内のあらかじめ設定された目的位置に合致するように移動させる位置調整処理を行う上記(1)ないし(10)のいずれかに記載のライトバルブの位置決め方法。
【0034】
(12) 前記位置調整処理において、少なくとも2つの角部の位置を計測する角部位置計測処理を行う上記(11)に記載のライトバルブの位置決め方法。
【0035】
(13) 前記位置調整処理において、前記投影領域の中心を求め、該中心をあらかじめ設定された位置に近づける処理を行う上記(11)または(12)に記載のライトバルブの位置決め方法。
【0036】
(14) 前記位置調整処理において、前記角部のうち、あらかじめ設定された目的位置から最も離れているところに位置する角部を、前記目的位置に近づける処理を行う上記(11)ないし(13)のいずれかに記載のライトバルブの位置決め方法。
【0037】
(15) 前記目的領域は、電子画像として撮像される領域である上記(1)ないし(14)のいずれかに記載のライトバルブの位置決め方法。
【0038】
(16) 前記目的領域は、電子画像として撮像される領域であり、
前記位置調整処理において、前記角部と前記目的位置との合致は、前記角部中の特定の位置である特定位置と前記目的位置との合致である上記(11)に記載のライトバルブの位置決め方法。
【0039】
(17) 前記位置調整処理は、前記電子画像中の前記角部のうちの少なくとも一部を含む所定領域の輝度を画素単位で求め、互いに直交するX軸方向およびY軸方向の各々の方向に積算し、前記電子画像に対してX−Y座標を想定したときの前記X軸方向の輝度の積算値のY軸方向における変化を示す第1の波形と、前記Y軸方向の輝度の積算値のX軸方向における変化を示す第2の波形とに基づいて前記特定位置を検出することにより行う上記(16)に記載のライトバルブの位置決め方法。
【0040】
(18) 前記第1の波形のピークまたはボトムのY軸方向の位置を前記特定位置のY座標とし、前記第2の波形のピークまたはボトムのX軸方向の位置を前記特定位置のX座標とする上記(17)に記載のライトバルブの位置決め方法。
【0041】
(19) 前記撮像された投影領域の端部側から、前記第1の波形のピークおよびボトムのNy 番目のY軸方向の位置を前記特定位置のY座標とし、前記撮像された投影領域の端部側から、前記第2の波形のピークおよびボトムのNx 番目のX軸方向の位置を前記特定位置のX座標とする上記(17)に記載のライトバルブの位置決め方法。
【0042】
(20) 前記Ny および前記Nx は、それぞれ、偶数である上記(19)に記載のライトバルブの位置決め方法。
【0043】
(21) 前記Ny および前記Nx は、それぞれ、2以上である上記(19)または(20)に記載のライトバルブの位置決め方法。
【0044】
(22) 前記Ny と前記Nx とが等しい上記(19)ないし(21)のいずれかに記載のライトバルブの位置決め方法。
【0045】
(23) 前記位置調整処理における前記ライトバルブの変位は、X軸方向の移動と、Y軸方向の移動と、X軸およびY軸のそれぞれに直交するZ軸の回りの回転である上記(17)ないし(22)のいずれかに記載のライトバルブの位置決め方法。
【0046】
(24) 前記ライトバルブは、液晶ライトバルブである上記(1)ないし(23)のいずれかに記載のライトバルブの位置決め方法。
【0047】
(25) 前記投射型表示装置は、赤色、緑色および青色に対応した3つのライトバルブを有している上記(1)ないし(24)のいずれかに記載のライトバルブの位置決め方法。
【0048】
(26) 前記3つのライトバルブのそれぞれについて、前記位置決めを行う上記(25)に記載のライトバルブの位置決め方法。
【0049】
(27) 前記3つのライトバルブにより形成された各画像が重なるように前記位置決めを行う上記(25)または(26)に記載のライトバルブの位置決め方法。
【0050】
(28) 前記緑色に対応したライトバルブについて前記位置決めを行い、
そのライトバルブにより形成された画像に、前記赤色に対応したライトバルブにより形成された画像と、前記青色に対応したライトバルブにより形成された画像とが重なるように、前記赤色に対応したライトバルブおよび前記青色に対応したライトバルブのそれぞれについて前記位置決めを行う上記(25)ないし(27)のいずれかに記載のライトバルブの位置決め方法。
【0051】
(29) 前記位置決めに先立って、前記ライトバルブのフォーカス調整を行う上記(1)ないし(28)のいずれかに記載のライトバルブの位置決め方法。
【0052】
(30) 前記ライトバルブのフォーカス調整では、投影領域のうちの所定領域を撮像して電子画像を得、前記電子画像の輝度を集計して輝度の分散を求め、その分散が最も大きくなるように前記ライトバルブを変位させる上記(29)に記載のライトバルブの位置決め方法。
【0053】
(31) 上記(1)ないし(30)のいずれかに記載のライトバルブの位置決め方法により位置決めされ、画像を形成する赤色、緑色および青色に対応した3つのライトバルブと、前記各画像を合成する色合成光学系とを有することを特徴とする表示ユニット。
【0054】
(32) 上記(1)ないし(30)のいずれかに記載のライトバルブの位置決め方法により位置決めされ、画像を形成する赤色、緑色および青色に対応した3つのライトバルブと、光源と、該光源からの光を赤色、緑色および青色の光に分離し、前記各光を対応する前記ライトバルブに導く色分離光学系と、前記各画像を合成する色合成光学系と、前記合成された画像を投影する投射光学系とを有することを特徴とする投射型表示装置。
【0055】
【発明の実施の形態】
以下、本発明のライトバルブの位置決め方法、表示ユニットおよび投射型表示装置を添付図面に示す好適実施例に基づいて詳細に説明する。
【0056】
図1は、本発明のライトバルブの位置決め方法に用いる位置決め装置の構成例を模式的に示す側面図、図2は、図1に示す位置決め装置の回路構成を示すブロック図である。
【0057】
これらの図に示す位置決め装置1は、投射型表示装置(例えば、液晶プロジェクター)のライトバルブ(光シャッターアレイ)の位置決め、すなわち、赤色、緑色および青色に対応した3つのライトバルブのフォーカス調整(コントラスト調整)および位置調整(アライメント調整)をそれぞれ自動的に行う装置である。
【0058】
まず、投射型表示装置を説明する。
【0059】
図3は、投射型表示装置の光学ヘッド部(各液晶ライトバルブおよび光学系の一部)を示す平面図、図4は、ダイクロイックプリズムと、緑色に対応した液晶ライトバルブと、支持部材とを示す分解斜視図である。
【0060】
図1および図3に示すように、投射型表示装置は、図示しない光源と、図示しない複数のダイクロイックミラーを備えた色分離光学系(導光光学系)と、赤色に対応した(赤色用の)液晶ライトバルブ(液晶光シャッターアレイ)24と、緑色に対応した(緑色用の)液晶ライトバルブ(液晶光シャッターアレイ)25と、青色に対応した(青色用の)液晶ライトバルブ(液晶光シャッターアレイ)26と、赤色光のみを反射するダイクロイックミラー面211および青色光のみを反射するダイクロイックミラー面212が形成されたダイクロイックプリズム(色合成光学系)21と、投射レンズ(投射光学系)22と、L字状の支持体23とを有している。
【0061】
ダイクロイックプリズム21および投射レンズ22は、それぞれ、支持体23に固定的に設置されている。
【0062】
また、3つの液晶ライトバルブ24、25および26は、それぞれ、支持部材27を介して、ダイクロイックプリズム21の図3中上側の面213、図3中右側の面214および図3中下側の面215に設置されている。
【0063】
前記各支持部材27の構造は、同様であるので、代表的に、緑色用の液晶ライトバルブ25を支持(固定)している支持部材27を説明する。
【0064】
図4に示すように、支持部材27は、ダイクロイックプリズム21側に位置する固定板28と、液晶ライトバルブ25側に位置する固定板29と、これらの固定板28、29を固定する4つのネジ31とで構成されている。
【0065】
固定板28の中央部には、光通過用の矩形の開口281が形成されている。そして、固定板28の4隅には、前記ネジ31と螺合するネジ孔282が形成されている。
【0066】
また、固定板29の中央部には、光通過用の矩形の開口291が形成されている。そして、固定板29の4隅の前記ネジ孔282に対応する位置には、前記ネジ31の頭部より小径で、そのネジ31が挿入される貫通孔292が形成されている。さらに、固定板29の開口291の各角部の近傍には、ダイクロイックプリズム21の反対側に突出する突起293が立設されている。
【0067】
固定板28と固定板29とは、4つのネジ31で固定された状態で、接着剤33により、プリズム21の面214に接着されている。
【0068】
液晶ライトバルブ25の枠部材251の4隅の前記突起293に対応する位置には、前記突起293が挿入される貫通孔252が形成されている。この貫通孔252の内径は、後述する位置決めの際、液晶ライトバルブ25を変位し得るように設定されている。
【0069】
そして、枠部材251の図4中左側および右側の端面には、それぞれ、後述する楔32を差し込むための切り欠き部253が設けられている。
【0070】
この液晶ライトバルブ25は、固定板29の各突起293が対応する貫通孔252に挿入された状態で、後述する位置決め装置1により位置決めされる。
【0071】
位置決めが終了すると、予め枠部材251の各貫通孔252に注入されている接着剤を硬化させることにより、液晶ライトバルブ25が仮固定される。この仮固定用の接着剤としては、例えば、紫外線硬化型接着剤等を用いることができる。
【0072】
この仮固定の後、支持部材27の固定板29と液晶ライトバルブ25の枠部材251との間に、切り欠き部253から2つの楔32が差し込まれる。そして、これらの楔32を介し、支持部材27と液晶ライトバルブ25とが接着剤で固定(本固定)される。この固定用の接着剤としては、例えば、紫外線硬化型接着剤等を用いることができる。
【0073】
赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26についても前述した緑色用の液晶ライトバルブ25と同様に、それぞれ、後述する位置決め装置1により位置決めされ、仮固定された後、固定される。
【0074】
なお、各液晶ライトバルブ24、25および26の位置決めは、それぞれ、3つの支持部材27が設置されたダイクロイックプリズム21、投射レンズ22および支持体23で構成される図1に示す光学ブロック20を所定の姿勢で所定の位置に設置(セット)して行う。
【0075】
この光学ブロック20と、ダイクロイックプリズム21に対して固定的に設置された液晶ライトバルブ24、25および26とで、投射型表示装置の表示ユニットが構成される。
【0076】
次に、前記投射型表示装置の作用を説明する。
【0077】
光源から出射された白色光(白色光束)は、色分離光学系により、赤色、緑色および青色の三原色に色分離され、図3に示すように、赤色光、緑色光および青色光は、それぞれ、赤色用の液晶ライトバルブ24、緑色用の液晶ライトバルブ25および青色用の液晶ライトバルブ26に導かれる。
【0078】
赤色光は、液晶ライトバルブ24に入射し、液晶ライトバルブ24で変調され、これにより赤色用の画像が形成される。この際、液晶ライトバルブ24の各画素は、赤色用の画像信号に基づいて作動する図示しない駆動回路(駆動手段)により、スイッチング制御(オン/オフ)される。
【0079】
同様に、緑色光および青色光は、それぞれ、液晶ライトバルブ25および26に入射し、液晶ライトバルブ25および26で変調され、これにより緑色用の画像および青色用の画像が形成される。この際、液晶ライトバルブ25の各画素は、緑色用の画像信号に基づいて作動する図示しない駆動回路により、スイッチング制御され、液晶ライトバルブ26の各画素は、青色用の画像信号に基づいて作動する図示しない駆動回路により、スイッチング制御される。
【0080】
図3に示すように、前記液晶ライトバルブ24により形成された赤色用の画像、すなわち液晶ライトバルブ24からの赤色光は、面213からダイクロイックプリズム21に入射し、ダイクロイックミラー面211で図3中左側に反射し、ダイクロイックミラー面212を透過して、出射面216から出射する。
【0081】
また、前記液晶ライトバルブ25により形成された緑色用の画像、すなわち液晶ライトバルブ25からの緑色光は、面214からダイクロイックプリズム21に入射し、ダイクロイックミラー面211および212をそれぞれ透過して、出射面216から出射する。
【0082】
また、前記液晶ライトバルブ26により形成された青色用の画像、すなわち液晶ライトバルブ26からの青色光は、面215からダイクロイックプリズム21に入射し、ダイクロイックミラー面212で図3中左側に反射し、ダイクロイックミラー面211を透過して、出射面216から出射する。
【0083】
このように、前記液晶ライトバルブ24、25および26からの各色の光、すなわち液晶ライトバルブ24、25および26により形成された各画像は、ダイクロイックプリズム21により合成され、これによりカラーの画像が形成される。この画像は、投射レンズ22により、所定の位置に設置されている図示しないスクリーン上に投影(拡大投射)される。
【0084】
次に、本発明のライトバルブの位置決め方法に用いる位置決め装置1を説明する。なお、位置決め装置1の構造の説明においては、代表的に、緑色用の液晶ライトバルブ25を用いて説明する。
【0085】
図1および図2に示すように、位置決め装置1は、液晶ライトバルブ24、25、26を挟持するチャック11と、チャック11を支持する支持部材12と、フォーカス調整用の3軸テーブル(変位手段)8と、位置調整用(アライメント調整用)の3軸テーブル(変位手段)9と、電子画像(画像データ)を形成し得るフォーカス調整用の4台のカメラ(ビデオカメラ)51、52、53および54と、電子画像(画像データ)を形成し得る位置調整用の4台のカメラ(ビデオカメラ)61、62、63および64と、4台の照明装置71、72、73および74とを有している。
【0086】
図1に示すように、3軸テーブル8に3軸テーブル9が支持され、この3軸テーブル9に支持部材12が支持され、この支持部材12の先端部にチャック11が設置されている。
【0087】
図5は、位置決め装置1のチャック11で挟持された液晶ライトバルブ25を模式的に示す図である。
【0088】
同図に示すように、互いに直交するX軸、Y軸およびZ軸(X−Y−Z座標)を想定する。
【0089】
フォーカス調整用の3軸テーブル8は、Z軸方向に移動し、H方向(Y軸の回り)に両方向に回転し、かつ、V方向(X軸の回り)に両方向に回転し得るように構成されている。
【0090】
3軸テーブル8がZ軸方向に移動すると、液晶ライトバルブ25は3軸テーブル8とともにZ軸方向に移動する。また、3軸テーブル8がH方向に回転すると、液晶ライトバルブ25は3軸テーブル8とともにH方向に回転する。また、3軸テーブル8がV方向に回転すると、液晶ライトバルブ25は3軸テーブル8とともにV方向に回転する。
【0091】
この3軸テーブル8の変位、すなわち、Z軸方向の移動と、H方向およびV方向の回転は、それぞれ、後述する3軸テーブル駆動機構81を介し、制御手段3により制御される。
【0092】
また、位置調整用の3軸テーブル9は、X軸方向およびY軸方向に移動し、かつ、W方向(Z軸の回り)に両方向に回転し得るように構成されている。
【0093】
3軸テーブル9がX軸方向に移動すると、液晶ライトバルブ25は3軸テーブル9とともにX軸方向に移動する。また、3軸テーブル9がY軸方向に移動すると、液晶ライトバルブ25は3軸テーブル9とともにY軸方向に移動する。また、3軸テーブル9がW方向に回転すると、液晶ライトバルブ25は3軸テーブル8とともにW方向に回転する。
【0094】
この3軸テーブル9の変位、すなわち、X軸方向およびY軸方向の移動と、W方向の回転は、それぞれ、後述する3軸テーブル駆動機構91を介し、制御手段3により制御される。
【0095】
また、図1に示すように、4台の照明装置71、72、73および74は、それぞれ、チャック11で挟持された液晶ライトバルブ25の背面側(図1中右側)に位置するように設置されている。各照明装置71〜74の照明範囲は、それぞれ、少なくともカメラ51〜54およびカメラ61〜64の後述する撮像領域をカバーし得るように設定されている。
【0096】
また、位置決め装置1に設置された光学ブロック20から所定距離離間した位置には、スクリーン2が設置されている。
【0097】
そして、カメラ51〜54およびカメラ61〜64は、それぞれ、スクリーン2の表面側(図1中右側)に設置されている。
【0098】
図6は、液晶ライトバルブ25によるスクリーン2上の投影領域と、カメラ51〜54および61〜64の撮像領域とを模式的に示す図である。
【0099】
同図に示すように、投影領域(投影された画像の範囲)110は、液晶ライトバルブ24〜26の有効画面領域と対応する形状であり、ほぼ長方形(四角形)をなしている。
【0100】
同図に示すように、カメラ51、52、53および54は、それぞれ、液晶ライトバルブ25によるスクリーン2上の投影領域110の4隅であって、かつ、投影領域110の内側を撮像し得るように、すなわち、カメラ51の撮像領域(撮像された画像の範囲)511、カメラ52の撮像領域521、カメラ53の撮像領域531およびカメラ54の撮像領域541が、それぞれ、図6に示すようになるように配置されている。
【0101】
本実施例では、フォーカス調整において、図6中左上を撮像するカメラ51を「カメラNo.1」、図6中右上を撮像するカメラ52を「カメラNo.2」、図6中左下を撮像するカメラ53を「カメラNo.3」、図6中右下を撮像するカメラ54を「カメラNo.4」とする。
【0102】
また、カメラ61、62、63および64は、それぞれ、液晶ライトバルブ25によるスクリーン2上の投影領域110の4隅であって、かつ、投影領域110の角部111a、角部111b、角部111cおよび角部111dを撮像し得るように、すなわち、カメラ61の撮像領域611、カメラ62の撮像領域621、カメラ63の撮像領域631およびカメラ64の撮像領域641が、それぞれ、図6に示すようになるように配置されている。
【0103】
これら撮像領域611、621、631および641は、ほぼ長方形である。
【0104】
本実施例では、位置調整(アライメント調整)において、図6中左上を撮像するカメラ61を「カメラNo.1」、図6中右上を撮像するカメラ62を「カメラNo.2」、図6中左下を撮像するカメラ63を「カメラNo.3」、図6中右下を撮像するカメラ64を「カメラNo.4」とする。
【0105】
また、図2に示すように、位置決め装置1は、制御手段3、メモリー4、3軸テーブル駆動機構81および91を有している。
【0106】
制御手段3は、通常、マイクロコンピュータ(CPU)で構成され、メモリー4と、カメラ51、52、53、54、61、62、63および64と、照明装置71、72、73および74と、3軸テーブル駆動機構81および91等、位置決め装置1全体の制御を行う。なお、この制御手段3は、必要に応じて、液晶ライトバルブ24、25および26の駆動回路の制御も行う。
【0107】
次に、本発明のライトバルブの位置決め方法(位置決め装置1の作用)を説明する。
【0108】
光学ブロック20を位置決め装置1の所定の位置に設置し、位置決め装置1を作動させると、位置決め装置1により、自動的に、各液晶ライトバルブ24、25および26の位置決めが行われ、それらが光学ブロック20に仮固定される。
【0109】
本実施例では、各液晶ライトバルブ24、25および26の位置決めを行う場合、初めに、緑色用の液晶ライトバルブ25の位置決めを行い、この後、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めをそれぞれ行う。
【0110】
すなわち、初めに、液晶ライトバルブ25を予め設定された位置に位置決めし、この後、液晶ライトバルブ25の位置を検出し、この検出された位置に相当する位置に液晶ライトバルブ24および26をそれぞれ位置決めする。
【0111】
また、各液晶ライトバルブ24、25および26の位置決めの際は、それぞれ初めに、フォーカス調整(コントラスト調整)を行い、次いで、位置調整(アライメント調整)を行う。
【0112】
フォーカス調整では、まず、粗調整(第1のフォーカス調整)により、粗く調整し、次いで、微調整(第2のフォーカス調整)により密に調整する。以下、代表的に緑色用の液晶ライトバルブ25のフォーカス調整を説明する。
【0113】
図7は、フォーカス調整における位置決め装置1の制御手段3の制御動作を示すフローチャートである。以下、このフローチャートに基づいて説明する。
【0114】
フォーカス調整では、まず、4台の照明装置71〜74を点灯させる(ステップS101)。なお、液晶ライトバルブ25は、駆動させない。
【0115】
このステップS101により、図1に示すように、照明装置71〜74から出射し、液晶ライトバルブ25の各画素を透過した光がスクリーン2上に投影される。
【0116】
次いで、3軸テーブル8により、液晶ライトバルブ25をZ軸に沿ってZ軸方向基準位置(粗調整における画像データ取得開始位置)へ移動させる(ステップS102)。
【0117】
前記Z軸方向基準位置は、フォーカスが合うと予想される位置から、ダイクロイックプリズム21に接近する方向に所定量(所定距離)離間した位置、または、ダイクロイックプリズム21から離間する方向に所定量離間した位置に予め設定されている。
【0118】
次いで、カメラNo.1(カメラ51)で撮像し、撮像領域511の輝度に関する画像データ(以下、単に「画像データ」と言う)を求め、これをメモリー4に記憶する(ステップS103)。
【0119】
次いで、カメラNo.2(カメラ52)で撮像し、撮像領域521の画像データをメモリー4に記憶する(ステップS104)。
【0120】
次いで、カメラNo.3(カメラ53)で撮像し、撮像領域531の画像データをメモリー4に記憶する(ステップS105)。
【0121】
次いで、カメラNo.4(カメラ54)で撮像し、撮像領域541の画像データをメモリー4に記憶する(ステップS106)。
【0122】
次いで、図8に示すように、3軸テーブル8により、液晶ライトバルブ25をZ軸方向に一定量(一定距離)(例えば、50μm )移動させる(ステップS107)。
【0123】
前記Z軸方向基準位置がフォーカスが合うと予想される位置よりダイクロイックプリズム21に近い側の所定位置に設定されている場合には、ステップS107では、液晶ライトバルブ25をダイクロイックプリズム21から離間する方向(図8中右側)に移動させる。
【0124】
また、前記Z軸方向基準位置がフォーカスが合うと予想される位置よりダイクロイックプリズム21に遠い側の所定位置に設定されている場合には、ステップS107では、液晶ライトバルブ25をダイクロイックプリズム21に接近する方向(図8中左側)に移動させる。
【0125】
また、ステップS107は、粗調整における画像データ取得のための液晶ライトバルブ25の移動制御であるので、その移動量(移動距離)は、後述するステップ117の微調整における画像データ取得のための液晶ライトバルブ25の移動制御での液晶ライトバルブ25の移動量より大きく設定されている。
【0126】
前記ステップS107での液晶ライトバルブ25の移動量をL1、後述するステップS117での液晶ライトバルブ25の移動量をL2としたとき、これらの比L1/L2は、2〜10程度が好ましく、3〜7程度がより好ましい。
【0127】
また、ステップS107での液晶ライトバルブ25の移動量L1は、20〜240μm 程度が好ましく、30〜100μm 程度がより好ましい。
【0128】
また、後述するステップS117での液晶ライトバルブ25の移動量L2は、3〜30μm 程度が好ましく、5〜20μm 程度がより好ましい。
【0129】
次いで、液晶ライトバルブ25のZ軸方向基準位置からの移動量(Z軸方向基準位置と液晶ライトバルブ25の現在の位置との間の距離)が、粗調整におけるZ軸方向設定移動量に達したか否かを判断する(ステップS108)。
【0130】
前記Z軸方向設定移動量は、前記Z軸方向基準位置とフォーカスが合うと予想される位置との間の距離より大きく設定されている。
【0131】
前記ステップS108において、液晶ライトバルブ25のZ軸方向基準位置からの移動量がZ軸方向設定移動量に達していないと判断した場合には、ステップS103に戻り、再度、ステップS103〜ステップS108を実行する。
【0132】
また、前記ステップS108において、液晶ライトバルブ25のZ軸方向基準位置からの移動量がZ軸方向設定移動量に達したと判断した場合には、粗調整におけるフォーカス計算を行う(ステップS109)。
【0133】
図9は、スクリーン2上に投影された画像と、その画像を撮像したときの輝度のヒストグラムとを示す図である。
【0134】
同図に示すように、フォーカスが合った状態(合焦状態)では、スクリーン2上に投影された画像は、コントラストが高い(画像が鮮明である)。この画像を撮像したときの輝度と、その輝度の画素数(カメラ上の画素数)との関係を表わすグラフ(輝度のヒストグラム)は、図9に示す通りであり、輝度のバラツキ、すなわち、輝度の分散(σ2)が大きい。
【0135】
そして、フォーカスがずれるほど、コントラストが低下し(画像が不鮮明になり)、輝度のバラツキ、すなわち、輝度の分散(σ2)が小さくなる。
【0136】
前記ステップS109では、カメラNo.1で撮像したすべての画像(電子画像)について、画像毎に、メモリー4から画像データを読み出して、輝度を集計し、輝度の分散を求め、その分散が最も大きい画像、すなわち、図9中最も上側の状態(合焦状態)またはそれに最も近い状態の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置を求める。得られた前記位置に液晶ライトバルブ25が位置しているときにカメラNo.1で撮像した画像を粗調整における目標画像No.1とする。
【0137】
同様に、カメラNo.2、カメラNo.3およびカメラNo.4で撮像した画像について、それぞれ、輝度の分散が最も大きい画像、すなわち、図9中最も上側の状態またはそれに最も近い状態の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置を求める。得られた前記位置に液晶ライトバルブ25が位置しているときにカメラNo.2、カメラNo.3およびカメラNo.4で撮像した画像をそれぞれ粗調整における目標画像No.2、目標画像No.3および目標画像No.4とする。
【0138】
そして、得られた前記4つの位置から、粗調整における液晶ライトバルブ25の目標の状態(姿勢およびZ軸方向の位置)からの液晶ライトバルブのH方向(Y軸回り)の角度、V方向(X軸の回り)の角度およびZ軸方向の位置のずれ量をそれぞれ求める。
【0139】
前記目標の状態とは、得られた前記4つの位置に液晶ライトバルブ25が位置しているときの対応する画像、すなわち、前記目標画像No.1、目標画像No.2、目標画像No.3および目標画像No.4が、同時に得られる状態のことである。
【0140】
次いで、得られた前記Z軸方向の位置、H方向の角度およびV方向の角度のずれ量がそれぞれ0になるように、3軸テーブル8を変位させる(ステップS110)。
【0141】
すなわち、このステップS110では、3軸テーブル8により、前記目標の状態が得られるように、液晶ライトバルブ25をZ軸方向に移動させ、また、H方向、V方向に回転させる。これにより粗く4隅のフォーカスが合う。
【0142】
なお、前記ステップS110では、必要に応じて、液晶ライトバルブ25をX軸方向、Y軸方向に所定量移動させる。
【0143】
このステップS110で粗調整が終了する。
【0144】
次いで、微調整における画像データ取得のための液晶ライトバルブ25のZ軸方向移動範囲を設定する(ステップS111)。
【0145】
このステップS111では、粗調整終了時の液晶ライトバルブ25の位置(現在の位置)から、ダイクロイックプリズム21に接近する方向に所定量離間した位置と、前記粗調整終了時の位置から、ダイクロイックプリズム21から離間する方向に所定量離間した位置とのうちの一方を後述するステップS112のZ軸方向設定位置(微調整における画像データ取得開始位置)として設定する。
【0146】
そして、前記ダイクロイックプリズム21に接近する方向に所定量離間した位置と、前記ダイクロイックプリズム21から離間する方向に所定量離間した位置との間の距離を後述するステップS118の微調整におけるZ軸方向設定移動量として設定する。
【0147】
すなわち、微調整における画像データ取得のための液晶ライトバルブ25のZ軸方向移動範囲は、前記ダイクロイックプリズム21に接近する方向に所定量離間した位置と、前記ダイクロイックプリズム21から離間する方向に所定量離間した位置とのうちの一方から他方までの範囲に設定される。
【0148】
次いで、3軸テーブル8により、液晶ライトバルブ25をZ軸に沿って前記Z軸方向設定位置(微調整における画像データ取得開始位置)へ移動させる(ステップS112)。
【0149】
次いで、カメラNo.1で撮像し、撮像領域511の画像データをメモリー4に記憶する(ステップS113)。
【0150】
次いで、カメラNo.2で撮像し、撮像領域521の画像データをメモリー4に記憶する(ステップS114)。
【0151】
次いで、カメラNo.3で撮像し、撮像領域531の画像データをメモリー4に記憶する(ステップS115)。
【0152】
次いで、カメラNo.4で撮像し、撮像領域541の画像データをメモリー4に記憶する(ステップS116)。
【0153】
次いで、図8に示すように、3軸テーブル8により、液晶ライトバルブ25をZ軸方向に一定量(例えば、10μm )移動させる(ステップS117)。
【0154】
前記Z軸方向設定位置が粗調整終了時の液晶ライトバルブ25の位置よりダイクロイックプリズム21に近い側の所定位置に設定されている場合には、ステップS117では、液晶ライトバルブ25をダイクロイックプリズム21から離間する方向(図8中右側)に移動させる。
【0155】
また、前記Z軸方向設定位置が粗調整終了時の液晶ライトバルブ25の位置よりダイクロイックプリズム21に遠い側の所定位置に設定されている場合には、ステップS117では、液晶ライトバルブ25をダイクロイックプリズム21に接近する方向(図8中左側)に移動させる。
【0156】
次いで、液晶ライトバルブ25のZ軸方向設定位置からの移動量(Z軸方向設定位置と液晶ライトバルブ25の現在の位置との間の距離)が、微調整における前記Z軸方向設定移動量に達したか否かを判断する(ステップS118)。
【0157】
前記ステップS118において、液晶ライトバルブ25のZ軸方向設定位置からの移動量がZ軸方向設定移動量に達していないと判断した場合には、ステップS113に戻り、再度、ステップS113〜ステップS118を実行する。
【0158】
また、前記ステップS118において、液晶ライトバルブ25のZ軸方向設定位置からの移動量がZ軸方向設定移動量に達したと判断した場合には、微調整におけるフォーカス計算を行う(ステップS119)。
【0159】
このステップS119では、カメラNo.1で撮像したすべての画像について、画像毎に、メモリー4から画像データを読み出して、輝度を集計し、輝度の分散を求め、その分散が最も大きい画像、すなわち、図9中最も上側の状態またはそれに最も近い状態の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置を求める。得られた前記位置に液晶ライトバルブ25が位置しているときにカメラNo.1で撮像した画像を微調整における目標画像No.1とする。
【0160】
同様に、カメラNo.2、カメラNo.3およびカメラNo.4で撮像した画像について、それぞれ、輝度の分散が最も大きい画像、すなわち、図9中最も上側の状態またはそれに最も近い状態の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置を求める。得られた前記位置に液晶ライトバルブ25が位置しているときにカメラNo.2、カメラNo.3およびカメラNo.4で撮像した画像をそれぞれ微調整における目標画像No.2、目標画像No.3および目標画像No.4とする。
【0161】
そして、得られた前記4つの位置から、微調整における液晶ライトバルブ25の目標の状態(姿勢およびZ軸方向の位置)からの液晶ライトバルブ25のH方向の角度、V方向の角度およびZ軸方向の位置のずれ量をそれぞれ求める。
【0162】
前記目標の状態とは、得られた前記4つの位置に液晶ライトバルブ25が位置しているときの対応する画像、すなわち、前記目標画像No.1、目標画像No.2、目標画像No.3および目標画像No.4が、同時に得られる状態のことである。
【0163】
前述したように、このステップS117の微調整における移動量L2は、前記ステップS107の微調整における移動量L1より小さく設定されているので、微調整では、細かい間隔で撮像され、これにより、前記目標画像No.1〜No.4は、それぞれ、前記粗調整における目標画像No.1〜No.4に比べ、図9中最も上側の状態またはそれにより近い状態の画像となる。
【0164】
次いで、得られた前記Z軸方向の位置、H方向の角度およびV方向の角度のずれ量がそれぞれ0になるように、3軸テーブル8を変位させる(ステップS120)。
【0165】
すなわち、このステップS120では、3軸テーブル8により、前記目標の状態が得られるように、液晶ライトバルブ25をZ軸方向に移動させ、また、H方向、V方向に回転させる。これにより4隅のフォーカスが合う。
【0166】
なお、前記ステップS120では、必要に応じて、液晶ライトバルブ25をX軸方向、Y軸方向に所定量移動させる。
【0167】
このステップS120で微調整が終了、すなわち、フォーカス調整が終了する。
【0168】
フォーカス調整終了後、フォーカス調整用のカメラ51〜54から位置調整用のカメラ61〜64へ切り替え(ステップS201)、この後、位置調整(アライメント調整)へ移行する。以下、代表的に緑色用の液晶ライトバルブ25の位置調整(アライメント調整)を説明する。
【0169】
図10、13〜18は、位置調整(アライメント調整)における位置決め装置1の制御手段3の制御動作を示すフローチャートである。以下、このフローチャートに基づいて説明する。
【0170】
以下のアライメント調整の説明において、投影領域110を移動させるとは、3軸テーブル9で液晶ライトバルブ25をX軸方向およびY軸方向に移動させることにより、投影領域110を移動させることを意味する。また、投影領域110を回転させるとは、3軸テーブル9で液晶ライトバルブ25をW方向(Z軸の回り)に回転させることにより、投影領域110を回転させることを意味する。
【0171】
また、以下のアライメント調整の説明において、図19〜25中左右方向は、液晶ライトバルブ25のX軸方向に対応し、図19〜25中上下方向は、液晶ライトバルブ25のY軸方向に対応している。
【0172】
以下の位置調整を行う前に、あらかじめ、メモリー4に、図11に示すような、投影領域110の各角部111a、111b、111cおよび111dを含む部分に対応した4つのパターンA1、B1、C1およびD1の画像データ(輝度データ)を記憶しておく。さらに、あらかじめ、図12に示すような、投影領域110の図6中左側のY軸方向の辺113aを含む部分に対応したパターンH1、および、投影領域110の図6中下側のX軸方向の辺114aを含む部分に対応したパターンV1の画像データを記憶しておく。
【0173】
各パターンA1、B1、C1およびD1中には、それぞれ、位置121、122、123および124があらかじめ設定されている。これら位置121、122、123および124は、それぞれ、投影領域110のエッジ(頂点)112a、112b、112c、112dの位置に対応している。また、パターンH1およびV1には、それぞれ位置129aおよび129bがあらかじめ設定されている。なお、これら位置129aおよび129bは、投影領域110の対応する辺113aおよび114a上に重なるように位置している。
【0174】
なお、これらのパターンをあらかじめメモリー4に記憶しておかずに、以下の位置調整において必要に応じ、位置決め装置1に接続されている図示しない外部記憶装置(例えば、フロッピーディスク、ハードディスク、光磁気ディスクなど)から、適宜メモリー4に読み込んでもよい。
【0175】
なお、以下の位置調整を説明するに先立って、以下の位置調整中で適宜行われるパターンマッチング(パターンマッチング法)について、まず説明する。
【0176】
パターンマッチングでは、例えばカメラNo.1、2、3、4で撮影され、メモリ4に取り込まれた画像データ(被検索データ)中に、パターンA1、B1、C1、D1、H1、V1等の特定のパターン(検索パターン)が存在するか否かを検索する。
【0177】
そして、かかる検索パターンが存在しない場合には、かかる検索パターンは被検索データ中に存在しないと判別される。
【0178】
一方、かかる検索パターンが存在する場合には、かかる検索パターンは被検索データ中に存在すると判別される。また、このとき、撮像した画像(被検索データ)中の所定領域と、検索パターンとが一致したときの位置(例えば位置121〜124、129a、129b等)の座標(X座標、Y座標)を得る。この座標(位置)をその後の処理で必要としない場合は、かかる座標は、得なくてもよい。
【0179】
ここで、パターンマッチング中において、「検索パターンが存在する」とは、検索パターンと完全に合致するパターンが、被検索データ中に存在するという意ではなく、検索パターンとの一致度(認識率)が一定値(しきい値)以上のパターンが存在することをいう。
【0180】
この値(しきい値)は、位置決め装置1の置かれている環境等、種々の条件により好ましい値は異なるが、80%程度に設定することが好ましく、90%程度に設定することがより好ましい。しきい値をこの値に設定すると、パターンマッチングをより高い精度で行うことができる。
【0181】
なお、検索パターンが被検索データ中に存在する旨の結果を出力あるいは返却する際に、必要に応じ、かかる一致度を返却または出力してもよい。
【0182】
図10に示すように、位置調整(アライメント調整)では、まず、粗調整を行い(S300)、次いで、微調整(S350)を行う。
【0183】
まず、ステップS300の粗調整について説明する。
【0184】
ステップS300の粗調整では、第1の処理(処理S30A)と、第2の処理(処理S30B)と、第3の処理(処理S30C)と、第4の処理(処理S30D)と、第5の処理(処理S30E)と、第6の処理(処理S30F)と、第7の処理(処理S30G)と、第8の処理(処理S30H)とを行う。以下、図13〜16、19〜24に基づいて、各処理を、ステップごとに詳細に説明する。
【0185】
[処理S30A]第1の処理は、ステップS301〜S303とパターンC導入処理(処理S90a)とで構成される。
【0186】
ステップS301〜S303を実行することにより、投影領域110の角部111cが撮像領域(目的領域)631内に存在するか否かを検出することができる。また、角部111cが撮像領域631内に存在しない場合には、パターンC導入処理(処理S90a)を実行することにより、角部111cを撮像領域631内に導入することができる。
【0187】
[ステップS301]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0188】
[ステップS302]次に、前記ステップS301でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0189】
[ステップS303]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンC1が存在する場合、すなわち図19(A1)に示すように、撮像領域631内に角部111cが存在する場合には、第2の処理(処理S30B)すなわちステップS304を行い、存在しない場合には、パターンC導入処理(処理S90a)を実行する。
【0190】
なお、ここで、「撮像領域631内に角部111cが存在しない」とは、パターンマッチングで、角部111cが存在しないという結果が得られたという意である。以下の説明において、パターンマッチングの結果に基づき本ステップと同様の判断を行う場合にも、これと同様のことが言える。
【0191】
[処理S90a]パターンC導入処理は、図16に示すように、ステップS901〜S910で構成される。
【0192】
このパターンC導入処理を実行することにより、角部111cを撮像領域631内に入れるもしくは近づけることができる。さらには、この処理を実行することにより、投影領域110と撮像領域631との相対的な位置関係が分かる。
【0193】
[ステップS901]まず、前記ステップS301でメモリー4に記憶した画像データに対して、パターンH1を検索パターンとして、パターンマッチングを行う。
【0194】
[ステップS902]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンH1が存在する場合、すなわち図19(A2)に示すように、撮像領域631内に投影領域110のY軸方向の辺113aが存在する場合には、ステップS903を行い、存在しない場合には、ステップS904を実行する。
【0195】
[ステップS903]次に、投影領域110を、図19中上方に移動(変位)させる。このときの移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量である。
【0196】
これにより、図19(B2)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、例えば角部111cが撮像領域631からn/3より離間した位置に存在する場合のように、投影領域110の角部111cが撮像領域631から遠い場合には、投影領域110の角部111cが撮像領域631に近づく。
【0197】
その後、ステップS301へ戻る。
【0198】
なお、本ステップにおいて、投影領域110の移動量は、アライメントを調整する際の諸条件に応じて、任意の値に設定することが可能である。これは、以下のステップにおいて、本ステップと同様の処理を行う場合(例えば、ステップS906、ステップS909、ステップS910など)にも言える。
【0199】
[ステップS904]次に、前記ステップS301でメモリー4に記憶した画像データに対して、パターンV1を検索パターンとして、パターンマッチングを行う。
【0200】
[ステップS905]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンV1が存在する場合、すなわち図19(A3)に示すように、撮像領域631内に投影領域110のX軸方向の辺114aが存在する場合には、ステップS906を行い、存在しない場合には、ステップS907を実行する。
【0201】
[ステップS906]次に、投影領域110を、図19中右方向に移動させる。このときの移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0202】
これにより、図19(B3)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、例えば角部111cが撮像領域631からm/3より離間した位置に存在する場合のように、投影領域110の角部111cが撮像領域631から遠い場合には、投影領域110の角部111cが撮像領域631に近づく。
【0203】
その後、ステップS301へ戻る。
【0204】
[ステップS907]次に、前記ステップS301でメモリー4に記憶した画像データに対して、かかる画像データ全体の輝度、すなわち撮像領域631内の明るさを求める。
【0205】
[ステップS908]次に、輝度を求めた結果、かかる輝度がしきい値未満の場合(撮像領域631内の明るさがしきい値未満の場合)、すなわち図20(A4)に示すように、撮像領域631中に投影領域110の角部111c、辺113a、114aのいずれも存在しない場合には、ステップS909を実行する。一方、輝度が一定値以上の場合(撮像領域631内の明るさがしきい値以上の場合)、すなわち図20(A5)に示すように、撮像領域631が投影領域110内に包含されている場合には、ステップS910を実行する。
【0206】
なお、このしきい値は、撮像領域631中に投影領域110の角部111c、辺113a、114aのいずれも存在しない場合の輝度よりも十分高く、かつ、撮像領域631が投影領域110内に包含されている場合の輝度よりも十分低く設定されている。
【0207】
[ステップS909]次に、投影領域110を、図20中左下方向に移動させる。このとき図20中下方向への移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量であり、図19中左方向への移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0208】
これにより、図20(B4)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、投影領域110の角部111cが、かかる移動量に相当する距離より、撮像領域631から離間していた場合には、投影領域110の角部111cが撮像領域631に近づく。
【0209】
その後、ステップS301へ戻る。
【0210】
[ステップS910]次に、投影領域110を、図20中右上方向に移動させる。このとき図20中上方向への移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量であり、図20中右方向への移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0211】
これにより、図20(B5)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、投影領域110の角部111cが、かかる移動量に相当する距離より、撮像領域631から離間していた場合には、投影領域110の角部111cが撮像領域631に近づく。
【0212】
その後、ステップS301へ戻る。
【0213】
なお、角部111cが撮像領域631から大きく離間している場合のように、1回のパターンC導入処理で角部111cを撮像領域631内に入れることができない場合でも、パターンC導入処理を1回実行する度に角部111cを撮像領域631に近づけることができるので、パターンC導入処理を複数回実行することにより、最終的に角部111cを撮像領域631内に入れることができる。
【0214】
[処理S30B]第2の処理は、ステップS304、S305で構成される。
【0215】
この第2の処理を実行することにより、角部111cを撮像領域631の中心125cに合致させることができる。
【0216】
[ステップS304]まず、前記ステップS302における最後のパターンマッチングで得られた位置123に基づいて、投影領域110のエッジ112cを撮像領域631の中心125cに移動させるための、投影領域110のX軸方向およびY軸方向の移動量を求める。
【0217】
これは、前述したように、得られた位置123の座標は、エッジ112cの座標に対応している、すなわち、位置123の座標は、エッジ112cの座標を表しているので、位置123の座標と中心125cとの座標から、投影領域110の移動量を求めることができる。
【0218】
[ステップS305]次に、前記ステップS304で求めた投影領域110のX軸方向およびY軸方向の移動量に基づいて、投影領域110を移動させる。
【0219】
これにより、図19(B1)に示すように、投影領域110の角部111cが、撮像領域631の中心125cに合致する。
【0220】
以下に説明する第3〜第5の処理(処理S30C〜S30E)では、撮像領域611と撮像領域631とを基準として位置合わせを行う。すなわち、投影領域110のY軸方向、換言すれば、液晶ライトバルブ25のY軸方向に重きを置いて位置合わせを行う。
【0221】
[処理S30C]第3の処理は、ステップS306〜S310とパターンA導入処理(処理S90b)とで構成される。
【0222】
上記第1の処理および第2の処理を実行することにより、投影領域110の角部111cを撮像領域631内に導入し、さらには角部111cを撮像領域631の中心125cに合致させることができる。
【0223】
しかし、かかる処理を行った後でも、図21(A6)に示すように、辺113aが撮像領域631の中心125cと撮像領域611の中心125aとを結ぶ線に対して大きく傾いている場合には、角部111aが撮像領域611内に入っていない場合がある。
【0224】
このような場合でも、この第3の処理を実行することにより、角部111aを撮像領域611内に導入することができる。
【0225】
なお、以下のステップS308を実行するに先だって、後述するステップS921で投影領域110の移動量を算出するために必要な変数Iに、あらかじめ0を代入しておく。
【0226】
[ステップS306]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0227】
[ステップS307]次に、前記ステップS306でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0228】
[ステップS308]次に、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0229】
[ステップS309]次に、前記ステップS308でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0230】
[ステップS310]次に、パターンマッチングを行った結果、前記ステップS308でメモリー4に記憶した画像データにパターンA1が存在しない場合、すなわち図21(A6)に示すように、撮像領域611内に角部111aが存在しない場合には、パターンA導入処理(処理S90b)を実行する。一方、パターンA1が存在する場合には、第4の処理(処理S30D)すなわちステップS311を実行する。
【0231】
[処理S90b]パターンA導入処理は、ステップS921、S922とで構成される。
【0232】
このパターンA導入処理を所定回数実行することにより、角部111aを撮像領域611内に導入することができる。
【0233】
[ステップS921]まず、次のステップS922で投影領域110を移動させる際の移動先のエッジ112cの位置(座標)を求める。これは、例えば次の式で求めることができる。この式は、Iの値に対応したエッジ112cの座標を与える。なお、前述したように、nは、撮像領域631のY軸方向の長さであり、mは、撮像領域631のX軸方向の長さである。
【0234】
X軸方向の位置 = IDOU_X1 + (I mod 3)*(m/3) (ここで、(I mod 3)とは、Iを3で割ったときの余りを求めることを意味する)
Y軸方向の位置 = IDOU_Y1 + (I/3)*(n/3) (なお、得られた移動量の小数点以下は切り捨てる)
ここで、定数IDOU_X1およびIDOU_Y1は、I=0のときの、次のステップS922におけるエッジ112cの移動先の座標に対応している。
【0235】
これら定数IDOU_X1およびIDOU_Y1としては、I=0のときの移動後のエッジ112cの位置が、撮像領域631の中心125cよりも図21中左上に来るような値が好ましい。これにより、エッジ112aを効率よく撮像領域611内に導入することができる。
【0236】
[ステップS922]次に、前記ステップS921で求めたエッジ112cの移動先の位置に、エッジ112cが来るように、投影領域110を移動させる。
【0237】
これにより、図21(B61)〜(B64)および図22(B65)〜(B69)に示すように、Iが所定の値になった場合に、エッジ112aが、撮像領域611内に入る。
【0238】
なお、図21の(B61)はI=0のときの投影領域110の位置を、(B62)はI=1のときの投影領域110の位置を、(B63)はI=2のときの投影領域110の位置を、(B64)はI=3のときの投影領域110の位置を、図22の(B65)はI=4のときの投影領域110の位置を、(B66)はI=5のときの投影領域110の位置を、(B67)はI=6のときの投影領域110の位置を、(B68)はI=7のときの投影領域110の位置を、(B69)はI=8のときの投影領域110の位置をそれぞれ表している。
【0239】
なお、図21および図22に示す例では、I=8となったときに、エッジ112aが、撮像領域611内に入る。
【0240】
その後、ステップS308へ戻る。そのとき、Iに1を加える。
【0241】
このように、Iの値を変化させつつパターンA導入処理(処理S90b)を所定回数実行することにより、エッジ112aを撮像領域611内に入れることができる。
【0242】
なお、前記ステップS921において、エッジ112cのX軸方向の位置およびY軸方向の位置は、同一の変数Iによりそれぞれを求めているが、X軸およびY軸に対応した変数をそれぞれ用意し、X軸方向の位置およびY軸方向の位置を、これら用意した変数からそれぞれ独立に求めてもよい。
【0243】
なお、前記ステップS921において、エッジ112cのX軸方向の位置およびY軸方向の位置は、計算により求めているが、あらかじめIの値に対応したX軸方向およびY軸方向の位置もしくは移動量を、テーブルとして用意しておき、かかるテーブルに基づいて前記ステップS922で投影領域110を移動させてもよい。
【0244】
[処理S30D]第4の処理は、ステップS311、S312とで構成される。
【0245】
この第4の処理を実行することにより、撮像領域611の中心125aと撮像領域631の中心125cとを結ぶ直線126(目的線)と、辺113とを平行にすることができる。すなわち、辺113の傾きを解消することができる。
【0246】
[ステップS311]まず、前記パターンA導入処理(処理S90b)における前記ステップS921で最後に求めたエッジ112cの座標(位置)と、前記ステップS309の最後のパターンマッチングで得られたエッジ112aの座標とに基づいて、図23(A7)に示すような、直線126と辺113aとの傾きθ1を求める。
【0247】
なお、前記パターンA導入処理(処理S90b)を一度も行わなかった場合には、前記ステップS307のパターンマッチングで得られた位置123が、エッジ112cの位置となる。
【0248】
[ステップS312]次に、前記ステップS311で求めたθ1に基づいて、投影領域110を回転させる。
【0249】
これにより、図23(B71)に示すように、直線126と辺113aとを平行にすることができる。
【0250】
[処理S30E]第5の処理は、ステップS313〜S317とで構成される。
【0251】
この第5の処理を実行することにより、エッジ112aと112cとが、目的位置に近づく。また、撮像領域611内に入る投影領域110の画素数と、撮像領域631内に入る投影領域110の画素数とをほぼ一致させることができる。
【0252】
[ステップS313]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0253】
[ステップS314]次に、前記ステップS313でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0254】
[ステップS315]次に、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0255】
[ステップS316]次に、前記ステップS315でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0256】
[ステップS317]次に、前記ステップS314およびS316におけるパターンマッチングで得られたエッジ112aとエッジ112cの位置に基づいて、直線126と辺113aとが合致するように、かつ、y1=y2となるように、投影領域110を移動させる。
【0257】
なお、y1とは、図23(B72)に示すように、撮像領域611の図23中上の辺612と、投影領域110の図23中上の辺114bとの間の幅である。また、y2とは、撮像領域631の図23中下の辺632と、投影領域110の図23中下の辺114aとの間の幅である。
【0258】
これにより、図23(B72)に示すように、エッジ112aと112cとが、目的位置に近づく。また、撮像領域611内に入る投影領域110の画素数と、撮像領域631内に入る投影領域110の画素数とがほぼ一致する。
【0259】
以下に説明する第6〜第8の処理は、前記第3〜第5の処理と類似の処理である。
【0260】
前記第3〜第5の処理は、撮像領域611と撮像領域631とを基準として位置合わせを行った。すなわち、投影領域110のY軸方向(辺113a)、換言すれば、液晶ライトバルブ25のY軸方向に重きを置いた位置合わせを行った。それに対し、以下の第6〜第8の処理では、撮像領域631と撮像領域641とを基準として位置合わせを行う。すなわち、投影領域110のX軸方向(辺114a)、換言すれば、液晶ライトバルブ25のX軸方向に重きを置いた位置合わせを行う。
【0261】
[処理S30F]第6の処理は、ステップS318〜S322とパターンD導入処理(処理S90c)とで構成される。
【0262】
上記第3〜第5の処理を実行することにより、投影領域110の角部111aを撮像領域611内に導入でき、さらには辺113aを直線126と平行にすることができ、さらにはエッジ112aと112cとを、目的位置に近づけることができた。
【0263】
しかし、かかる処理を行った後でも、図23(A8)に示すように、角部111dが撮像領域641内に入っていない可能性も、非常に少ないが、有り得る。
【0264】
このような場合でも、この第6の処理を実行することにより、角部111dを撮像領域641内に導入することができる。
【0265】
なお、以下のステップS320を実行するに先だって、後述するステップS931で投影領域110の移動量を算出するために必要な変数Iに、あらかじめ0を代入しておく。
【0266】
[ステップS318]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0267】
[ステップS319]次に、前記ステップS318でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0268】
[ステップS320]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0269】
[ステップS321]次に、前記ステップS320でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0270】
[ステップS322]次に、パターンマッチングを行った結果、前記ステップS320でメモリー4に記憶した画像データにパターンD1が存在しない場合、すなわち図23(A8)に示すように、撮像領域641内に角部111dが存在しない場合には、パターンD導入処理(処理S90c)を実行する。一方、パターンD1が存在する場合には、第7の処理(処理S30G)すなわちステップS323を実行する。
【0271】
[処理S90c]パターンD導入処理は、ステップS931、S932とで構成される。
【0272】
このパターンD導入処理を所定回数実行することにより、角部111dを撮像領域641内に導入することができる。
【0273】
[ステップS931]まず、次のステップS932で投影領域110を移動させる際の移動先のエッジ112cの位置(座標)を求める。これは、例えば次の式で求めることができる。この式は、Iの値に対応したエッジ112cの座標を与える。なお、前述したように、nは、撮像領域631のY軸方向の長さであり、mは、撮像領域631のX軸方向の長さである。
【0274】
X軸方向の位置 = IDOU_X2 + (I mod 3)*(m/3) (ここで、(I mod 3)とは、Iを3で割ったときの余りを求めることを意味する)
Y軸方向の位置 = IDOU_Y2 + (I/3)*(n/3) (なお、得られた移動量の小数点以下は切り捨てる)
ここで、定数IDOU_X2およびIDOU_Y2は、I=0のときの、次のステップS932におけるエッジ112cの移動先の座標に対応している。
【0275】
これら定数IDOU_X2およびIDOU_Y2としては、I=0のときの移動後のエッジ112cの位置が、投影領域631の中心125cよりも図23中左上に来るような値が好ましい。これにより、エッジ112dを効率よく撮像領域641内に導入することができる。
【0276】
[ステップS932]次に、前記ステップS931で求めたエッジ112cの移動先の位置に、エッジ112cが来るように、投影領域110を移動させる。
【0277】
これにより、Iが所定の値になった場合に、エッジ112dが、撮像領域641内に入る。
【0278】
その後、ステップS320へ戻る。そのとき、Iに1を加える。
【0279】
このように、Iの値を変化させつつパターンD導入処理(処理S90c)を所定回数実行することにより、エッジ112dを撮像領域641内に入れることができる。
【0280】
なお、前記ステップS931において、エッジ112cのX軸方向の位置およびY軸方向の位置は、同一の変数Iによりそれぞれを求めているが、X軸およびY軸に対応した変数をそれぞれ用意し、X軸方向の位置およびY軸方向の位置を、これら用意した変数からそれぞれ独立に求めてもよい。
【0281】
なお、前記ステップS931において、エッジ112cのX軸方向の位置およびY軸方向の位置は、計算により求めているが、あらかじめIの値に対応したX軸方向およびY軸方向の位置もしくは移動量を、テーブルとして用意しておき、かかるテーブルに基づいて前記ステップ932で投影領域110を移動させてもよい。
【0282】
[処理S30G]第7の処理は、ステップS323、S324とで構成される。
【0283】
この第7の処理を実行することにより、撮像領域631の中心125cと撮像領域641の中心125dとを結ぶ直線127(目的線)と、辺114aとを平行にすることができる。すなわち、辺114aの傾きを解消することができる。
【0284】
[ステップS323]まず、前記パターンD導入処理(処理S90c)における前記ステップS931で最後に求めたエッジ112cの座標(位置)と、前記ステップS321の最後のパターンマッチングで得られたエッジ112dの座標とに基づいて、図24(A9)に示すような、直線127と辺114aとの傾きθ2を求める。
【0285】
なお、前記パターンD導入処理(処理S90c)を一度も行わなかった場合には、前記ステップS319のパターンマッチングで得られた位置123が、エッジ112cの位置となる。
【0286】
[ステップS324]次に、前記ステップS323で求めたθ2に基づいて、投影領域110を回転させる。
【0287】
これにより、図24(B91)に示すように、直線127と辺114aとを平行にすることができる。
【0288】
[処理S30H]第8の処理は、ステップS325〜S329とで構成される。
【0289】
この第8の処理を実行することにより、エッジ112cと112dとが、目的位置に近づく。また、撮像領域631内に入る投影領域110の画素数と、撮像領域641内に入る投影領域110の画素数とをほぼ一致させることができる。
【0290】
[ステップS325]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0291】
[ステップS326]次に、前記ステップS325でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0292】
[ステップS327]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0293】
[ステップS328]次に、前記ステップS327でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0294】
[ステップS329]次に、前記ステップS314およびS316におけるパターンマッチングで得られたエッジ112cとエッジ112dの位置に基づいて、直線127と辺114aとが合致するように、かつ、x1=x2となるように、投影領域110を移動させる。
【0295】
なお、x1とは、図24(B92)に示すように、撮像領域631の図24中左の辺633と、投影領域110の図24中左の辺113aとの間の幅である。また、x2とは、撮像領域641の図24中右の辺643と、投影領域110の図24中右の辺113bとの間の幅である。
【0296】
これにより、図24(B92)に示すように、エッジ112cと112dとが、目的位置に近づく。また、撮像領域631内に入る投影領域110の画素数と、撮像領域641内に入る投影領域110の画素数とがほぼ一致する。
【0297】
以上で、粗調整が終了する。
【0298】
以下、ステップS350の微調整(位置調整処理)の第1の実施の形態について説明する。
【0299】
以下のステップS350の微調整を行うことにより、アライメントを非常に高精度で調整することができる。さらには、図25(A13)に示すような、投影領域110が、完全に長方形でない場合でも、正確にアライメント調整を行うことができる。
【0300】
ステップS350の微調整を説明するに先立って、ステップS350の微調整中で適宜行われる四頂点位置計測処理(処理S90d)についてまず説明する。
【0301】
[処理S90d]図18に示すように、四頂点位置計測処理は、ステップS941〜S948で構成される。
【0302】
この四頂点位置計測処理を実行することにより、エッジ112a、エッジ112b、エッジ112cおよびエッジ112dの座標を得ることができる。
【0303】
[ステップS941]まず、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0304】
[ステップS942]次に、前記ステップS941でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0305】
[ステップS943]次に、カメラNo.2(カメラ62)で撮像し、撮像領域621の画像データをメモリー4に記憶する。
【0306】
[ステップS944]次に、前記ステップS943でメモリー4に記憶した画像データに対して、パターンB1を検索パターンとして、パターンマッチングを行う。
【0307】
[ステップS945]次に、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0308】
[ステップS946]次に、前記ステップS945でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0309】
[ステップS947]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0310】
[ステップS948]次に、前記ステップS947でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0311】
なお、以上の四頂点位置計測処理(処理S90d)で得られたエッジ112aの座標を(gluxg,gluyg)、エッジ112bの座標を(gruxg,gruyg)、エッジ112cの座標を(gldxg,gldyg)、エッジ112dの座標を(grdxg,grdyg)とする(図25(A10)参照)。
【0312】
ステップS350の微調整では、第1の処理(処理S35A)と、第2の処理(処理S35B)と、第3の処理(処理S35C)とを行う。以下、図17、18、25に基づいて、各処理を、ステップごとに詳細に説明する。
【0313】
[処理S35A]第1の処理は、四頂点位置計測処理(処理S90d)と、ステップS351〜S353とで構成される。
【0314】
この第1の処理を実行することにより、投影領域110全体の傾き、すなわち、液晶ライトバルブ25全体の傾きが最も小さくなる。
【0315】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0316】
[ステップS351]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標に基づいて、θgux、θgdx、θglyおよびθgryを求める。
【0317】
図25(A11)に示すように、θguxは、辺114bと、撮像領域611の中心125aと撮像領域621の中心125bとを結ぶ線との間の角度である。θgdxは、辺114aと、撮像領域631の中心125cと撮像領域641の中心125dとを結ぶ線との間の角度である。θglyは、辺113aと、撮像領域611の中心125aと撮像領域631の中心125cとを結ぶ線との間の角度である。θgryは、辺113bと、撮像領域621の中心125bと撮像領域641の中心125dとを結ぶ線との間の角度である。
【0318】
これらθgux、θgdx、θglyおよびθgryは、四頂点位置計測処理(処理S90d)で得られたエッジ112a〜112dの座標(gluxg,gluyg)、(gruxg,gruyg)、(gldxg,gldyg)および(grdxg,grdyg)と、中心125a〜dの座標とから求めることができる。
【0319】
[ステップS352]次に、前記ステップS351で求めたθgux、θgdx、θglyおよびθgryに基づいて、次のステップS353で投影領域110を回転させる際の回転角度θを求める。
【0320】
これは、次の式から求めることができる。なお、θkとは、あらかじめ設定された基準角度である。
【0321】
θgx = (θgux + θgdx)/2
θgy = (θgly + θgry)/2
θg = (θgx + θgy)/2
θ = θk − θg
[ステップS353]次に、投影領域110を、前記ステップS352で求めた回転角度θ度回転させる。
【0322】
これにより、図25(B12)に示すように、投影領域110のX軸方向およびy軸方向の傾きが最も小さくなる。
【0323】
[処理S35B]第2の処理は、四頂点位置計測処理(処理S90d)と、ステップS354〜S356とで構成される。
【0324】
この第2の処理を実行することにより、投影領域110の中心の位置が、あらかじめ設定された基準座標に合致する。すなわち、この第2の処理を実行することにより、投影領域110の中心の位置を調整することができる。
【0325】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0326】
[ステップS354]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標に基づいて、投影領域110の中心座標(gxg,gyg)を求める。
【0327】
この座標は、例えば、四頂点位置計測処理(処理S90d)で得られたエッジ112a〜112dの座標(gluxg,gluyg)、(gruxg,gruyg)、(gldxg,gldyg)、(grdxg,grdyg)から、辺113a、113b、114aおよび114bの中点の座標をそれぞれ求め、これらの中点の座標から、辺113aの中点と辺113bの中点とを結ぶ直線と、辺114aの中点と辺114bの中点とを結ぶ直線との交点の座標を求めることにより得ることができる。
【0328】
すなわち、辺113aの中点と辺113bの中点とを結ぶ直線と、辺114aの中点と辺114bの中点とを結ぶ直線との交点の座標が、投影領域110の中心座標(gxg,gyg)となる。
【0329】
[ステップS355]次に、前記ステップS354で求めた投影領域110の中心座標(gxg,gyg)に基づいて、次のステップS356で投影領域110を移動させる際の移動量を求める。
【0330】
これは、次の式から求めることができる。なお、kxgとkygは、あらかじめ設定された基準座標である。
【0331】
X軸移動量 = kxg − gxg
Y軸移動量 = kyg − gyg
[ステップS356]次に、投影領域110を、前記ステップS355で求めたX軸移動量およびY軸移動量に基づいて移動させる。
【0332】
これにより、撮像領域110の中心が基準座標に移動する。
【0333】
[処理S35C]第3の処理は、四頂点位置計測処理(処理S90d)と、ステップS357〜S359とで構成される。
【0334】
この第3の処理を実行することにより、液晶ライトバルブ25全体を、X軸方向およびY軸方向のずれが最も小さくなる位置に調整することができる。
【0335】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0336】
[ステップS357]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標について、エッジ112a〜112dごとにそれぞれあらかじめ設定された基準座標(目的位置)からのずれを求める。
【0337】
ここで、エッジ112aの基準座標を(kluxg,kluyg)、エッジ112bの基準座標を(kruxg,kruyg)、エッジ112cの基準座標を(kldxg,kldyg)、エッジ112dの基準座標を(krdxg,krdyg)とする。
【0338】
ここで、エッジ112a〜112dのX軸方向の基準座標からのずれをそれぞれX1〜X4、エッジ112a〜112dのY軸方向の基準座標からのずれをそれぞれY1〜Y4とすると、X1〜X4およびY1〜Y4は、例えば次の式で表すことができる。
【0339】
X1 = kluxg − gluxg
X2 = gruxg − kruxg
X3 = kldxg − gldxg
X4 = grdxg − krdxg
Y1 = kluyg − gluyg
Y2 = kruyg − gruyg
Y3 = gldyg − kldyg
Y4 = grdyg − krdyg
[ステップS358]次に、前記ステップS357で求めたX1〜X4およびY1〜Y4に基づいて、次のステップS359で投影領域110を移動させる際の移動量を求める。
【0340】
X軸方向の移動量は、X1〜X4のうち、1番目に大きい絶対値と2番目に大きい絶対値を有するものの平均をとることにより求める。なお、絶対値が1番大きいものと2番目に大きいものの値の正負が同符号の場合は、X1〜X4のうち、1番目に大きい絶対値と3番目に大きい絶対値を有するものの平均をとることにより、X軸方向の移動量を求める。さらには、絶対値が1番大きいものと3番目に大きいものの値の正負が同符号の場合は、X1〜X4のうち、1番目に大きい絶対値と4番目に大きい絶対値を有するものの平均をとることにより、X軸方向の移動量を求める。
【0341】
Y軸方向の移動量は、Y1〜Y4のうち、1番目に大きい絶対値と2番目に大きい絶対値を有するものの平均をとることにより求める。なお、絶対値が1番大きいものと2番目に大きいものの値の正負が同符号の場合は、Y1〜Y4のうち、1番目に大きい絶対値と3番目に大きい絶対値を有するものの平均をとることにより、Y軸方向の移動量を求める。さらには、絶対値が1番大きいものと3番目に大きいものの値の正負が同符号の場合は、Y1〜Y4のうち、1番目に大きい絶対値と4番目に大きい絶対値を有するものの平均をとることにより、Y軸方向の移動量を求める。
【0342】
[ステップS359]次に、前記ステップS358で求めたX軸方向の移動量およびY軸方向の移動量に基づいて、投影領域110を移動させる。
【0343】
これによりエッジ112a〜112d(角部111a〜111d)のうち、これらに対応する基準座標から最も離れたエッジ(角部)は、かかる基準座標に近づく。
【0344】
従って、例えば、図25(A13)に示すように、投影領域110が、完全に長方形でない場合でも、正確に位置調整を行うことができる。
【0345】
以上で、第1の実施の形態のステップS350の微調整(位置調整処理)が終了する。
【0346】
なお、この微調整では、第1の処理(処理S35A)、第2の処理(処理S35B)および第3の処理(処理S35C)の各処理ごとに四頂点位置計測処理(処理S90d)を行っているが、各処理ごとに四頂点位置計測処理(処理S90d)を行わなくてもよい。ただし、この第1の実施の形態のように、各処理ごとに四頂点位置計測処理(処理S90d)を実行することが好ましい。これにより、アライメント調整の精度がより向上する。
【0347】
なお、この微調整では、四頂点位置計測処理(処理S90d)を行い、エッジ112a〜112dの座標をそれぞれ求め、第1〜第3の処理(処理S35A〜処理S35C)を行っているが、エッジ112a〜112dの座標のうちの少なくとも2つの座標を求め、かかる座標に基づいて、第1の処理(処理S35A)、第2の処理(処理S35B)および第3の処理(処理S35C)を行ってもよい。
【0348】
アライメント調整において、光学系の特性(レンズの収差)等により、スクリーン2上に投影される画像(投影画像)、すなわちライトバルブの画素の投影画像が変形する(例えば、カブリ、ムラ、ぼけ、にじみ等が生じる)ことがある。
【0349】
このような場合、例えば、図11に示すようなパターンA1〜D1を検索パターンとしてパターンマッチングを行った場合、検索を的確に行うことが困難な場合がある。
【0350】
このときは、図26に示すような、パターンA2、B2、C2およびD2を検索パターンとして、パターンマッチングを行ってもよい。これら各パターンA2、B2、C2およびD2は、それぞれ、液晶ライトバルブの画素の投影像にレンズの収差による投影画像の変形がある場合に、対応する角部111a、111b、111cおよび111dを含む部分に対応するものである。
【0351】
さらには、まずは、図11に示すようなパターンA1〜D1を検索パターンとしてパターンマッチングを行い、かかるパターンマッチングで、被検索データ中に検索パターンが存在しなかった場合に、図26に示すようなパターンA2〜D2を検索パターンとして再びパターンマッチングを行うようにしてもよい。
【0352】
このように、パターンマッチングに用いる所定のパターン(1つの角部に対応するパターン)を複数設定しておくことにより、レンズの収差による投影画像の変形がある場合とない場合の両者に、容易に対応することができ、アライメントの精度を向上させることができる。
【0353】
この場合、図26に示すように、パターンA2〜D2中において、位置121、122、123および124は、例えば、各画素にレンズの収差による投影画像の変形がないときのエッジ112a、112b、112cおよび112dの位置に対応したものとすることができる。
【0354】
また前記と同様に、図12に示すようなパターンH1およびパターンV1についても、図27に示すような、パターンH1およびパターンV1に対応したパターンH2およびパターンV2を用意して、これらを用いてパターンマッチングを行うことができる。
【0355】
これらパターンH2およびパターンV2は、それぞれ、液晶ライトバルブの画素の投影像にレンズの収差による投影画像の変形がある場合に、対応する辺113aおよび114aを含む部分に対応したものである。
【0356】
この場合、図27に示すように、パターンH2およびV2中において、位置129aおよび129bは、例えば、各画素にレンズの収差による投影画像の変形がないとしたときの辺113aおよび114a上に重なるような位置とすることができる。
【0357】
以下、ステップS350の微調整(位置調整処理)の第2の実施の形態について説明する。
【0358】
微調整では、まず、カメラNo.1、カメラNo.2、カメラNo.3およびカメラNo.4でそれぞれ撮像し、撮像領域611、621、631および641の各画像データをメモリー4に記憶する。
【0359】
次いで、メモリー4からカメラNo.1、カメラNo.2、カメラNo.3およびカメラNo.4で撮像された画像の各画像データをそれぞれ読み出し、エッジ処理(エッジ処理法)により、図28(a)に示す各特定位置128を検出する(特定位置128のX座標およびY座標を求める)。なお、このエッジ処理については後に詳述する。
【0360】
そして、図28(b)に示すように、各特定位置128がそれぞれ対応する目的位置にさらに近づくように(一致する場合も含む)、3軸テーブル9により、液晶ライトバルブ25を変位させる。すなわち、各特定位置128がそれぞれ対応する目的位置にさらに近づくように(一致する場合も含む)、液晶ライトバルブ25をW方向に回転させ、X軸方向およびY軸方向に移動させる。
【0361】
次に、エッジ処理について説明する。なお、代表的に、カメラNo.4で撮像した画像の特定位置のY座標を求める場合を説明する。
【0362】
図29は、エッジ処理における位置決め装置1の制御手段3の制御動作を示すフローチャートである。以下、このフローチャートに基づいて説明する。
【0363】
エッジ処理では、まず、カメラNo.4(本実施例では、画素:400行×600列)で撮像し、画像領域641の画像データをメモリー4に記憶する(ステップS401)。
【0364】
前記カメラNo.4で撮像された画像、すなわち、メモリー4に記憶された画像は、例えば、図30に示す通りである。
【0365】
図30に示すように、X−Y座標を想定する。このX−Y座標は、電子画像の面に対応している。すなわち、カメラNo.4の各画素の列(第1列〜第600列)および行(第1行〜第400行)は、それぞれ、その画素のX軸方向の座標(X座標)およびY軸方向の座標(Y座標)に対応する。本実施例では、カメラNo.4の第j行(j行目)、第i列(i列目)の画素の座標は、(i,j)である。
【0366】
次いで、各画素における輝度をY軸方向に積算し、Y軸方向の輝度の積算値Iy[i]=Σ f(i,j )を求める(ステップS402)。
【0367】
前記積算値Iy[i]のグラフを図30に示す。なお、グラフの縦軸に、積算値Iy[i]、横軸に、画素のX座標iをとる。
【0368】
次いで、前記積算値Iy[i]の最大値Iymaxと、最小値Iyminとをそれぞれ求める(ステップS403)。
【0369】
次いで、しきい値Ty を設定する(ステップS404)。
【0370】
このステップS404では、前記ステップS403で求めた最大値Iymaxおよび最小値Iyminを下記式に代入することにより、しきい値Ty を求める。
【0371】
Ty =(Iymax+Iymin)*α(但し、0<α<1)
次いで、図30に示すように、しきい値Ty と積算値Iy[i]とのクロス点のX座標Xc を求める(ステップS405)。
【0372】
次いで、図31に示すように、座標(0,0)、座標(Xc ,0)、座標(Xc ,400)および座標(0,400)の4点で囲まれる四角形の領域を設定する(ステップS406)。
【0373】
次いで、前記設定された領域内において、各画素における輝度をX軸方向に積算し、X軸方向の輝度の積算値Iax[j] =Σ f(i,j )を求める(ステップS407)。
【0374】
前記積算値Iax[j] (第1の波形)のグラフを図31に示す。なお、グラフの横軸に、積算値Iax[j] 、縦軸に、画素のY座標jをとる。この積算値Iax[j] をX軸方向の輝度の積算値のY軸方向における変化を示す第1の波形とする。
【0375】
次いで、前記積算値Iax[j] の最大値Iaxmax と、最小値Iaxmin とをそれぞれ求める(ステップS408)。
【0376】
次いで、しきい値Taxを設定する(ステップS409)。
【0377】
このステップS409では、前記ステップS408で求めた最大値Iaxmax および最小値Iaxmin を下記式に代入することにより、しきい値Taxを求める。
【0378】
Tax=(Iaxmax +Iaxmin )*α(但し、0<α<1)
次いで、図31に示すように、しきい値Taxと積算値Iax[j] とのクロス点のY座標Yacを求める(ステップS410)。
【0379】
次いで、図31に示すように、積算値Iax[j] のグラフの各ピーク(正ピーク)におけるY座標Ppy[P] と、各ボトム(負ピーク)におけるY座標Pmy[q] とをそれぞれ求める(ステップS411)。
【0380】
なお、図31の場合には、正ピークの数が4、負ピークの数が3であるので、前記4つの正ピークにおけるY座標Ppy[1] 、Ppy[2] 、Ppy[3] およびPpy[4] と、前記3つの負ピークにおけるY座標Pmy[1] 、Pmy[2] およびPmy[3] とがそれぞれ検出される。
【0381】
次いで、下記式から、隣接する正ピークの縦軸方向の間隔の平均値Ppyavr を求める(ステップS412)。
【0382】
Ppyavr ={Σ(Ppy[p+1] −Ppy[p] )}/(n−1)
(但し、nは、正ピークの数である)
次いで、図31に示すように、Y座標がYac−1.2*Ppyavr 未満の範囲で、Yac−1.2*Ppyavr −Pmy[q] が最小となる負のピークにおけるY座標Pmpymaxを検出する(ステップS413)。
【0383】
なお、換言すれば、前記Pmpymaxは、Yac−1.2*Ppyavr より小さく、かつ、Yac−1.2*Ppyavr に最も近いPmy[q] である。
【0384】
次いで、下記式から、積算値Iax[j] の差分値Diax[j]を計算する(ステップS414)。
【0385】
Diax[j]=Iax[j+1] −Iax[j−1]
なお、換言すれば、j行目の差分値Diax[j]は、j+1行目の積算値Iax[j+1] からj−1行目の積算値Iax[j−1]を引いた値である。
【0386】
前記差分値Diax[j]のグラフと、積算値Iax[j] のグラフとを図32に示す。なお、差分値Diax[j]のグラフでは、その横軸に、差分値Diax[j]、縦軸に、画素のY座標jをとる。
【0387】
次いで、図32に示すように、Pmpymax付近(図32中丸で示す)で、Diax[j]を用いてゼロクロス点(Diax[j]=0のときのY座標)を計算し(ゼロクロス処理を行い)、得られたゼロクロス点を特定位置のY座標とする(ステップS415)。
【0388】
すなわち、このステップS415により、カメラNo.4で撮像した画像の特定位置のY座標が求まる。
【0389】
以上で、エッジ処理を終了する。
【0390】
なお、カメラNo.4で撮像された画像の特定位置のX座標を求めるには、前述した特定位置のY座標を求めるエッジ処理において、xをyに、yをxに変えて同様に行えばよい。
【0391】
この場合、設定された領域内において、各画素における輝度をY軸方向に積算したY軸方向の輝度の積算値と、画素のX座標との関係(Y軸方向の輝度の積算値のX軸方向における変化)を示す図示しないグラフにおける波形が、第2の波形であり、前述した特定位置のY座標を求めるエッジ処理と同様に、この第2の波形に基づいて特定位置のX座標を求める。
【0392】
図33は、第1の波形および第2の波形を示す図である。
【0393】
同図に示すように、第2の実施の形態では、図33中下側(撮像された投影領域の端部側)から、第1の波形のピークおよびボトムの4番目のY軸方向の位置が特定位置128のY座標とされ、図33中右側(撮像された投影領域の端部側)から、第2の波形のピークおよびボトムの4番目のX軸方向の位置が特定位置128のX座標とされる。
【0394】
また、カメラNo.1、カメラNo.2およびカメラNo.3で撮像された各画像の特定位置のX座標およびY座標を求めるには、それぞれ、前述したように行えばよい。
【0395】
以上で、第2の実施の形態のステップS350の微調整(位置調整処理)が終了する。
【0396】
以上のようなエッジ処理のフローチャートから判るように、第2の実施の形態のステップS350の微調整では、エッジ処理において、図33に示す第1の波形のピークまたはボトムのY軸方向の位置を特定位置のY座標とし、第2の波形のピークまたはボトムのX軸方向の位置を特定位置のX座標とするのが好ましい。
【0397】
また、図33中下側(撮像された投影領域の端部側)から、第1の波形のピークおよびボトム(1次微分係数が0となる点)のNy 番目のY軸方向の位置を特定位置のY座標とし、図33中右側(撮像された投影領域の端部側)から、第2の波形のピークおよびボトム(1次微分係数が0となる点)のNx 番目のX軸方向の位置を特定位置のX座標とするのが好ましい。
【0398】
この場合、Ny とNx は、異なっていてもよいが、等しいのが好ましい。Ny とNx とを等しくすることにより、位置調整の精度をより高くすることができる。
【0399】
また、Ny およびNx は、それぞれ、偶数であるのが好ましい。すなわち、第1の波形のボトムのY軸方向の位置を特定位置のY座標とするのが好ましく、また、第2の波形のボトムのX軸方向の位置を特定位置のX座標とするのが好ましい。
【0400】
Ny 、Nx が偶数であると、より正確に特定位置のY座標、X座標を求めることができ、これにより位置調整の精度を向上させることができる。
【0401】
また、Ny およびNx は、それぞれ、2以上であるのが好ましく、4以上であるのがより好ましく、4〜8程度がさらに好ましい。
【0402】
Ny 、Nx が2以上であると、より正確に特定位置のY座標、X座標を求めることができ、これにより位置調整の精度を向上させることができる。
【0403】
以上で、緑色用の液晶ライトバルブ25の位置決めが終了し、前述したように、この液晶ライトバルブ25は、光学ブロック20に仮固定され、この後、本固定される。
【0404】
次いで、前記と同様に、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めが行われる。
【0405】
このとき、ステップS350の微調整(位置調整処理)を第1の実施の形態の微調整で行う場合には、次のように行うことにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0406】
まず、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うに先立って、前記四頂点位置計測処理(処理S90d)を行い、緑色用の液晶ライトバルブ25の投影領域110のエッジ112a〜112dの座標を得る。
【0407】
かかる座標に基づいて、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めにおいてステップS352で用いられるθkと、ステップS355で用いられるkxgおよびkygと、ステップS357で用いられるエッジ112a〜112dの基準座標(kluxg,kluyg)と(kruxg,kruyg)と(kldxg,kldyg)と(krdxg,krdyg)とを求める。
【0408】
そして、これらの値に基づいて、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行う。
【0409】
これにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0410】
一方、ステップS350の微調整(位置調整処理)を第2の実施の形態の微調整で行う場合には、次のように行うことにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0411】
まず、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うに先立って、緑色用の液晶ライトバルブ25の投影領域110をカメラ61〜64でそれぞれ撮像し、各画像データをメモリー4に記憶する。
【0412】
そして、メモリー4から前記各画像データをそれぞれ読み出し、前述したエッジ処理により、各特定位置のX座標およびY座標を求める。得られた各特定位置のX座標およびY座標を、それぞれ、位置調整のうちの微調整における各目的位置のX座標およびY座標として設定する。
【0413】
これにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0414】
液晶ライトバルブ24の位置決めが終了すると、前述したように、この液晶ライトバルブ24は、光学ブロック20に仮固定され、この後、本固定される。
【0415】
同様に、液晶ライトバルブ26の位置決めが終了すると、前述したように、この液晶ライトバルブ26は、光学ブロック20に仮固定され、この後、本固定される。
【0416】
以上説明したように、本発明のライトバルブの位置決め方法によれば、各液晶ライトバルブ24〜26の位置決めが自動的に行われるので、それを手作業で行う場合に比べ、容易、迅速かつ確実に位置決めすることができる。
【0417】
また、位置決めを手作業で行う場合に比べ、精度良く、位置決めすることができる。
【0418】
また、フォーカス調整では、粗調整と微調整とを行うので、短時間で、精度良くフォーカス調整することができる。
【0419】
また、位置調整では、粗調整と微調整とを行うので、短時間で、精度良く位置調整を行うことができる。
【0420】
また、粗調整を行うことにより、スクリーン上に投影した画像が目的領域内に存在しない場合でも、かかる画像の角部を目的領域内に導入することができ、効率よく位置調整を行うことができる。これにより、投影領域が目的領域から離間したところに位置する場合でも、位置調整を容易に行うことができる。
【0421】
また、第1の実施の形態の微調整を行う場合には、スクリーン上に投影した画像が完全に長方形でない場合でも、正確に位置調整を行うことができる。
【0422】
また、位置調整のうちの微調整において、第2の実施の形態の微調整を行う場合には、輝度の積算値を利用する前述したエッジ処理により特定位置のX座標およびY座標を求めるので、正確に特定位置のX座標およびY座標を求めることができ、これにより位置調整の精度をさらに向上させることができる。
【0423】
以上、本発明のライトバルブの位置決め方法を、図示の実施例に基づいて説明したが、本発明はこれに限定されるものではない。
【0424】
例えば、本発明では、用いる位置決め装置の構造は、図示のものに限定されない。
【0425】
前記実施例では、フォーカス調整専用のカメラと、位置調整専用のカメラとを用いて位置決めを行っているが、本発明では、フォーカス調整と位置調整とに、共通のカメラを用いて位置決めを行ってもよい。
【0426】
また、前記実施例では、ライトバルブを作動させずにスクリーン上に画像を投影して位置決めを行っているが、本発明では、ライトバルブを作動させてスクリーン上に画像を投影して位置決めを行ってもよい。
【0427】
また、前記第1の実施の形態のステップS350の微調整において、四頂点位置計測処理(処理S90d)では、エッジ処理を行い特定位置を検出し、かかるエッジ処理で検出した特定位置に基づいて、前記第1の処理(処理S35A)と、第2の処理(処理S35B)と、第3の処理(処理S35C)とを行ってもよい。
【0428】
【発明の効果】
以上説明したように、本発明のライトバルブの位置決め方法によれば、容易、迅速、確実に、かつ精度良く位置決めすることができる。
【0429】
また、位置調整では、粗調整と微調整とを行うので、短時間で、精度良く位置調整を行うことができる。
【0430】
また、投影領域の所定の角部があらかじめ設定された目的領域内に入っていない場合には、前記角部を目的領域内に導入することができる。すなわち、投影領域が目的領域から離間したところに位置する場合でも、効率よく位置調整を行うことができる。
【0431】
また、投影領域の中心を求め、該中心をあらかじめ設定された位置に近づける処理を行うと、スクリーン上に投影した画像が完全に長方形でない場合でも、正確に位置調整を行うことができる。
【0432】
また、投影領域の角部のうち、あらかじめ設定された目的位置から最も離れているところに位置する角部を、前記目的位置に近づける処理を行うと、スクリーン上に投影した画像が完全に長方形でない場合でも、正確に位置調整を行うことができる。
【図面の簡単な説明】
【図1】本発明のライトバルブの位置決め方法に用いる位置決め装置の構成例を模式的に示す側面図である。
【図2】図1に示す位置決め装置の回路構成を示すブロック図である。
【図3】本発明における投射型表示装置の光学ヘッド部(各液晶ライトバルブおよび光学系の一部)を示す平面図である。
【図4】本発明におけるダイクロイックプリズムと、緑色に対応した液晶ライトバルブと、支持部材とを示す分解斜視図である。
【図5】図1に示す位置決め装置のチャックで挟持された液晶ライトバルブを模式的に示す図である。
【図6】本発明における液晶ライトバルブによるスクリーン上の投影領域と、各カメラの撮像領域とを模式的に示す図である。
【図7】本発明におけるフォーカス調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図8】本発明におけるフォーカス調整の際の液晶ライトバルブの移動を説明するための模式図である。
【図9】本発明におけるスクリーン上に投影された画像と、その画像を撮像したときの輝度のヒストグラムとを示す図である。
【図10】本発明における位置調整(アライメント調整)の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図11】本発明における4つのパターンを模式的に示す図である。
【図12】本発明における2つのパターンを模式的に示す図である。
【図13】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図14】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図15】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図16】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図17】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図18】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図19】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図20】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図21】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図22】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図23】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図24】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図25】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整を説明するための図である。
【図26】本発明における他の4つのパターンを模式的に示す図である。
【図27】本発明における他の2つのパターンを模式的に示す図である。
【図28】本発明における位置調整(アライメント調整)における第2の実施の形態の微調整を説明するための図である。
【図29】本発明におけるエッジ処理における位置決め装置の制御手段の制御動作を示すフローチャートである。
【図30】本発明におけるエッジ処理を説明するための図である。
【図31】本発明におけるエッジ処理を説明するための図である。
【図32】本発明におけるエッジ処理を説明するための図である。
【図33】本発明における第1の波形および第2の波形を示す図である。
【図34】従来の投射型表示装置の光学系を模式的に示す図である。
【符号の説明】
1 位置決め装置
2 スクリーン
3 制御手段
4 メモリー
51〜54 カメラ
511、521 撮像領域
531、541 撮像領域
61〜64 カメラ
611、621 撮像領域
612 辺
631、641 撮像領域
632、633 辺
643 辺
71〜74 照明装置
8 3軸テーブル
81 3軸テーブル駆動機構
9 3軸テーブル
91 3軸テーブル駆動機構
11 チャック
12 支持部材
20 光学ブロック
21 ダイクロイックプリズム
211、212 ダイクロイックミラー面
213〜215 面
216 出射面
22 投射レンズ
23 支持体
24〜26 液晶ライトバルブ
251 枠部材
252 貫通孔
253 切り欠き部
27 支持部材
28 固定板
281 開口
282 ネジ孔
29 固定板
291 開口
292 貫通孔
293 突起
31 ネジ
32 楔
33 接着剤
110 投影領域
111a、111b 角部
111c、111d 角部
112a、112b エッジ
112c、112d エッジ
113a、113b 辺
114a、114b 辺
121〜124 位置
125a、125b 中心
125c、125d 中心
126、127 直線
128 特定位置
129a、129b 位置
300 投射型表示装置
301 光源
302、303 インテグレータレンズ
304、306、309 ミラー
305、307、308 ダイクロイックミラー
310〜314 集光レンズ
315 ダイクロイックプリズム
316〜318 液晶ライトバルブ
319 投射レンズ
320 スクリーン
S101〜S120 ステップ
S201 ステップ
S300 粗調整
S30A〜S30H 処理
S301〜S329 ステップ
S350 微調整
S351〜S359 ステップ
S401〜S415 ステップ
S90a〜S90d 処理
S901〜S910 ステップ
S921、S922 ステップ
S931、S932 ステップ
S941〜S948 ステップ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a light valve positioning method for a projection display device, a display unit, and a projection display device.
[0002]
[Prior art]
A projection display device using a liquid crystal light valve (liquid crystal light shutter) is known.
[0003]
FIG. 34 is a diagram schematically showing an optical system of a conventional projection display apparatus.
[0004]
As shown in the figure, the projection display apparatus 300 reflects a light source 301, an illumination optical system composed of integrator lenses 302 and 303, mirrors 304, 306, and 309, red light and green light (blue). A dichroic mirror 305 that transmits only light, a dichroic mirror 307 that reflects only green light, a dichroic mirror that reflects only red light (or a mirror that reflects red light) 308, condenser lenses 310, 311, 312, 313, and 314, a color separation optical system (light guide optical system), three liquid crystal light valves 316, 317 and 318 corresponding to blue, green and red, a dichroic prism (color synthesis optical system) 315, and a projection lens (Projection optical system) 319.
[0005]
White light (white light beam) emitted from the light source 301 passes through the integrator lenses 302 and 303. The light intensity (luminance distribution) of the white light is made uniform by the integrator lenses 302 and 303.
[0006]
The white light transmitted through the integrator lenses 302 and 303 is reflected to the left in FIG. 34 by the mirror 304, and red light (R) and green light (G) of the reflected light are respectively reflected by the dichroic mirror 305 in FIG. The blue light (B) is reflected downward and passes through the dichroic mirror 305.
[0007]
The blue light transmitted through the dichroic mirror 305 is reflected downward in FIG. 34 by the mirror 306, and the reflected light is converted into parallel light by the condenser lens 310 and enters the liquid crystal light valve 316 for blue.
[0008]
Of the red light and green light reflected by the dichroic mirror 305, green light is reflected by the dichroic mirror 307 to the left in FIG. 34, and the red light passes through the dichroic mirror 307.
[0009]
The green light reflected by the dichroic mirror 307 is converted into parallel light by the condenser lens 311 and enters the green liquid crystal light valve 317.
[0010]
Further, the red light transmitted through the dichroic mirror 307 is reflected by the dichroic mirror (or mirror) 308 to the left in FIG. 34, and the reflected light is reflected by the mirror 309 to the upper side in FIG. The red light is converted into parallel light by the condenser lenses 312, 313, and 314, and is incident on the red liquid crystal light valve 318.
[0011]
As described above, the white light emitted from the light source 301 is separated into the three primary colors of red, green, and blue by the color separation optical system, and is guided to the corresponding liquid crystal light valve and enters.
[0012]
These blue light, green light, and red light are modulated by the liquid crystal light valves 316, 317, and 318, respectively, thereby forming a blue image, a green image, and a red image, respectively.
[0013]
The light of each color from the liquid crystal light valves 316, 317 and 318, that is, the respective images formed by the liquid crystal light valves 316, 317 and 318 are synthesized by the dichroic prism 315, thereby forming a color image. This image is projected (enlarged projection) onto the screen 320 installed at a predetermined position by the projection lens 319.
[0014]
When assembling the projection display device 300 described above, the three liquid crystal light valves 316, 306, so that an image having high contrast (clearness of image) and no color shift (pixel shift) can be displayed on the screen 320. Positioning of 317 and 318, that is, focus adjustment and position adjustment of the three liquid crystal light valves 316, 317 and 318 are performed, respectively.
[0015]
In the focus adjustment, an adjustment image that makes it easy to recognize the contrast is projected, and the operator confirms the contrast with the naked eye, and uses an adjustment tool to displace and fix the liquid crystal light valve so that the contrast becomes the highest. The method of doing is taken.
[0016]
In the position adjustment, an adjustment image that easily recognizes color misregistration is projected, and an operator checks the pixel misregistration with the naked eye, and uses an adjustment tool to adjust the liquid crystal light so that the color misregistration is minimized. A method of displacing and fixing the valve is employed.
[0017]
Conventionally, however, the positioning of the liquid crystal light valve is performed manually, which is very time-consuming and takes a long time even by a skilled person.
[0018]
In addition, since contrast and color shift are observed with the naked eye, there is a drawback that positioning accuracy is poor.
[0019]
In addition, since the screen on which the image is projected is separated from the position of the liquid crystal light valve to be positioned, it is necessary to go back and forth between the screen and the liquid crystal light valve many times when positioning by one person. And it takes a very long time to work.
[0020]
When positioning by two people, one worker is located near the screen, observes the projected image, conveys the information to the other worker, and the worker who receives the information Since the liquid crystal light valve is displaced, not only does the number of workers increase, but information may not be accurately transmitted between the workers, which is not reliable.
[0021]
[Problems to be solved by the invention]
An object of the present invention is to provide a light valve positioning method capable of easily, quickly, reliably and accurately positioning a light valve of a projection display device, a display unit having a light valve positioned by the positioning method, and a projection. It is to provide a mold display device.
[0022]
[Means for Solving the Problems]
Such an object is achieved by the present inventions (1) to (32) below.
[0023]
(1) A positioning method for positioning the light valve of a projection display device that projects an image formed by a light valve by a projection optical system,
A detection process for detecting whether or not a predetermined corner of the quadrangle projection area is within a preset target area;
A light valve positioning method comprising: an introduction process of displacing the projection area and introducing the corner into the target area when the corner is not within the target area. .
[0024]
(2) In the detection process, the above-described (1) detecting whether or not the corner is within the target area by a pattern matching method for searching for a match with a pattern corresponding to the corner set in advance. The light valve positioning method according to claim 1.
[0025]
(3) The light valve positioning method according to (1) or (2), wherein in the introduction process, a positional relationship specifying process for specifying a relative positional relationship between the projection area and the target area is performed.
[0026]
(4) The light valve positioning method according to (3), wherein in the positional relationship specifying process, a process of detecting whether a side of the projection area is within the target area is performed.
[0027]
(5) The light valve positioning method according to (4), wherein the detection of the side is performed by a pattern matching method for searching for a match with a pattern corresponding to the side set in advance.
[0028]
(6) The light valve positioning method according to (3), wherein in the positional relationship specifying process, it is detected whether or not the target area is included in the projection area.
[0029]
(7) The light valve positioning method according to (6), wherein whether or not the target area is included in the projection area is detected by detecting brightness in the target area.
[0030]
(8) In any one of (3) to (7), in the introduction process, the projection area is displaced so as to correct the positional relation of the projection area with respect to the target area based on the identification result of the positional relationship identification process. The light valve positioning method according to claim 1.
[0031]
(9) The method according to any one of (1) to (8), wherein in the introduction process, a process is performed in which a side of the projection area is substantially parallel to a preset target line corresponding to the side. Light valve positioning method.
[0032]
(10) The light valve positioning method according to any one of (1) to (9), wherein the detection processing is performed at at least two corners.
[0033]
(11) Further, the light valve according to any one of (1) to (10), wherein the corner portion is moved so as to match a preset target position in the target area. Positioning method.
[0034]
(12) The light valve positioning method according to (11), wherein in the position adjustment processing, corner position measurement processing for measuring positions of at least two corner portions is performed.
[0035]
(13) The light valve positioning method according to (11) or (12), wherein, in the position adjustment process, a center of the projection area is obtained and a process of bringing the center close to a preset position is performed.
[0036]
(14) In the position adjustment process, the corners located farthest from a preset target position among the corners are subjected to a process of approaching the target position (11) to (13) The light valve positioning method according to any one of the above.
[0037]
(15) The light valve positioning method according to any one of (1) to (14), wherein the target area is an area captured as an electronic image.
[0038]
(16) The target area is an area captured as an electronic image,
In the position adjustment process, the match between the corner and the target position is a match between the specific position that is a specific position in the corner and the target position. Method.
[0039]
(17) In the position adjustment process, the luminance of a predetermined area including at least a part of the corners in the electronic image is obtained in units of pixels, and the X-axis direction and the Y-axis direction orthogonal to each other are obtained. A first waveform indicating a change in the Y-axis direction of an integrated value of luminance in the X-axis direction when an XY coordinate is assumed for the electronic image, and an integrated value of luminance in the Y-axis direction The light valve positioning method according to (16), which is performed by detecting the specific position based on a second waveform indicating a change in the X-axis direction.
[0040]
(18) The peak or bottom position of the first waveform in the Y-axis direction is the Y coordinate of the specific position, and the peak or bottom position of the second waveform is the X coordinate of the specific position. The light valve positioning method according to (17) above.
[0041]
(19) From the end side of the imaged projection region, the position of the first waveform peak and bottom in the Ny-th Y-axis direction is set as the Y coordinate of the specific position, and the end of the imaged projection region The light valve positioning method according to the above (17), wherein the position of the Nxth X-axis direction of the peak and bottom of the second waveform from the section side is the X coordinate of the specific position.
[0042]
(20) The light valve positioning method according to (19), wherein each of Ny and Nx is an even number.
[0043]
(21) The light valve positioning method according to (19) or (20), wherein Ny and Nx are each 2 or more.
[0044]
(22) The light valve positioning method according to any one of (19) to (21), wherein Ny and Nx are equal.
[0045]
(23) The displacement of the light valve in the position adjustment process is movement in the X-axis direction, movement in the Y-axis direction, and rotation around the Z-axis orthogonal to the X-axis and the Y-axis (17 The light valve positioning method according to any one of (1) to (22).
[0046]
(24) The light valve positioning method according to any one of (1) to (23), wherein the light valve is a liquid crystal light valve.
[0047]
(25) The light valve positioning method according to any one of (1) to (24), wherein the projection display device includes three light valves corresponding to red, green, and blue.
[0048]
(26) The light valve positioning method according to (25), wherein the positioning is performed for each of the three light valves.
[0049]
(27) The light valve positioning method according to (25) or (26), wherein the positioning is performed so that the images formed by the three light valves overlap.
[0050]
(28) Perform the positioning for the light valve corresponding to the green color,
The light valve corresponding to the red color and the image formed by the light valve corresponding to the red color and the image formed by the light valve corresponding to the blue color overlap the image formed by the light valve, and 28. The light valve positioning method according to any one of (25) to (27), wherein the positioning is performed for each of the light valves corresponding to the blue color.
[0051]
(29) The light valve positioning method according to any one of (1) to (28), wherein focus adjustment of the light valve is performed prior to the positioning.
[0052]
(30) In the focus adjustment of the light valve, an electronic image is obtained by imaging a predetermined area of the projection area, the luminance of the electronic image is totaled to obtain a luminance variance, and the variance is maximized. The light valve positioning method according to (29), wherein the light valve is displaced.
[0053]
(31) Three light valves corresponding to red, green, and blue, which are positioned by the light valve positioning method according to any one of (1) to (30) and form an image, and the respective images are synthesized. A display unit comprising a color synthesis optical system.
[0054]
(32) Three light valves corresponding to red, green, and blue, which are positioned by the light valve positioning method according to any one of (1) to (30) and form an image, a light source, and the light source Are separated into red, green, and blue light, a color separation optical system that guides each light to the corresponding light valve, a color synthesis optical system that synthesizes the images, and a projection of the synthesized image And a projection optical system.
[0055]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a light valve positioning method, a display unit, and a projection display device according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
[0056]
FIG. 1 is a side view schematically showing a configuration example of a positioning device used in the light valve positioning method of the present invention, and FIG. 2 is a block diagram showing a circuit configuration of the positioning device shown in FIG.
[0057]
The positioning device 1 shown in these drawings is for positioning a light valve (optical shutter array) of a projection display device (for example, a liquid crystal projector), that is, focus adjustment (contrast of three light valves corresponding to red, green and blue). Adjustment) and position adjustment (alignment adjustment).
[0058]
First, a projection display device will be described.
[0059]
FIG. 3 is a plan view showing an optical head part (each liquid crystal light valve and a part of the optical system) of the projection display device, and FIG. 4 shows a dichroic prism, a liquid crystal light valve corresponding to green, and a support member. It is a disassembled perspective view shown.
[0060]
As shown in FIG. 1 and FIG. 3, the projection display device corresponds to a red light source (a light guide optical system) including a light source (not shown), a plurality of dichroic mirrors (not shown), and red (for red). ) Liquid crystal light valve (liquid crystal light shutter array) 24, liquid crystal light valve (liquid crystal light shutter array) 25 corresponding to green (for green), and liquid crystal light valve (liquid crystal light shutter for blue) corresponding to blue Array) 26, a dichroic prism (color combining optical system) 21 on which a dichroic mirror surface 211 reflecting only red light and a dichroic mirror surface 212 reflecting only blue light are formed, and a projection lens (projection optical system) 22 And an L-shaped support body 23.
[0061]
The dichroic prism 21 and the projection lens 22 are each fixedly installed on the support 23.
[0062]
Further, the three liquid crystal light valves 24, 25, and 26 are respectively connected to the upper surface 213 in FIG. 3, the right surface 214 in FIG. 3, and the lower surface in FIG. 215.
[0063]
Since the structure of each of the support members 27 is the same, the support member 27 that supports (fixes) the green liquid crystal light valve 25 will be typically described.
[0064]
As shown in FIG. 4, the support member 27 includes a fixing plate 28 positioned on the dichroic prism 21 side, a fixing plate 29 positioned on the liquid crystal light valve 25 side, and four screws for fixing these fixing plates 28 and 29. 31.
[0065]
A rectangular opening 281 for passing light is formed at the center of the fixed plate 28. Screw holes 282 that are screwed into the screws 31 are formed at the four corners of the fixing plate 28.
[0066]
A rectangular opening 291 for passing light is formed at the center of the fixed plate 29. In the positions corresponding to the screw holes 282 at the four corners of the fixing plate 29, through holes 292 having a diameter smaller than the head of the screw 31 and into which the screw 31 is inserted are formed. Further, in the vicinity of each corner of the opening 291 of the fixed plate 29, a protrusion 293 is provided so as to protrude to the opposite side of the dichroic prism 21.
[0067]
The fixed plate 28 and the fixed plate 29 are bonded to the surface 214 of the prism 21 with an adhesive 33 while being fixed with four screws 31.
[0068]
Through holes 252 into which the protrusions 293 are inserted are formed at positions corresponding to the protrusions 293 at the four corners of the frame member 251 of the liquid crystal light valve 25. The inner diameter of the through hole 252 is set so that the liquid crystal light valve 25 can be displaced during positioning described later.
[0069]
And the notch part 253 for inserting the wedge 32 mentioned later is provided in the left and right end surfaces in FIG. 4 of the frame member 251 respectively.
[0070]
The liquid crystal light valve 25 is positioned by a positioning device 1 to be described later in a state where each projection 293 of the fixing plate 29 is inserted into the corresponding through hole 252.
[0071]
When the positioning is completed, the liquid crystal light valve 25 is temporarily fixed by curing the adhesive previously injected into each through hole 252 of the frame member 251. As the adhesive for temporary fixing, for example, an ultraviolet curable adhesive or the like can be used.
[0072]
After the temporary fixing, two wedges 32 are inserted from the notch 253 between the fixing plate 29 of the support member 27 and the frame member 251 of the liquid crystal light valve 25. The support member 27 and the liquid crystal light valve 25 are fixed (mainly fixed) with an adhesive via the wedges 32. As the fixing adhesive, for example, an ultraviolet curable adhesive can be used.
[0073]
Similarly to the green liquid crystal light valve 25 described above, the red liquid crystal light valve 24 and the blue liquid crystal light valve 26 are respectively positioned, temporarily fixed, and fixed by the positioning device 1 described later. .
[0074]
The liquid crystal light valves 24, 25, and 26 are respectively positioned with respect to the optical block 20 shown in FIG. 1, which includes the dichroic prism 21, the projection lens 22, and the support 23 on which three support members 27 are installed. Install (set) at a predetermined position in the posture.
[0075]
The optical block 20 and the liquid crystal light valves 24, 25 and 26 fixedly installed with respect to the dichroic prism 21 constitute a display unit of a projection display device.
[0076]
Next, the operation of the projection display device will be described.
[0077]
White light emitted from the light source (white light flux) is separated into three primary colors of red, green and blue by a color separation optical system, and as shown in FIG. 3, red light, green light and blue light are respectively The liquid crystal light valve 24 for red, the liquid crystal light valve 25 for green, and the liquid crystal light valve 26 for blue are led.
[0078]
The red light enters the liquid crystal light valve 24 and is modulated by the liquid crystal light valve 24, thereby forming a red image. At this time, each pixel of the liquid crystal light valve 24 is subjected to switching control (ON / OFF) by a drive circuit (drive means) (not shown) that operates based on a red image signal.
[0079]
Similarly, green light and blue light are incident on the liquid crystal light valves 25 and 26, respectively, and modulated by the liquid crystal light valves 25 and 26, whereby a green image and a blue image are formed. At this time, each pixel of the liquid crystal light valve 25 is controlled by a drive circuit (not shown) that operates based on the green image signal, and each pixel of the liquid crystal light valve 26 operates based on the blue image signal. Switching control is performed by a driving circuit (not shown).
[0080]
As shown in FIG. 3, the red image formed by the liquid crystal light valve 24, that is, red light from the liquid crystal light valve 24 is incident on the dichroic prism 21 from the surface 213, and is reflected by the dichroic mirror surface 211 in FIG. 3. The light is reflected to the left, passes through the dichroic mirror surface 212, and exits from the exit surface 216.
[0081]
Further, the green image formed by the liquid crystal light valve 25, that is, the green light from the liquid crystal light valve 25, enters the dichroic prism 21 from the surface 214, passes through the dichroic mirror surfaces 211 and 212, and exits. The light exits from the surface 216.
[0082]
Further, the blue image formed by the liquid crystal light valve 26, that is, the blue light from the liquid crystal light valve 26 is incident on the dichroic prism 21 from the surface 215, and is reflected by the dichroic mirror surface 212 to the left in FIG. The light passes through the dichroic mirror surface 211 and exits from the exit surface 216.
[0083]
Thus, the light of each color from the liquid crystal light valves 24, 25 and 26, that is, the images formed by the liquid crystal light valves 24, 25 and 26 are synthesized by the dichroic prism 21, thereby forming a color image. Is done. This image is projected (enlarged projection) on a screen (not shown) installed at a predetermined position by the projection lens 22.
[0084]
Next, the positioning device 1 used in the light valve positioning method of the present invention will be described. In the description of the structure of the positioning device 1, the green liquid crystal light valve 25 is representatively described.
[0085]
As shown in FIGS. 1 and 2, the positioning device 1 includes a chuck 11 that holds liquid crystal light valves 24, 25, and 26, a support member 12 that supports the chuck 11, and a three-axis table (displacement means) for focus adjustment. ) 8, a three-axis table (displacement means) 9 for position adjustment (for alignment adjustment), and four cameras (video cameras) 51, 52, 53 for focus adjustment capable of forming an electronic image (image data) , 54, four cameras (video cameras) 61, 62, 63 and 64 for position adjustment capable of forming an electronic image (image data), and four illumination devices 71, 72, 73 and 74. is doing.
[0086]
As shown in FIG. 1, a triaxial table 9 is supported by a triaxial table 8, a support member 12 is supported by the triaxial table 9, and a chuck 11 is installed at the tip of the support member 12.
[0087]
FIG. 5 is a diagram schematically showing the liquid crystal light valve 25 held by the chuck 11 of the positioning device 1.
[0088]
As shown in the figure, an X axis, a Y axis, and a Z axis (XYZ coordinates) orthogonal to each other are assumed.
[0089]
The focus adjustment triaxial table 8 is configured to move in the Z axis direction, rotate in both directions in the H direction (around the Y axis), and rotate in both directions in the V direction (around the X axis). Has been.
[0090]
When the three-axis table 8 moves in the Z-axis direction, the liquid crystal light valve 25 moves in the Z-axis direction together with the three-axis table 8. When the triaxial table 8 rotates in the H direction, the liquid crystal light valve 25 rotates in the H direction together with the triaxial table 8. When the triaxial table 8 rotates in the V direction, the liquid crystal light valve 25 rotates in the V direction together with the triaxial table 8.
[0091]
The displacement of the three-axis table 8, that is, the movement in the Z-axis direction and the rotation in the H-direction and the V-direction are each controlled by the control means 3 via a three-axis table drive mechanism 81 described later.
[0092]
Further, the position adjusting triaxial table 9 is configured to move in the X axis direction and the Y axis direction and to rotate in both directions in the W direction (around the Z axis).
[0093]
When the triaxial table 9 moves in the X axis direction, the liquid crystal light valve 25 moves in the X axis direction together with the triaxial table 9. When the triaxial table 9 moves in the Y axis direction, the liquid crystal light valve 25 moves in the Y axis direction together with the triaxial table 9. When the triaxial table 9 rotates in the W direction, the liquid crystal light valve 25 rotates in the W direction together with the triaxial table 8.
[0094]
The displacement of the three-axis table 9, that is, movement in the X-axis direction and Y-axis direction, and rotation in the W-direction are controlled by the control means 3 via a three-axis table drive mechanism 91 described later.
[0095]
Further, as shown in FIG. 1, the four lighting devices 71, 72, 73 and 74 are installed so as to be located on the back side (right side in FIG. 1) of the liquid crystal light valve 25 sandwiched between the chucks 11, respectively. Has been. The illumination ranges of the illumination devices 71 to 74 are set so as to cover at least imaging areas described later of the cameras 51 to 54 and the cameras 61 to 64, respectively.
[0096]
A screen 2 is installed at a position separated from the optical block 20 installed in the positioning device 1 by a predetermined distance.
[0097]
And the cameras 51-54 and the cameras 61-64 are each installed in the surface side (right side in FIG. 1) of the screen 2. As shown in FIG.
[0098]
FIG. 6 is a diagram schematically showing the projection area on the screen 2 by the liquid crystal light valve 25 and the imaging areas of the cameras 51 to 54 and 61 to 64.
[0099]
As shown in the figure, the projection area (projected image range) 110 has a shape corresponding to the effective screen area of the liquid crystal light valves 24 to 26, and is substantially rectangular (quadrangle).
[0100]
As shown in the figure, the cameras 51, 52, 53, and 54 are images of the four corners of the projection area 110 on the screen 2 by the liquid crystal light valve 25 and the inside of the projection area 110. That is, the imaging area (range of the captured image) 511 of the camera 51, the imaging area 521 of the camera 52, the imaging area 531 of the camera 53, and the imaging area 541 of the camera 54 are as shown in FIG. Are arranged as follows.
[0101]
In this embodiment, in the focus adjustment, the camera 51 that captures the upper left in FIG. 6 is “camera No. 1”, the camera 52 that captures the upper right in FIG. 6 is “camera No. 2”, and the lower left in FIG. The camera 53 is “camera No. 3”, and the camera 54 that captures the lower right in FIG.
[0102]
The cameras 61, 62, 63, and 64 are the four corners of the projection area 110 on the screen 2 by the liquid crystal light valve 25, and the corners 111a, 111b, and 111c of the projection area 110. 6, that is, the imaging area 611 of the camera 61, the imaging area 621 of the camera 62, the imaging area 631 of the camera 63, and the imaging area 641 of the camera 64, respectively, as shown in FIG. 6. It is arranged to be.
[0103]
These imaging areas 611, 621, 631 and 641 are substantially rectangular.
[0104]
In this embodiment, in the position adjustment (alignment adjustment), the camera 61 that captures the upper left in FIG. 6 is “camera No. 1”, the camera 62 that captures the upper right in FIG. Assume that the camera 63 that captures the lower left is “camera No. 3”, and the camera 64 that captures the lower right in FIG.
[0105]
As shown in FIG. 2, the positioning device 1 includes a control unit 3, a memory 4, and triaxial table drive mechanisms 81 and 91.
[0106]
The control means 3 is usually composed of a microcomputer (CPU), the memory 4, the cameras 51, 52, 53, 54, 61, 62, 63 and 64, the illumination devices 71, 72, 73 and 74, 3 The entire positioning device 1 such as the shaft table drive mechanisms 81 and 91 is controlled. The control means 3 also controls the drive circuits for the liquid crystal light valves 24, 25 and 26 as necessary.
[0107]
Next, the light valve positioning method of the present invention (the operation of the positioning device 1) will be described.
[0108]
When the optical block 20 is placed at a predetermined position of the positioning device 1 and the positioning device 1 is operated, the positioning device 1 automatically positions each of the liquid crystal light valves 24, 25 and 26, and these are optically detected. Temporarily fixed to the block 20.
[0109]
In this embodiment, when the liquid crystal light valves 24, 25 and 26 are positioned, the green liquid crystal light valve 25 is first positioned, and thereafter the red liquid crystal light valve 24 and the blue liquid crystal light valve 24 are positioned. The light valve 26 is positioned.
[0110]
That is, first, the liquid crystal light valve 25 is positioned at a preset position, then the position of the liquid crystal light valve 25 is detected, and the liquid crystal light valves 24 and 26 are respectively positioned at positions corresponding to the detected positions. Position.
[0111]
Further, when positioning each of the liquid crystal light valves 24, 25 and 26, first, focus adjustment (contrast adjustment) is performed, and then position adjustment (alignment adjustment) is performed.
[0112]
In focus adjustment, first, coarse adjustment (first focus adjustment) is performed, and then coarse adjustment is performed, and then fine adjustment (second focus adjustment) is performed. The focus adjustment of the green liquid crystal light valve 25 will be described below as a representative.
[0113]
FIG. 7 is a flowchart showing the control operation of the control means 3 of the positioning device 1 in focus adjustment. Hereinafter, description will be given based on this flowchart.
[0114]
In the focus adjustment, first, the four illumination devices 71 to 74 are turned on (step S101). The liquid crystal light valve 25 is not driven.
[0115]
By this step S101, as shown in FIG. 1, the light emitted from the illumination devices 71 to 74 and transmitted through each pixel of the liquid crystal light valve 25 is projected onto the screen 2.
[0116]
Next, the liquid crystal light valve 25 is moved along the Z axis to the Z axis direction reference position (image data acquisition start position in coarse adjustment) by the triaxial table 8 (step S102).
[0117]
The Z-axis direction reference position is a position separated by a predetermined amount (predetermined distance) in a direction approaching the dichroic prism 21 from a position expected to be in focus, or separated by a predetermined amount in a direction away from the dichroic prism 21. The position is preset.
[0118]
Next, camera no. 1 (camera 51), image data relating to the luminance of the imaging region 511 (hereinafter simply referred to as “image data”) is obtained and stored in the memory 4 (step S103).
[0119]
Next, camera no. 2 (camera 52), and the image data of the imaging area 521 is stored in the memory 4 (step S104).
[0120]
Next, camera no. 3 (camera 53), and the image data of the imaging area 531 is stored in the memory 4 (step S105).
[0121]
Next, camera no. 4 (camera 54), and the image data of the imaging area 541 is stored in the memory 4 (step S106).
[0122]
Next, as shown in FIG. 8, the liquid crystal light valve 25 is moved in the Z-axis direction by a certain amount (a certain distance) (for example, 50 μm) by the triaxial table 8 (step S107).
[0123]
When the Z-axis direction reference position is set at a predetermined position closer to the dichroic prism 21 than the position where the focus is expected, the liquid crystal light valve 25 is separated from the dichroic prism 21 in step S107. (Right side in FIG. 8).
[0124]
If the Z-axis direction reference position is set to a predetermined position farther from the dichroic prism 21 than the position where the focus is expected, the liquid crystal light valve 25 is moved closer to the dichroic prism 21 in step S107. In the direction of movement (left side in FIG. 8).
[0125]
Further, since step S107 is a movement control of the liquid crystal light valve 25 for acquiring image data in the coarse adjustment, the movement amount (movement distance) is the liquid crystal for acquiring image data in the fine adjustment of step 117 described later. The amount of movement of the liquid crystal light valve 25 in the movement control of the light valve 25 is set to be larger.
[0126]
When the movement amount of the liquid crystal light valve 25 in step S107 is L1, and the movement amount of the liquid crystal light valve 25 in step S117 described later is L2, the ratio L1 / L2 is preferably about 2 to 10. About ~ 7 is more preferable.
[0127]
Further, the moving amount L1 of the liquid crystal light valve 25 in step S107 is preferably about 20 to 240 μm, and more preferably about 30 to 100 μm.
[0128]
Further, the moving amount L2 of the liquid crystal light valve 25 in step S117 described later is preferably about 3 to 30 μm, and more preferably about 5 to 20 μm.
[0129]
Next, the movement amount of the liquid crystal light valve 25 from the Z-axis direction reference position (the distance between the Z-axis direction reference position and the current position of the liquid crystal light valve 25) reaches the Z-axis direction set movement amount in the coarse adjustment. It is determined whether or not it has been done (step S108).
[0130]
The Z-axis direction set movement amount is set to be larger than the distance between the Z-axis direction reference position and the position where the focus is expected.
[0131]
If it is determined in step S108 that the movement amount of the liquid crystal light valve 25 from the reference position in the Z-axis direction has not reached the Z-axis direction set movement amount, the process returns to step S103, and steps S103 to S108 are performed again. Execute.
[0132]
If it is determined in step S108 that the amount of movement of the liquid crystal light valve 25 from the reference position in the Z-axis direction has reached the set amount of movement in the Z-axis direction, focus calculation in coarse adjustment is performed (step S109).
[0133]
FIG. 9 is a diagram illustrating an image projected on the screen 2 and a luminance histogram when the image is captured.
[0134]
As shown in the figure, in an in-focus state (in-focus state), the image projected on the screen 2 has a high contrast (the image is clear). A graph (luminance histogram) showing the relationship between the luminance when this image is captured and the number of pixels of the luminance (the number of pixels on the camera) is as shown in FIG. Variance (σ 2 ) Is large.
[0135]
As the focus shifts, the contrast decreases (the image becomes unclear), and the brightness varies, that is, the brightness dispersion (σ 2 ) Becomes smaller.
[0136]
In step S109, the camera No. For all the images (electronic images) taken in 1, the image data is read from the memory 4 for each image, the luminance is totaled, and the variance of the luminance is obtained. The image having the largest variance, that is, the highest in FIG. The position of the liquid crystal light valve 25 in the Z-axis direction when an image in the upper state (in-focus state) or the state closest thereto is taken is obtained. When the liquid crystal light valve 25 is located at the obtained position, the camera no. 1 is the target image No. 1 in the coarse adjustment. Set to 1.
[0137]
Similarly, camera no. 2, Camera No. 3 and camera no. 4, the position of the liquid crystal light valve 25 in the Z-axis direction when the image having the largest luminance dispersion, that is, the image in the uppermost state in FIG. 9 or the state closest thereto is obtained. . When the liquid crystal light valve 25 is located at the obtained position, the camera no. 2, Camera No. 3 and camera no. 4 is the target image No. in the coarse adjustment. 2, target image No. 3 and the target image No. 4
[0138]
Then, from the obtained four positions, the angle of the liquid crystal light valve in the H direction (around the Y axis) from the target state (position and position in the Z axis direction) of the liquid crystal light valve 25 in the coarse adjustment, the V direction ( The angle around the X-axis) and the amount of displacement in the Z-axis direction are obtained.
[0139]
The target state is a corresponding image when the liquid crystal light valve 25 is located at the four positions obtained, that is, the target image No. 1, target image No. 2, target image No. 3 and the target image No. 4 is a state obtained simultaneously.
[0140]
Next, the triaxial table 8 is displaced so that the obtained shift positions in the Z-axis direction, the H-direction angle, and the V-direction angle are each zero (step S110).
[0141]
That is, in step S110, the liquid crystal light valve 25 is moved in the Z-axis direction and rotated in the H and V directions so that the target state is obtained by the three-axis table 8. As a result, the four corners are roughly focused.
[0142]
In step S110, the liquid crystal light valve 25 is moved by a predetermined amount in the X-axis direction and the Y-axis direction as necessary.
[0143]
In this step S110, the rough adjustment is completed.
[0144]
Next, a Z-axis direction moving range of the liquid crystal light valve 25 for obtaining image data in fine adjustment is set (step S111).
[0145]
In this step S111, the dichroic prism 21 is moved from the position (current position) of the liquid crystal light valve 25 at the end of the coarse adjustment by a predetermined distance in the direction approaching the dichroic prism 21 and from the position at the end of the coarse adjustment. Is set as a Z-axis direction setting position (image data acquisition start position in fine adjustment) in step S112 to be described later.
[0146]
Then, the Z-axis direction setting in the fine adjustment in step S118, which will be described later, is the distance between the position spaced apart by a predetermined amount in the direction approaching the dichroic prism 21 and the position spaced apart by a predetermined amount in the direction away from the dichroic prism 21. Set as movement amount.
[0147]
That is, the movement range of the liquid crystal light valve 25 in the Z-axis direction for image data acquisition in fine adjustment is a predetermined amount in the direction away from the dichroic prism 21 and a position away from the dichroic prism 21 in a direction away from the dichroic prism 21. A range from one to the other of the separated positions is set.
[0148]
Next, the liquid crystal light valve 25 is moved along the Z axis to the Z axis direction setting position (image data acquisition start position in fine adjustment) by the triaxial table 8 (step S112).
[0149]
Next, camera no. 1 and the image data of the imaging area 511 is stored in the memory 4 (step S113).
[0150]
Next, camera no. 2 and the image data of the imaging area 521 is stored in the memory 4 (step S114).
[0151]
Next, camera no. 3 and the image data of the imaging area 531 is stored in the memory 4 (step S115).
[0152]
Next, camera no. 4 and the image data of the imaging area 541 is stored in the memory 4 (step S116).
[0153]
Next, as shown in FIG. 8, the liquid crystal light valve 25 is moved in the Z-axis direction by a certain amount (for example, 10 μm) by the triaxial table 8 (step S117).
[0154]
If the Z-axis direction setting position is set to a predetermined position closer to the dichroic prism 21 than the position of the liquid crystal light valve 25 at the end of the coarse adjustment, the liquid crystal light valve 25 is moved from the dichroic prism 21 in step S117. It moves in the direction to separate (the right side in FIG. 8).
[0155]
If the Z-axis direction setting position is set at a predetermined position on the side farther from the dichroic prism 21 than the position of the liquid crystal light valve 25 at the end of coarse adjustment, in step S117, the liquid crystal light valve 25 is moved to the dichroic prism. 21 in a direction approaching 21 (left side in FIG. 8).
[0156]
Next, the movement amount of the liquid crystal light valve 25 from the Z-axis direction setting position (the distance between the Z-axis direction setting position and the current position of the liquid crystal light valve 25) is the Z-axis direction setting movement amount in fine adjustment. It is determined whether or not it has been reached (step S118).
[0157]
If it is determined in step S118 that the movement amount of the liquid crystal light valve 25 from the Z-axis direction setting position has not reached the Z-axis direction setting movement amount, the process returns to step S113, and steps S113 to S118 are performed again. Execute.
[0158]
If it is determined in step S118 that the movement amount of the liquid crystal light valve 25 from the Z-axis direction setting position has reached the Z-axis direction setting movement amount, focus calculation in fine adjustment is performed (step S119).
[0159]
In this step S119, the camera No. For all the images captured in 1, image data is read from the memory 4 for each image, the luminance is totaled, and the variance of the luminance is obtained. The image having the largest variance, that is, the uppermost state in FIG. The position of the liquid crystal light valve 25 in the Z-axis direction when an image closest to the image is taken is obtained. When the liquid crystal light valve 25 is located at the obtained position, the camera no. 1 is used to fine-tune the target image No. Set to 1.
[0160]
Similarly, camera no. 2, Camera No. 3 and camera no. 4, the position of the liquid crystal light valve 25 in the Z-axis direction when the image having the largest luminance dispersion, that is, the image in the uppermost state in FIG. 9 or the state closest thereto is obtained. . When the liquid crystal light valve 25 is located at the obtained position, the camera no. 2, Camera No. 3 and camera no. 4 is a target image No. 2, target image No. 3 and the target image No. 4
[0161]
Then, from the obtained four positions, the angle in the H direction, the angle in the V direction, and the Z axis of the liquid crystal light valve 25 from the target state (attitude and position in the Z axis direction) of the liquid crystal light valve 25 in the fine adjustment. The amount of deviation in the direction position is obtained.
[0162]
The target state is a corresponding image when the liquid crystal light valve 25 is located at the four positions obtained, that is, the target image No. 1, target image No. 2, target image No. 3 and the target image No. 4 is a state obtained simultaneously.
[0163]
As described above, the movement amount L2 in the fine adjustment in step S117 is set to be smaller than the movement amount L1 in the fine adjustment in step S107. Therefore, in the fine adjustment, images are taken at fine intervals. Image No. 1-No. 4 is a target image No. 4 in the rough adjustment. 1-No. Compared to 4, the image is in the uppermost state in FIG.
[0164]
Next, the triaxial table 8 is displaced so that the obtained shift positions in the Z-axis direction, the H-direction angle, and the V-direction angle are each zero (step S120).
[0165]
That is, in this step S120, the liquid crystal light valve 25 is moved in the Z-axis direction and rotated in the H and V directions so that the target state is obtained by the three-axis table 8. This brings the four corners into focus.
[0166]
In step S120, the liquid crystal light valve 25 is moved by a predetermined amount in the X-axis direction and the Y-axis direction as necessary.
[0167]
In step S120, the fine adjustment is finished, that is, the focus adjustment is finished.
[0168]
After the focus adjustment is completed, the focus adjustment cameras 51 to 54 are switched to the position adjustment cameras 61 to 64 (step S201), and then the process proceeds to position adjustment (alignment adjustment). Hereinafter, the position adjustment (alignment adjustment) of the liquid crystal light valve 25 for green will be described as a representative.
[0169]
10 and 13 to 18 are flowcharts showing the control operation of the control means 3 of the positioning device 1 in position adjustment (alignment adjustment). Hereinafter, description will be given based on this flowchart.
[0170]
In the following description of the alignment adjustment, moving the projection area 110 means moving the projection area 110 by moving the liquid crystal light valve 25 in the X-axis direction and the Y-axis direction by the three-axis table 9. . Further, rotating the projection area 110 means that the projection area 110 is rotated by rotating the liquid crystal light valve 25 in the W direction (around the Z axis) with the three-axis table 9.
[0171]
In the following description of alignment adjustment, the horizontal direction in FIGS. 19 to 25 corresponds to the X-axis direction of the liquid crystal light valve 25, and the vertical direction in FIGS. 19 to 25 corresponds to the Y-axis direction of the liquid crystal light valve 25. is doing.
[0172]
Before performing the following position adjustment, four patterns A1, B1, C1 corresponding to the portions including the corners 111a, 111b, 111c, and 111d of the projection area 110 as shown in FIG. And image data (luminance data) of D1 are stored. Furthermore, as shown in FIG. 12, a pattern H1 corresponding to a portion including the side 113a in the Y-axis direction on the left side in FIG. 6 of the projection area 110 and the X-axis direction on the lower side of the projection area 110 in FIG. The image data of the pattern V1 corresponding to the part including the side 114a is stored.
[0173]
Positions 121, 122, 123, and 124 are preset in the patterns A1, B1, C1, and D1, respectively. These positions 121, 122, 123, and 124 correspond to the positions of the edges (vertices) 112a, 112b, 112c, and 112d of the projection region 110, respectively. Further, positions 129a and 129b are preset in the patterns H1 and V1, respectively. These positions 129a and 129b are positioned so as to overlap with the corresponding sides 113a and 114a of the projection region 110.
[0174]
In addition, without storing these patterns in the memory 4 in advance, an external storage device (not shown) connected to the positioning device 1 (for example, a floppy disk, a hard disk, a magneto-optical disk, etc.) connected to the positioning device 1 as necessary in the following position adjustment. ) To the memory 4 as appropriate.
[0175]
Prior to describing the following position adjustment, pattern matching (pattern matching method) performed as appropriate during the following position adjustment will be described first.
[0176]
In pattern matching, for example, camera No. There are specific patterns (search patterns) such as patterns A1, B1, C1, D1, H1, and V1 in the image data (data to be searched) captured by 1, 2, 3, 4 and loaded into the memory 4 Search whether or not to do.
[0177]
If such a search pattern does not exist, it is determined that such a search pattern does not exist in the searched data.
[0178]
On the other hand, when such a search pattern exists, it is determined that such a search pattern exists in the searched data. At this time, the coordinates (X coordinate, Y coordinate) of the position (for example, positions 121 to 124, 129a, 129b, etc.) when the predetermined area in the captured image (data to be searched) matches the search pattern are obtained. obtain. If this coordinate (position) is not required in the subsequent processing, such a coordinate need not be obtained.
[0179]
Here, in the pattern matching, “the search pattern exists” does not mean that the pattern that completely matches the search pattern exists in the searched data, but the degree of matching with the search pattern (recognition rate) This means that there is a pattern having a value equal to or greater than a certain value (threshold value).
[0180]
This value (threshold value) varies depending on various conditions such as the environment where the positioning device 1 is placed, but is preferably set to about 80%, more preferably about 90%. . If the threshold value is set to this value, pattern matching can be performed with higher accuracy.
[0181]
In addition, when outputting or returning the result that the search pattern exists in the search target data, the degree of coincidence may be returned or output as necessary.
[0182]
As shown in FIG. 10, in the position adjustment (alignment adjustment), first, rough adjustment is performed (S300), and then fine adjustment (S350) is performed.
[0183]
First, the rough adjustment in step S300 will be described.
[0184]
In the coarse adjustment in step S300, the first process (process S30A), the second process (process S30B), the third process (process S30C), the fourth process (process S30D), and the fifth process The processing (processing S30E), the sixth processing (processing S30F), the seventh processing (processing S30G), and the eighth processing (processing S30H) are performed. Hereinafter, each process is demonstrated in detail for every step based on FIGS. 13-16 and 19-24.
[0185]
[Process S30A] The first process includes steps S301 to S303 and a pattern C introduction process (process S90a).
[0186]
By executing Steps S301 to S303, it is possible to detect whether or not the corner 111c of the projection area 110 exists within the imaging area (target area) 631. Further, when the corner 111c does not exist in the imaging region 631, the corner 111c can be introduced into the imaging region 631 by executing the pattern C introduction process (processing S90a).
[0187]
[Step S301] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0188]
[Step S302] Next, pattern matching is performed on the image data stored in the memory 4 in Step S301 using the pattern C1 as a search pattern.
[0189]
[Step S303] Next, as a result of pattern matching, when the pattern C1 exists in the image data stored in the memory 4 in Step S301, that is, as shown in FIG. If the part 111c exists, the second process (process S30B), that is, step S304 is performed, and if it does not exist, the pattern C introduction process (process S90a) is performed.
[0190]
Here, “the corner 111c does not exist in the imaging region 631” means that the result that the corner 111c does not exist is obtained by pattern matching. In the following description, the same can be said when the same determination as in this step is performed based on the result of pattern matching.
[0191]
[Processing S90a] The pattern C introduction process includes steps S901 to S910 as shown in FIG.
[0192]
By executing this pattern C introduction processing, the corner 111c can be placed in or close to the imaging region 631. Furthermore, by executing this process, the relative positional relationship between the projection area 110 and the imaging area 631 can be known.
[0193]
[Step S901] First, pattern matching is performed on the image data stored in the memory 4 in Step S301 using the pattern H1 as a search pattern.
[0194]
[Step S902] Next, as a result of pattern matching, when the pattern H1 is present in the image data stored in the memory 4 in Step S301, that is, as shown in FIG. When the side 113a of the area 110 in the Y-axis direction exists, step S903 is performed, and when it does not exist, step S904 is performed.
[0195]
[Step S903] Next, the projection area 110 is moved (displaced) upward in FIG. The amount of movement at this time is, for example, an amount corresponding to 1/3 of the length n of the imaging region 631 in the Y-axis direction.
[0196]
Accordingly, as shown in FIG. 19B2, the corner 111c of the projection area 110 enters the imaging area 631. Alternatively, for example, when the corner 111c of the projection area 110 is far from the imaging area 631, as in the case where the corner 111c exists at a position separated from the imaging area 631 by n / 3, the corner 111c of the projection area 110 is obtained. Approaches the imaging region 631.
[0197]
Then, it returns to step S301.
[0198]
In this step, the amount of movement of the projection region 110 can be set to an arbitrary value according to various conditions when adjusting the alignment. This can also be said when the same processing as this step is performed in the following steps (for example, step S906, step S909, step S910, etc.).
[0199]
[Step S904] Next, pattern matching is performed on the image data stored in the memory 4 in step S301 using the pattern V1 as a search pattern.
[0200]
[Step S905] Next, as a result of pattern matching, when the pattern V1 is present in the image data stored in the memory 4 in step S301, that is, as shown in FIG. 19 (A3), projection is performed within the imaging region 631. When the side 114a of the area 110 in the X-axis direction exists, step S906 is performed, and when it does not exist, step S907 is performed.
[0201]
[Step S906] Next, the projection area 110 is moved rightward in FIG. The amount of movement at this time is, for example, an amount corresponding to 1/3 of the length m of the imaging region 631 in the X-axis direction.
[0202]
Thereby, as shown in FIG. 19 (B3), the corner 111c of the projection area 110 enters the imaging area 631. Alternatively, for example, when the corner 111c of the projection area 110 is far from the imaging area 631, as in the case where the corner 111c exists at a position away from m / 3 from the imaging area 631, the corner 111c of the projection area 110 is obtained. Approaches the imaging region 631.
[0203]
Then, it returns to step S301.
[0204]
[Step S907] Next, for the image data stored in the memory 4 in Step S301, the brightness of the entire image data, that is, the brightness in the imaging region 631 is obtained.
[0205]
[Step S908] Next, as a result of obtaining the luminance, if the luminance is less than the threshold value (when the brightness in the imaging region 631 is less than the threshold value), that is, as shown in FIG. If none of the corner portion 111c and the sides 113a and 114a of the projection area 110 exists in 631, step S909 is executed. On the other hand, when the luminance is a certain value or more (when the brightness in the imaging region 631 is greater than or equal to the threshold value), that is, when the imaging region 631 is included in the projection region 110 as shown in FIG. Executes step S910.
[0206]
This threshold value is sufficiently higher than the luminance when none of the corners 111c and the sides 113a and 114a of the projection area 110 are present in the imaging area 631, and the imaging area 631 is included in the projection area 110. The brightness is set to be sufficiently lower than the brightness in the case where it is set.
[0207]
[Step S909] Next, the projection area 110 is moved in the lower left direction in FIG. At this time, the amount of movement in the downward direction in FIG. 20 is, for example, an amount corresponding to 1/3 of the length n of the imaging region 631 in the Y-axis direction, and the amount of movement in the left direction in FIG. This is an amount corresponding to 1/3 of the length m of the imaging region 631 in the X-axis direction.
[0208]
Thereby, as shown in FIG. 20 (B4), the corner 111c of the projection area 110 enters the imaging area 631. Alternatively, when the corner 111 c of the projection area 110 is separated from the imaging area 631 by a distance corresponding to the movement amount, the corner 111 c of the projection area 110 approaches the imaging area 631.
[0209]
Then, it returns to step S301.
[0210]
[Step S910] Next, the projection area 110 is moved in the upper right direction in FIG. At this time, the movement amount in the upward direction in FIG. 20 is, for example, an amount corresponding to 1/3 of the length n in the Y-axis direction of the imaging region 631, and the movement amount in the right direction in FIG. This is an amount corresponding to 1/3 of the length m of the imaging region 631 in the X-axis direction.
[0211]
Thereby, as shown in FIG. 20 (B5), the corner 111c of the projection area 110 enters the imaging area 631. Alternatively, when the corner 111 c of the projection area 110 is separated from the imaging area 631 by a distance corresponding to the movement amount, the corner 111 c of the projection area 110 approaches the imaging area 631.
[0212]
Then, it returns to step S301.
[0213]
Even when the corner 111c cannot be placed in the imaging region 631 by one pattern C introduction process, as in the case where the corner 111c is greatly separated from the imaging region 631, the pattern C introduction processing is performed as 1 Since the corner 111c can be brought closer to the imaging region 631 each time the execution is performed, the corner 111c can be finally placed in the imaging region 631 by executing the pattern C introduction process a plurality of times.
[0214]
[Process S30B] The second process includes steps S304 and S305.
[0215]
By executing the second process, the corner 111c can be matched with the center 125c of the imaging region 631.
[0216]
[Step S304] First, the X-axis direction of the projection area 110 for moving the edge 112c of the projection area 110 to the center 125c of the imaging area 631 based on the position 123 obtained by the last pattern matching in step S302. And the amount of movement in the Y-axis direction is obtained.
[0217]
As described above, the coordinates of the obtained position 123 correspond to the coordinates of the edge 112c, that is, the coordinates of the position 123 represent the coordinates of the edge 112c. The amount of movement of the projection area 110 can be obtained from the coordinates with the center 125c.
[0218]
[Step S305] Next, the projection area 110 is moved based on the movement amounts of the projection area 110 in the X-axis direction and the Y-axis direction obtained in step S304.
[0219]
Accordingly, as shown in FIG. 19B1, the corner 111c of the projection area 110 matches the center 125c of the imaging area 631.
[0220]
In the third to fifth processes (processes S30C to S30E) described below, alignment is performed based on the imaging area 611 and the imaging area 631. That is, the alignment is performed by placing a weight on the Y-axis direction of the projection region 110, in other words, the Y-axis direction of the liquid crystal light valve 25.
[0221]
[Process S30C] The third process includes steps S306 to S310 and a pattern A introduction process (process S90b).
[0222]
By executing the first process and the second process, the corner 111c of the projection area 110 can be introduced into the imaging area 631, and the corner 111c can be matched with the center 125c of the imaging area 631. .
[0223]
However, even after performing such processing, as shown in FIG. 21A6, when the side 113a is largely inclined with respect to a line connecting the center 125c of the imaging region 631 and the center 125a of the imaging region 611. In some cases, the corner 111a is not within the imaging region 611.
[0224]
Even in such a case, the corner 111a can be introduced into the imaging region 611 by executing the third process.
[0225]
Prior to executing the following step S308, 0 is substituted in advance for the variable I necessary for calculating the amount of movement of the projection region 110 in step S921 described later.
[0226]
[Step S306] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0227]
[Step S307] Next, pattern matching is performed on the image data stored in the memory 4 in step S306 using the pattern C1 as a search pattern.
[0228]
[Step S308] Next, camera no. 1 (camera 61), and the image data of the imaging area 611 is stored in the memory 4.
[0229]
[Step S309] Next, pattern matching is performed on the image data stored in the memory 4 in Step S308 using the pattern A1 as a search pattern.
[0230]
[Step S310] Next, as a result of pattern matching, when the pattern A1 does not exist in the image data stored in the memory 4 in Step S308, that is, as shown in FIG. If the part 111a does not exist, the pattern A introduction process (process S90b) is executed. On the other hand, if the pattern A1 exists, the fourth process (process S30D), that is, step S311 is executed.
[0231]
[Process S90b] The pattern A introduction process includes steps S921 and S922.
[0232]
The corner 111a can be introduced into the imaging region 611 by executing this pattern A introduction process a predetermined number of times.
[0233]
[Step S921] First, the position (coordinates) of the destination edge 112c when moving the projection area 110 in the next step S922 is obtained. This can be obtained, for example, by the following equation. This expression gives the coordinates of the edge 112c corresponding to the value of I. As described above, n is the length of the imaging region 631 in the Y-axis direction, and m is the length of the imaging region 631 in the X-axis direction.
[0234]
Position in the X-axis direction = IDOU_X1 + (I mod 3) * (m / 3) (Here, (I mod 3) means obtaining the remainder when I is divided by 3)
Position in the Y-axis direction = IDOU_Y1 + (I / 3) * (n / 3) (Note that the obtained movement amount is rounded down)
Here, the constants IDOU_X1 and IDOU_Y1 correspond to the coordinates of the movement destination of the edge 112c in the next step S922 when I = 0.
[0235]
These constants IDOU_X1 and IDOU_Y1 are preferably values such that the position of the edge 112c after movement when I = 0 is located at the upper left in FIG. 21 rather than the center 125c of the imaging region 631. Thereby, the edge 112a can be efficiently introduced into the imaging region 611.
[0236]
[Step S922] Next, the projection area 110 is moved so that the edge 112c comes to the position of the movement destination of the edge 112c obtained in step S921.
[0237]
Thereby, as shown in FIGS. 21B61 to B64 and FIGS. 22B65 to B69, the edge 112a enters the imaging region 611 when I becomes a predetermined value.
[0238]
In FIG. 21, (B61) shows the position of the projection area 110 when I = 0, (B62) shows the position of the projection area 110 when I = 1, and (B63) shows the projection when I = 2. The position of the area 110, (B64) is the position of the projection area 110 when I = 3, (B65) in FIG. 22 is the position of the projection area 110 when I = 4, and (B66) is I = 5. (B67) is the position of the projection area 110 when I = 6, (B68) is the position of the projection area 110 when I = 7, and (B69) is I = The position of the projection area 110 at 8 is shown.
[0239]
In the example illustrated in FIGS. 21 and 22, the edge 112 a enters the imaging region 611 when I = 8.
[0240]
Thereafter, the process returns to step S308. At that time, 1 is added to I.
[0241]
Thus, the edge 112a can be placed in the imaging region 611 by executing the pattern A introduction process (process S90b) a predetermined number of times while changing the value of I.
[0242]
In step S921, the position in the X-axis direction and the position in the Y-axis direction of the edge 112c are obtained from the same variable I. However, variables corresponding to the X-axis and the Y-axis are prepared, respectively. The position in the axial direction and the position in the Y-axis direction may be obtained independently from these prepared variables.
[0243]
In step S921, the position in the X-axis direction and the position in the Y-axis direction of the edge 112c are obtained by calculation. However, the position or movement amount in the X-axis direction and the Y-axis direction corresponding to the value I is determined in advance. Alternatively, it may be prepared as a table, and the projection area 110 may be moved in step S922 based on the table.
[0244]
[Process S30D] The fourth process includes steps S311 and S312.
[0245]
By executing the fourth process, the straight line 126 (target line) connecting the center 125a of the imaging region 611 and the center 125c of the imaging region 631 and the side 113 can be made parallel. That is, the inclination of the side 113 can be eliminated.
[0246]
[Step S311] First, in the pattern A introduction process (process S90b), the coordinates (position) of the edge 112c obtained last in step S921 and the coordinates of the edge 112a obtained by the last pattern matching in step S309 are as follows. Based on the above, the inclination θ1 between the straight line 126 and the side 113a as shown in FIG.
[0247]
If the pattern A introduction process (process S90b) has never been performed, the position 123 obtained by the pattern matching in step S307 becomes the position of the edge 112c.
[0248]
[Step S312] Next, the projection area 110 is rotated based on θ1 obtained in Step S311.
[0249]
Thereby, as shown in FIG. 23 (B71), the straight line 126 and the side 113a can be made parallel.
[0250]
[Process S30E] The fifth process includes Steps S313 to S317.
[0251]
By executing the fifth process, the edges 112a and 112c approach the target position. In addition, the number of pixels in the projection area 110 that falls within the imaging area 611 and the number of pixels in the projection area 110 that fall within the imaging area 631 can be made substantially equal.
[0252]
[Step S313] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0253]
[Step S314] Next, pattern matching is performed on the image data stored in the memory 4 in step S313 using the pattern C1 as a search pattern.
[0254]
[Step S315] Next, the camera No. 1 (camera 61), and the image data of the imaging area 611 is stored in the memory 4.
[0255]
[Step S316] Next, pattern matching is performed on the image data stored in the memory 4 in Step S315 using the pattern A1 as a search pattern.
[0256]
[Step S317] Next, based on the positions of the edge 112a and the edge 112c obtained by the pattern matching in the steps S314 and S316, the straight line 126 and the side 113a are matched and y1 = y2. Next, the projection area 110 is moved.
[0257]
Note that y1 is the width between the upper side 612 of the imaging region 611 in FIG. 23 and the upper side 114b of the projection region 110 in FIG. 23, as shown in FIG. 23 (B72). Further, y2 is a width between the lower side 632 in FIG. 23 of the imaging region 631 and the lower side 114a of the projection region 110 in FIG.
[0258]
Thereby, as shown in FIG. 23 (B72), the edges 112a and 112c approach the target position. Further, the number of pixels of the projection area 110 that falls within the imaging area 611 and the number of pixels of the projection area 110 that fall within the imaging area 631 substantially coincide.
[0259]
The sixth to eighth processes described below are processes similar to the third to fifth processes.
[0260]
In the third to fifth processes, alignment is performed with reference to the imaging region 611 and the imaging region 631. In other words, alignment was performed with weight placed in the Y-axis direction (side 113a) of the projection region 110, in other words, in the Y-axis direction of the liquid crystal light valve 25. On the other hand, in the following sixth to eighth processes, alignment is performed based on the imaging region 631 and the imaging region 641. In other words, alignment is performed with emphasis placed on the X-axis direction (side 114a) of the projection region 110, in other words, the X-axis direction of the liquid crystal light valve 25.
[0261]
[Process S30F] The sixth process includes steps S318 to S322 and a pattern D introduction process (process S90c).
[0262]
By executing the third to fifth processes, the corner 111a of the projection area 110 can be introduced into the imaging area 611, the side 113a can be parallel to the straight line 126, and the edge 112a 112c can be brought close to the target position.
[0263]
However, even after such processing is performed, as shown in FIG. 23A8, there is a very small possibility that the corner 111d is not within the imaging region 641.
[0264]
Even in such a case, the corner 111d can be introduced into the imaging region 641 by executing the sixth process.
[0265]
Prior to executing the following step S320, 0 is substituted in advance for the variable I necessary for calculating the amount of movement of the projection region 110 in step S931 described later.
[0266]
[Step S318] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0267]
[Step S319] Next, pattern matching is performed on the image data stored in the memory 4 in step S318 using the pattern C1 as a search pattern.
[0268]
[Step S320] Next, the camera No. 4 (camera 64), and the image data of the imaging area 641 is stored in the memory 4.
[0269]
[Step S321] Next, pattern matching is performed on the image data stored in the memory 4 in Step S320 using the pattern D1 as a search pattern.
[0270]
[Step S322] Next, as a result of pattern matching, when the pattern D1 does not exist in the image data stored in the memory 4 in Step S320, that is, as shown in FIG. If the part 111d does not exist, the pattern D introduction process (process S90c) is executed. On the other hand, if the pattern D1 exists, the seventh process (process S30G), that is, step S323 is executed.
[0271]
[Processing S90c] The pattern D introduction process includes steps S931 and S932.
[0272]
By executing the pattern D introduction process a predetermined number of times, the corner 111d can be introduced into the imaging region 641.
[0273]
[Step S931] First, the position (coordinates) of the destination edge 112c when moving the projection region 110 in the next step S932 is obtained. This can be obtained, for example, by the following equation. This expression gives the coordinates of the edge 112c corresponding to the value of I. As described above, n is the length of the imaging region 631 in the Y-axis direction, and m is the length of the imaging region 631 in the X-axis direction.
[0274]
Position in the X-axis direction = IDOU_X2 + (I mod 3) * (m / 3) (Here, (I mod 3) means that the remainder when I is divided by 3 is obtained)
Position in the Y-axis direction = IDOU_Y2 + (I / 3) * (n / 3) (Note that the obtained moving amount is rounded down)
Here, the constants IDOU_X2 and IDOU_Y2 correspond to the coordinates of the movement destination of the edge 112c in the next step S932 when I = 0.
[0275]
These constants IDOU_X2 and IDOU_Y2 are preferably values such that the position of the edge 112c after movement when I = 0 is located at the upper left in FIG. 23 rather than the center 125c of the projection region 631. Thereby, the edge 112d can be efficiently introduced into the imaging region 641.
[0276]
[Step S932] Next, the projection area 110 is moved so that the edge 112c comes to the position of the movement destination of the edge 112c obtained in step S931.
[0277]
As a result, the edge 112d enters the imaging region 641 when I reaches a predetermined value.
[0278]
Thereafter, the process returns to step S320. At that time, 1 is added to I.
[0279]
As described above, by executing the pattern D introduction process (process S90c) a predetermined number of times while changing the value of I, the edge 112d can be placed in the imaging region 641.
[0280]
In step S931, the position in the X-axis direction and the position in the Y-axis direction of the edge 112c are obtained from the same variable I. However, variables corresponding to the X-axis and the Y-axis are prepared, respectively. The position in the axial direction and the position in the Y-axis direction may be obtained independently from these prepared variables.
[0281]
In step S931, the position in the X-axis direction and the position in the Y-axis direction of the edge 112c are obtained by calculation. However, the position or movement amount in the X-axis direction and the Y-axis direction corresponding to the value of I is determined in advance. Alternatively, it may be prepared as a table, and the projection area 110 may be moved in step 932 based on the table.
[0282]
[Process S30G] The seventh process includes steps S323 and S324.
[0283]
By executing the seventh process, the straight line 127 (target line) connecting the center 125c of the imaging region 631 and the center 125d of the imaging region 641 and the side 114a can be made parallel. That is, the inclination of the side 114a can be eliminated.
[0284]
[Step S323] First, in the pattern D introduction process (process S90c), the coordinates (position) of the edge 112c finally obtained in step S931 and the coordinates of the edge 112d obtained by the last pattern matching in step S321 are as follows. Based on the above, the inclination θ2 between the straight line 127 and the side 114a as shown in FIG.
[0285]
If the pattern D introduction process (process S90c) has never been performed, the position 123 obtained by the pattern matching in step S319 becomes the position of the edge 112c.
[0286]
[Step S324] Next, the projection area 110 is rotated based on θ2 obtained in step S323.
[0287]
Thereby, as shown in FIG. 24 (B91), the straight line 127 and the side 114a can be made parallel.
[0288]
[Process S30H] The eighth process includes steps S325 to S329.
[0289]
By executing the eighth process, the edges 112c and 112d approach the target position. In addition, the number of pixels in the projection area 110 that falls within the imaging area 631 and the number of pixels in the projection area 110 that fall within the imaging area 641 can be made substantially equal.
[0290]
[Step S325] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0291]
[Step S326] Next, pattern matching is performed on the image data stored in the memory 4 in step S325 using the pattern C1 as a search pattern.
[0292]
[Step S327] Next, the camera No. 4 (camera 64), and the image data of the imaging area 641 is stored in the memory 4.
[0293]
[Step S328] Next, pattern matching is performed on the image data stored in the memory 4 in Step S327 using the pattern D1 as a search pattern.
[0294]
[Step S329] Next, based on the positions of the edge 112c and the edge 112d obtained by the pattern matching in the steps S314 and S316, the straight line 127 and the side 114a are matched and x1 = x2. Next, the projection area 110 is moved.
[0295]
Note that x1 is the width between the left side 633 in FIG. 24 of the imaging region 631 and the left side 113a in FIG. 24 of the projection region 110, as shown in FIG. 24 (B92). Further, x2 is the width between the right side 643 of the imaging region 641 in FIG. 24 and the right side 113b of the projection region 110 in FIG.
[0296]
Thereby, as shown in FIG. 24 (B92), the edges 112c and 112d approach the target position. Further, the number of pixels of the projection area 110 that falls within the imaging area 631 and the number of pixels of the projection area 110 that fall within the imaging area 641 substantially coincide.
[0297]
Thus, the rough adjustment is completed.
[0298]
Hereinafter, the first embodiment of the fine adjustment (position adjustment process) in step S350 will be described.
[0299]
By performing the fine adjustment in the following step S350, the alignment can be adjusted with very high accuracy. Furthermore, even when the projection region 110 is not completely rectangular as shown in FIG. 25 (A13), alignment adjustment can be performed accurately.
[0300]
Prior to explaining the fine adjustment in step S350, the four vertex position measurement process (process S90d) that is appropriately performed during the fine adjustment in step S350 will be described first.
[0301]
[Processing S90d] As shown in FIG. 18, the four-vertex position measurement processing includes steps S941 to S948.
[0302]
By executing the four-vertex position measurement process, the coordinates of the edge 112a, the edge 112b, the edge 112c, and the edge 112d can be obtained.
[0303]
[Step S941] First, camera no. 1 (camera 61), and the image data of the imaging area 611 is stored in the memory 4.
[0304]
[Step S942] Next, pattern matching is performed on the image data stored in the memory 4 in Step S941 using the pattern A1 as a search pattern.
[0305]
[Step S943] Next, camera no. 2 (camera 62), and the image data of the imaging area 621 is stored in the memory 4.
[0306]
[Step S944] Next, pattern matching is performed on the image data stored in the memory 4 in step S943 using the pattern B1 as a search pattern.
[0307]
[Step S945] Next, the camera No. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0308]
[Step S946] Next, pattern matching is performed on the image data stored in the memory 4 in step S945 using the pattern C1 as a search pattern.
[0309]
[Step S947] Next, camera no. 4 (camera 64), and the image data of the imaging area 641 is stored in the memory 4.
[0310]
[Step S948] Next, pattern matching is performed on the image data stored in the memory 4 in step S947 using the pattern D1 as a search pattern.
[0311]
Note that the coordinates of the edge 112a obtained by the above four vertex position measurement process (process S90d) are (gluxg, gluyg), the coordinates of the edge 112b are (gruxg, gruyg), the coordinates of the edge 112c are (gldxg, gldyg), The coordinates of the edge 112d are set to (grdxg, grdyg) (see FIG. 25 (A10)).
[0312]
In the fine adjustment in step S350, a first process (process S35A), a second process (process S35B), and a third process (process S35C) are performed. Hereinafter, each process will be described in detail for each step based on FIGS.
[0313]
[Processing S35A] The first processing includes four vertex position measurement processing (Processing S90d) and Steps S351 to S353.
[0314]
By executing the first process, the inclination of the entire projection area 110, that is, the inclination of the entire liquid crystal light valve 25 is minimized.
[0315]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0316]
[Step S351] Next, θgux, θgdx, θgly, and θgry are obtained based on the coordinates of the edges 112a to 112d obtained by the four vertex position measurement processing.
[0317]
As illustrated in FIG. 25A11, θgux is an angle between the side 114b and a line connecting the center 125a of the imaging region 611 and the center 125b of the imaging region 621. θgdx is an angle between the side 114a and a line connecting the center 125c of the imaging region 631 and the center 125d of the imaging region 641. θgly is an angle between the side 113a and a line connecting the center 125a of the imaging region 611 and the center 125c of the imaging region 631. θgry is an angle between the side 113b and a line connecting the center 125b of the imaging region 621 and the center 125d of the imaging region 641.
[0318]
These θgux, θgdx, θgly, and θgry are the coordinates (gluxg, gluyg), (gruxg, glyg), (gldxg, gldyg), and (grdxg, grdyg) and the coordinates of the centers 125a to 125d.
[0319]
[Step S352] Next, based on θgux, θgdx, θgly, and θgry obtained in step S351, a rotation angle θ for rotating the projection region 110 in the next step S353 is obtained.
[0320]
This can be obtained from the following equation. Note that θk is a preset reference angle.
[0321]
θgx = (θgux + θgdx) / 2
θgy = (θgly + θgry) / 2
θg = (θgx + θgy) / 2
θ = θk-θg
[Step S353] Next, the projection area 110 is rotated by the rotation angle θ degrees obtained in step S352.
[0322]
Thereby, as shown in FIG. 25 (B12), the inclination of the projection area 110 in the X-axis direction and the y-axis direction is minimized.
[0323]
[Process S35B] The second process includes a four-vertex position measurement process (Process S90d) and Steps S354 to S356.
[0324]
By executing this second process, the position of the center of the projection area 110 matches the preset reference coordinates. That is, the center position of the projection area 110 can be adjusted by executing the second process.
[0325]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0326]
[Step S354] Next, based on the coordinates of the edges 112a to 112d obtained by the four-vertex position measurement process, the center coordinates (gxg, gyg) of the projection area 110 are obtained.
[0327]
The coordinates are obtained from, for example, the coordinates (gluxg, gluyg), (gruxg, gryg), (gldxg, gldyg), (grdxg, grdyg) of the edges 112a to 112d obtained in the four-vertex position measurement process (process S90d). The coordinates of the midpoints of the sides 113a, 113b, 114a, and 114b are obtained, and the straight line connecting the midpoint of the side 113a and the midpoint of the side 113b, the midpoint of the side 114a, and the side 114b are obtained from the coordinates of these midpoints. It can be obtained by obtaining the coordinates of the intersection point with the straight line connecting the middle point.
[0328]
That is, the coordinates of the intersection of the straight line connecting the midpoint of the side 113a and the midpoint of the side 113b and the straight line connecting the midpoint of the side 114a and the midpoint of the side 114b are the center coordinates (gxg, gyg).
[0329]
[Step S355] Next, based on the center coordinates (gxg, gyg) of the projection area 110 obtained in step S354, the movement amount when moving the projection area 110 in the next step S356 is obtained.
[0330]
This can be obtained from the following equation. Note that kxg and kyg are preset reference coordinates.
[0331]
X-axis travel = kxg-gxg
Y-axis movement amount = kyg-gyg
[Step S356] Next, the projection area 110 is moved based on the X-axis movement amount and the Y-axis movement amount obtained in Step S355.
[0332]
As a result, the center of the imaging region 110 moves to the reference coordinates.
[0333]
[Process S35C] The third process includes a four-vertex position measurement process (Process S90d) and Steps S357 to S359.
[0334]
By executing the third process, the entire liquid crystal light valve 25 can be adjusted to a position where the deviation in the X-axis direction and the Y-axis direction is minimized.
[0335]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0336]
[Step S357] Next, with respect to the coordinates of the edges 112a to 112d obtained by the four-vertex position measurement process, deviations from reference coordinates (target positions) set in advance for the respective edges 112a to 112d are obtained.
[0337]
Here, the reference coordinates of the edge 112a are (kluxg, kluyg), the reference coordinates of the edge 112b are (kruxg, kruyg), the reference coordinates of the edge 112c are (klddxg, kldyg), and the reference coordinates of the edge 112d are (krdxg, krdyg). And
[0338]
Here, assuming that the deviations of the edges 112a to 112d from the reference coordinates in the X-axis direction are X1 to X4, and the deviations of the edges 112a to 112d from the reference coordinates in the Y-axis direction are Y1 to Y4, respectively, X1 to X4 and Y1. -Y4 can be represented by the following formula, for example.
[0339]
X1 = kluxg-gluxg
X2 = gruxg-kruxg
X3 = kldxg-gldxg
X4 = grdxg-krdxg
Y1 = kluyg-gluyg
Y2 = kruyg-gruyg
Y3 = gldyg-kldyg
Y4 = grdyg-krdyg
[Step S358] Next, based on X1 to X4 and Y1 to Y4 obtained in Step S357, the amount of movement for moving the projection region 110 in the next Step S359 is obtained.
[0340]
The amount of movement in the X-axis direction is obtained by taking the average of X1 to X4 having the first largest absolute value and the second largest absolute value. When the absolute value of the largest value and the second largest value have the same sign, the average of the first absolute value and the third largest absolute value among X1 to X4 is taken. Thus, the amount of movement in the X-axis direction is obtained. Furthermore, when the absolute value of the largest value and the third largest value have the same sign, the average of the first absolute value and the fourth largest absolute value among X1 to X4 is calculated. As a result, the amount of movement in the X-axis direction is obtained.
[0341]
The amount of movement in the Y-axis direction is obtained by taking the average of Y1 to Y4 having the first largest absolute value and the second largest absolute value. When the absolute value of the largest value and the second largest value have the same sign, the average of the first absolute value and the third largest absolute value among Y1 to Y4 is taken. Thus, the amount of movement in the Y-axis direction is obtained. Furthermore, when the absolute value of the largest value and the third largest value have the same sign, the average of the first absolute value and the fourth largest absolute value among Y1 to Y4 is calculated. As a result, the amount of movement in the Y-axis direction is obtained.
[0342]
[Step S359] Next, the projection region 110 is moved based on the amount of movement in the X-axis direction and the amount of movement in the Y-axis direction obtained in Step S358.
[0343]
As a result, of the edges 112a to 112d (corner portions 111a to 111d), the edge (corner portion) farthest from the reference coordinates corresponding to these approaches the reference coordinates.
[0344]
Therefore, for example, as shown in FIG. 25 (A13), the position can be accurately adjusted even when the projection region 110 is not completely rectangular.
[0345]
This completes the fine adjustment (position adjustment process) in step S350 of the first embodiment.
[0346]
In this fine adjustment, the four vertex position measurement process (process S90d) is performed for each of the first process (process S35A), the second process (process S35B), and the third process (process S35C). However, the four-vertex position measurement process (process S90d) may not be performed for each process. However, it is preferable to execute the four vertex position measurement process (process S90d) for each process as in the first embodiment. Thereby, the precision of alignment adjustment improves more.
[0347]
In this fine adjustment, the four vertex position measurement process (process S90d) is performed, the coordinates of the edges 112a to 112d are obtained, and the first to third processes (process S35A to process S35C) are performed. At least two coordinates among the coordinates 112a to 112d are obtained, and the first process (process S35A), the second process (process S35B), and the third process (process S35C) are performed based on the coordinates. Also good.
[0348]
In the alignment adjustment, the image projected on the screen 2 (projected image), that is, the projected image of the pixel of the light valve is deformed (for example, fog, unevenness, blur, blurring) due to the characteristics of the optical system (lens aberration). Etc.) may occur.
[0349]
In such a case, for example, when pattern matching is performed using patterns A1 to D1 as shown in FIG. 11 as a search pattern, it may be difficult to perform the search accurately.
[0350]
At this time, pattern matching may be performed using patterns A2, B2, C2, and D2 as search patterns as shown in FIG. Each of these patterns A2, B2, C2, and D2 includes portions corresponding to corner portions 111a, 111b, 111c, and 111d when the projected image of the liquid crystal light valve pixel has a deformation of the projected image due to lens aberration. It corresponds to.
[0351]
Furthermore, first, pattern matching is performed using the patterns A1 to D1 as shown in FIG. 11 as search patterns, and when there is no search pattern in the search target data by such pattern matching, as shown in FIG. Pattern matching may be performed again using the patterns A2 to D2 as search patterns.
[0352]
In this way, by setting a plurality of predetermined patterns (patterns corresponding to one corner) used for pattern matching, it is easy to perform both in cases where there is a deformation of the projected image due to lens aberration and in cases where there is no deformation. It is possible to cope with this, and the accuracy of alignment can be improved.
[0353]
In this case, as shown in FIG. 26, in the patterns A2 to D2, positions 121, 122, 123, and 124 are, for example, edges 112a, 112b, and 112c when there is no deformation of the projected image due to lens aberration in each pixel. And 112d.
[0354]
Similarly to the above, for the pattern H1 and the pattern V1 as shown in FIG. 12, a pattern H2 and a pattern V2 corresponding to the pattern H1 and the pattern V1 as shown in FIG. Matching can be performed.
[0355]
The pattern H2 and the pattern V2 correspond to portions including the corresponding sides 113a and 114a when the projected image of the pixel of the liquid crystal light valve has deformation of the projected image due to lens aberration.
[0356]
In this case, as shown in FIG. 27, in patterns H2 and V2, positions 129a and 129b overlap, for example, on sides 113a and 114a when there is no deformation of the projected image due to lens aberration in each pixel. Position.
[0357]
Hereinafter, a second embodiment of fine adjustment (position adjustment processing) in step S350 will be described.
[0358]
In fine adjustment, the camera No. 1, Camera No. 2, Camera No. 3 and camera no. 4, each image data of the imaging areas 611, 621, 631 and 641 is stored in the memory 4.
[0359]
Next, the camera No. 1, Camera No. 2, Camera No. 3 and camera no. Each image data of the image imaged in 4 is read out, and each specific position 128 shown in FIG. 28A is detected by edge processing (edge processing method) (the X coordinate and Y coordinate of the specific position 128 are obtained). . This edge processing will be described in detail later.
[0360]
Then, as shown in FIG. 28 (b), the liquid crystal light valve 25 is displaced by the three-axis table 9 so that each specific position 128 is closer to the corresponding target position (including the case where they coincide). That is, the liquid crystal light valve 25 is rotated in the W direction and moved in the X-axis direction and the Y-axis direction so that each specific position 128 is closer to the corresponding target position (including a case where they coincide with each other).
[0361]
Next, edge processing will be described. Typically, camera no. The case where the Y coordinate of the specific position of the image imaged by 4 is calculated | required is demonstrated.
[0362]
FIG. 29 is a flowchart showing the control operation of the control means 3 of the positioning device 1 in edge processing. Hereinafter, description will be given based on this flowchart.
[0363]
In the edge processing, first, camera No. 4 (in this embodiment, pixels: 400 rows × 600 columns), and image data of the image area 641 is stored in the memory 4 (step S401).
[0364]
The camera No. For example, the image captured at 4, that is, the image stored in the memory 4 is as shown in FIG. 30.
[0365]
As shown in FIG. 30, XY coordinates are assumed. The XY coordinates correspond to the surface of the electronic image. That is, the camera No. The column (first column to 600th column) and row (first row to 400th row) of each pixel of the four pixels are respectively coordinated in the X-axis direction (X coordinate) and Y-axis direction (Y). Corresponds to the coordinate). In this embodiment, the camera No. The coordinates of the pixels in the 4th j-th row (j-th row) and i-th column (i-th column) are (i, j).
[0366]
Next, the luminance in each pixel is integrated in the Y-axis direction, and an integrated value Iy [i] = Σf (i, j) of luminance in the Y-axis direction is obtained (step S402).
[0367]
A graph of the integrated value Iy [i] is shown in FIG. The vertical axis of the graph is the integrated value Iy [i], and the horizontal axis is the X coordinate i of the pixel.
[0368]
Next, a maximum value Iymax and a minimum value Iymin of the integrated value Iy [i] are obtained (step S403).
[0369]
Next, a threshold value Ty is set (step S404).
[0370]
In step S404, the threshold value Ty is obtained by substituting the maximum value Iymax and the minimum value Iymin obtained in step S403 into the following equation.
[0371]
Ty = (Iymax + Iymin) * α (where 0 <α <1)
Next, as shown in FIG. 30, the X coordinate Xc of the cross point between the threshold value Ty and the integrated value Iy [i] is obtained (step S405).
[0372]
Next, as shown in FIG. 31, a rectangular area surrounded by four points of coordinates (0, 0), coordinates (Xc, 0), coordinates (Xc, 400), and coordinates (0, 400) is set (step S406).
[0373]
Next, in the set area, the luminance in each pixel is integrated in the X-axis direction, and an integrated value Iax [j] = Σf (i, j) of the luminance in the X-axis direction is obtained (step S407).
[0374]
A graph of the integrated value Iax [j] (first waveform) is shown in FIG. The horizontal axis of the graph is the integrated value Iax [j], and the vertical axis is the Y coordinate j of the pixel. This integrated value Iax [j] is a first waveform that indicates the change in the Y-axis direction of the integrated value of luminance in the X-axis direction.
[0375]
Next, a maximum value Iaxmax and a minimum value Iaxmin of the integrated value Iax [j] are obtained (step S408).
[0376]
Next, a threshold value Tax is set (step S409).
[0377]
In step S409, the threshold value Tax is obtained by substituting the maximum value Iaxmax and the minimum value Iaxmin obtained in step S408 into the following equations.
[0378]
Tax = (Iaxmax + Iaxmin) * α (where 0 <α <1)
Next, as shown in FIG. 31, the Y coordinate Yac of the cross point between the threshold value Tax and the integrated value Iax [j] is obtained (step S410).
[0379]
Next, as shown in FIG. 31, the Y coordinate Ppy [P] at each peak (positive peak) and the Y coordinate Pmy [q] at each bottom (negative peak) of the graph of the integrated value Iax [j] are obtained. (Step S411).
[0380]
In the case of FIG. 31, the number of positive peaks is 4 and the number of negative peaks is 3. Therefore, the Y coordinates Ppy [1], Ppy [2], Ppy [3] and Ppy at the four positive peaks are used. [4] and Y coordinates Pmy [1], Pmy [2] and Pmy [3] at the three negative peaks are detected, respectively.
[0381]
Next, an average value Ppyavr of the intervals in the vertical axis direction of adjacent positive peaks is obtained from the following equation (step S412).
[0382]
Ppyavr = {Σ (Ppy [p + 1] −Ppy [p])} / (n−1)
(Where n is the number of positive peaks)
Next, as shown in FIG. 31, the Y coordinate Pmpymax at the negative peak where Yac−1.2 * Ppyavr−Pmy [q] is minimum within the range where the Y coordinate is less than Yac−1.2 * Ppyavr is detected. (Step S413).
[0383]
In other words, Pmpymax is Pmy [q] which is smaller than Yac-1.2 * Ppyavr and closest to Yac-1.2 * Ppyavr.
[0384]
Next, the difference value Diax [j] of the integrated value Iax [j] is calculated from the following equation (step S414).
[0385]
Diax [j] = Iax [j + 1] −Iax [j−1]
In other words, the difference value Diax [j] on the j-th row is a value obtained by subtracting the integrated value Iax [j−1] on the j−1-th row from the integrated value Iax [j + 1] on the j + 1-th row.
[0386]
FIG. 32 shows a graph of the difference value Diax [j] and a graph of the integrated value Iax [j]. In the graph of the difference value Diax [j], the horizontal axis represents the difference value Diax [j], and the vertical axis represents the Y coordinate j of the pixel.
[0387]
Next, as shown in FIG. 32, near Pmpymax (indicated by a circle in FIG. 32), a zero cross point (Y coordinate when Diax [j] = 0) is calculated using Diax [j] (zero cross processing is performed). ), And the obtained zero cross point is set as the Y coordinate of the specific position (step S415).
[0388]
That is, in step S415, the camera No. 4, the Y coordinate of the specific position of the image captured is obtained.
[0389]
This completes the edge processing.
[0390]
The camera No. In order to obtain the X coordinate of the specific position of the image captured in step 4, the above-described edge processing for obtaining the Y coordinate of the specific position may be performed in the same manner by changing x to y and y to x.
[0390]
In this case, in the set area, the relationship between the integrated value of the luminance in the Y axis direction obtained by integrating the luminance in each pixel in the Y axis direction and the X coordinate of the pixel (the X axis of the integrated value of the luminance in the Y axis direction). The waveform in the graph (not shown) showing the change in the direction is the second waveform, and the X coordinate of the specific position is obtained based on the second waveform in the same manner as the edge processing for obtaining the Y coordinate of the specific position described above. .
[0392]
FIG. 33 is a diagram illustrating the first waveform and the second waveform.
[0393]
As shown in the figure, in the second embodiment, the positions of the peak and bottom of the first waveform in the fourth Y-axis direction from the lower side in FIG. 33 (the end side of the imaged projection area). Is the Y coordinate of the specific position 128, and the fourth waveform peak and bottom positions in the X-axis direction of the second waveform from the right side in FIG. It is a coordinate.
[0394]
In addition, camera No. 1, Camera No. 2 and camera no. In order to obtain the X coordinate and Y coordinate of the specific position of each image captured in step 3, the above-described process may be performed.
[0395]
This completes the fine adjustment (position adjustment processing) in step S350 of the second embodiment.
[0396]
As can be seen from the edge processing flowchart as described above, in the fine adjustment in step S350 of the second embodiment, the position of the peak or bottom of the first waveform shown in FIG. Preferably, the Y coordinate of the specific position is used, and the peak or bottom position of the second waveform in the X axis direction is the X coordinate of the specific position.
[0397]
Also, the Ny-th position in the Y-axis direction of the peak and bottom of the first waveform (point where the first derivative is 0) is specified from the lower side in FIG. 33 (the end side of the imaged projection area). As the Y coordinate of the position, from the right side in FIG. 33 (the end side of the imaged projection area), the peak and bottom of the second waveform (points where the first derivative is 0) in the Nx-th X-axis direction The position is preferably the X coordinate of the specific position.
[0398]
In this case, Ny and Nx may be different but are preferably equal. By making Ny and Nx equal, the accuracy of position adjustment can be further increased.
[0399]
Ny and Nx are each preferably an even number. That is, it is preferable that the position of the bottom of the first waveform in the Y-axis direction is the Y coordinate of the specific position, and the position of the bottom of the second waveform in the X-axis direction is the X coordinate of the specific position. preferable.
[0400]
When Ny and Nx are even numbers, the Y coordinate and X coordinate of the specific position can be obtained more accurately, thereby improving the accuracy of position adjustment.
[0401]
Ny and Nx are each preferably 2 or more, more preferably 4 or more, and still more preferably about 4-8.
[0402]
When Ny and Nx are 2 or more, the Y coordinate and X coordinate of the specific position can be obtained more accurately, thereby improving the accuracy of position adjustment.
[0403]
Thus, the positioning of the green liquid crystal light valve 25 is completed, and as described above, the liquid crystal light valve 25 is temporarily fixed to the optical block 20 and then permanently fixed.
[0404]
Next, the red liquid crystal light valve 24 and the blue liquid crystal light valve 26 are positioned in the same manner as described above.
[0405]
At this time, when the fine adjustment (position adjustment process) in step S350 is performed in the fine adjustment of the first embodiment, the green liquid crystal light valve 25 and the red liquid crystal are performed as follows. The red liquid crystal light valve 24 and the blue liquid crystal light valve 26 can be positioned so that the images formed by the light valve 24 and the blue liquid crystal light valve 26 overlap each other.
[0406]
First, prior to positioning the liquid crystal light valve 24 for red and the liquid crystal light valve 26 for blue, the four apex position measurement process (process S90d) is performed, and the projection region 110 of the liquid crystal light valve 25 for green is displayed. The coordinates of the edges 112a to 112d are obtained.
[0407]
Based on the coordinates, θk used in step S352, kxg and kyg used in step S355, and edges 112a to 112a used in step S357 in positioning the liquid crystal light valve 24 for red and the liquid crystal light valve 26 for blue. The reference coordinates (kluxg, kluyg), (kruxg, kruyg), (kldxg, kldyg), and (krdxg, krdyg) of 112d are obtained.
[0408]
Based on these values, the red liquid crystal light valve 24 and the blue liquid crystal light valve 26 are positioned.
[0409]
Accordingly, the red liquid crystal light valve 24 and the blue liquid crystal light valve 24, the red liquid crystal light valve 24, and the blue liquid crystal light valve 26 are overlapped with each other so that the images formed by the green liquid crystal light valve 24 and the blue liquid crystal light valve 26 overlap each other. The liquid crystal light valve 26 can be positioned.
[0410]
On the other hand, when the fine adjustment (position adjustment processing) in step S350 is performed by the fine adjustment of the second embodiment, the green liquid crystal light valve 25 and the red liquid crystal light are performed as follows. The red liquid crystal light valve 24 and the blue liquid crystal light valve 26 can be positioned so that the images formed by the bulb 24 and the blue liquid crystal light valve 26 overlap each other.
[0411]
First, prior to positioning the red liquid crystal light valve 24 and the blue liquid crystal light valve 26, the projection areas 110 of the green liquid crystal light valve 25 are respectively imaged by the cameras 61 to 64, and each image data is captured. Store in memory 4.
[0412]
Then, each image data is read from the memory 4, and the X coordinate and Y coordinate of each specific position are obtained by the edge processing described above. The obtained X coordinate and Y coordinate of each specific position are set as the X coordinate and Y coordinate of each target position in fine adjustment of position adjustment, respectively.
[0413]
Accordingly, the red liquid crystal light valve 24 and the blue liquid crystal light valve 24, the red liquid crystal light valve 24, and the blue liquid crystal light valve 26 are overlapped with each other so that the images formed by the green liquid crystal light valve 24 and the blue liquid crystal light valve 26 overlap each other. The liquid crystal light valve 26 can be positioned.
[0414]
When the positioning of the liquid crystal light valve 24 is completed, as described above, the liquid crystal light valve 24 is temporarily fixed to the optical block 20, and is then permanently fixed.
[0415]
Similarly, when the positioning of the liquid crystal light valve 26 is completed, as described above, the liquid crystal light valve 26 is temporarily fixed to the optical block 20 and then permanently fixed.
[0416]
As described above, according to the light valve positioning method of the present invention, each of the liquid crystal light valves 24 to 26 is automatically positioned, so that it is easier, faster and more reliable than the case where it is manually performed. Can be positioned.
[0417]
In addition, positioning can be performed with higher accuracy than when positioning is performed manually.
[0418]
In focus adjustment, coarse adjustment and fine adjustment are performed, so that the focus adjustment can be performed with high accuracy in a short time.
[0419]
In the position adjustment, coarse adjustment and fine adjustment are performed, so that the position adjustment can be performed with high accuracy in a short time.
[0420]
Further, by performing rough adjustment, even when the image projected on the screen does not exist in the target area, the corner of the image can be introduced into the target area, and the position can be adjusted efficiently. . Thereby, even when the projection area is located away from the target area, the position adjustment can be easily performed.
[0421]
Further, when performing the fine adjustment of the first embodiment, the position can be accurately adjusted even when the image projected on the screen is not completely rectangular.
[0422]
Further, in the fine adjustment of the position adjustment, when performing the fine adjustment of the second embodiment, the X coordinate and the Y coordinate of the specific position are obtained by the above-described edge processing using the integrated luminance value. The X coordinate and Y coordinate of the specific position can be obtained accurately, and thereby the accuracy of position adjustment can be further improved.
[0423]
As mentioned above, although the positioning method of the light valve of this invention was demonstrated based on the Example of illustration, this invention is not limited to this.
[0424]
For example, in the present invention, the structure of the positioning device to be used is not limited to the illustrated one.
[0425]
In the above embodiment, positioning is performed using a camera dedicated to focus adjustment and a camera dedicated to position adjustment. However, in the present invention, positioning is performed using a common camera for focus adjustment and position adjustment. Also good.
[0426]
In the above-described embodiment, the image is projected on the screen without operating the light valve, but positioning is performed by operating the light valve to project the image on the screen. May be.
[0427]
In the fine adjustment in step S350 of the first embodiment, in the four-vertex position measurement process (process S90d), edge processing is performed to detect a specific position, and based on the specific position detected in the edge process, The first process (process S35A), the second process (process S35B), and the third process (process S35C) may be performed.
[0428]
【The invention's effect】
As described above, according to the light valve positioning method of the present invention, positioning can be performed easily, quickly, reliably and accurately.
[0429]
In the position adjustment, coarse adjustment and fine adjustment are performed, so that the position adjustment can be performed with high accuracy in a short time.
[0430]
Further, when a predetermined corner of the projection area is not within the preset target area, the corner can be introduced into the target area. That is, even when the projection area is located away from the target area, the position can be adjusted efficiently.
[0431]
Further, when the center of the projection area is obtained and the process of bringing the center close to a preset position is performed, the position can be accurately adjusted even when the image projected on the screen is not completely rectangular.
[0432]
In addition, if the corner portion of the projection area that is located farthest from the preset target position is moved closer to the target position, the image projected on the screen is not completely rectangular. Even in this case, the position can be adjusted accurately.
[Brief description of the drawings]
FIG. 1 is a side view schematically showing a configuration example of a positioning device used in a light valve positioning method of the present invention.
2 is a block diagram showing a circuit configuration of the positioning device shown in FIG. 1. FIG.
FIG. 3 is a plan view showing an optical head portion (each liquid crystal light valve and a part of an optical system) of the projection display device according to the present invention.
FIG. 4 is an exploded perspective view showing a dichroic prism, a liquid crystal light valve corresponding to green, and a support member according to the present invention.
5 is a view schematically showing a liquid crystal light valve held by a chuck of the positioning device shown in FIG.
FIG. 6 is a diagram schematically showing a projection area on a screen by a liquid crystal light valve and an imaging area of each camera according to the present invention.
FIG. 7 is a flowchart showing the control operation of the control means of the positioning device at the time of focus adjustment in the present invention.
FIG. 8 is a schematic diagram for explaining the movement of a liquid crystal light valve during focus adjustment in the present invention.
FIG. 9 is a diagram illustrating an image projected on a screen according to the present invention and a luminance histogram when the image is captured.
FIG. 10 is a flowchart showing a control operation of the control means of the positioning device at the time of position adjustment (alignment adjustment) in the present invention.
FIG. 11 is a diagram schematically showing four patterns in the present invention.
FIG. 12 is a diagram schematically showing two patterns in the present invention.
FIG. 13 is a flowchart showing the control operation of the control means of the positioning device during rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 14 is a flowchart showing the control operation of the control means of the positioning device during rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 15 is a flowchart showing the control operation of the control means of the positioning device at the time of coarse adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 16 is a flowchart showing the control operation of the control means of the positioning device at the time of coarse adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 17 is a flowchart showing a control operation of the control means of the positioning device at the time of fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 18 is a flowchart showing a control operation of the control means of the positioning device at the time of fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 19 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 20 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 21 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention;
FIG. 22 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 23 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 24 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 25 is a diagram for explaining fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 26 is a diagram schematically showing another four patterns in the present invention.
FIG. 27 is a diagram schematically showing two other patterns in the present invention.
FIG. 28 is a diagram for explaining fine adjustment according to the second embodiment in position adjustment (alignment adjustment) in the present invention;
FIG. 29 is a flowchart showing the control operation of the control means of the positioning device in edge processing according to the present invention.
FIG. 30 is a diagram for explaining edge processing in the present invention;
FIG. 31 is a diagram for explaining edge processing in the present invention;
FIG. 32 is a diagram for explaining edge processing in the present invention;
FIG. 33 is a diagram showing a first waveform and a second waveform in the present invention.
FIG. 34 is a diagram schematically showing an optical system of a conventional projection display apparatus.
[Explanation of symbols]
1 Positioning device
2 screens
3 Control means
4 memory
51-54 camera
511, 521 Imaging area
531 and 541 Imaging area
61-64 cameras
611, 621 Imaging area
612 side
631, 641 Imaging area
632, 633 sides
643 sides
71-74 Lighting device
8 3-axis table
81 3-axis table drive mechanism
9 3-axis table
91 3-axis table drive mechanism
11 Chuck
12 Support members
20 Optical block
21 Dichroic Prism
211, 212 Dichroic mirror surface
213-215
216 Output surface
22 Projection lens
23 Support
24-26 Liquid crystal light valve
251 Frame member
252 Through hole
253 Notch
27 Support member
28 Fixed plate
281 opening
282 screw holes
29 Fixed plate
291 opening
292 Through hole
293 protrusion
31 screws
32 wedges
33 Adhesive
110 Projection area
111a, 111b corner
111c, 111d corner
112a, 112b edge
112c, 112d edge
113a, 113b side
114a, 114b side
121-124 positions
125a, 125b center
125c, 125d center
126, 127 straight lines
128 specific position
129a, 129b position
300 Projection display
301 light source
302, 303 Integrator lens
304, 306, 309 Mirror
305, 307, 308 Dichroic mirror
310-314 Condensing lens
315 Dichroic Prism
316-318 Liquid crystal light valve
319 Projection lens
320 screens
Steps S101 to S120
Step S201
S300 Coarse adjustment
S30A-S30H treatment
Steps S301 to S329
S350 Fine adjustment
Steps S351 to S359
Steps S401 to S415
S90a-S90d processing
Steps S901 to S910
Steps S921 and S922
Steps S931 and S932
Steps S941 to S948

Claims (7)

ライトバルブにより形成された画像を投射光学系により投影する投射型装置の前記ライトバルブの位置決めを行う位置決め方法であって、
四角形の投影領域の角部が、予め設定された目的領域に入っているか否かを検出し、且つ、四角形の投影領域の辺が、予め設定された目的領域内に入っているか否かを検出し、且つ、前記目的領域内の明るさを検出する検出処理により、前記目的領域に対する前記投影領域の位置関係を特定し、この位置関係特定結果に基づき、前記位置関係を是正するように、前記投影領域を変位させる位置調整処理を行うことを特徴とするライトバルブの位置決め方法。
A positioning method for positioning the light valve of a projection type apparatus that projects an image formed by a light valve by a projection optical system,
Detects whether the corners of the quadrangular projection area are within the preset target area, and detects whether the sides of the quadrangular projection area are within the preset target area And, by detecting the brightness in the target area, the positional relation of the projection area with respect to the target area is specified, and based on the positional relation specifying result, the positional relation is corrected. A light valve positioning method comprising: performing a position adjustment process for displacing a projection region.
前記検出処理を。少なくとも2箇所の角部で行い、且つ、前記2箇所の角部の位置を計測する角部位置計測処理を行い、前記2箇所の角部を予め設定された目的位置に合致するように移動させる位置調整処理を行う請求項1に記載のライトバルブの位置決め方法。  The detection process. Performing at at least two corners, and performing corner position measurement processing for measuring the positions of the two corners, and moving the two corners so as to match a preset target position. The light valve positioning method according to claim 1, wherein position adjustment processing is performed. 前記位置調整処理において、前記投影領域の中心を求め、前記中心を予め設定された位置に近づける処理を行う請求項2に記載のライトバルブの位置決め方法。  The light valve positioning method according to claim 2, wherein in the position adjustment process, a center of the projection area is obtained and a process of bringing the center close to a preset position is performed. 前記目的領域は電子画像として撮像される領域であり、前記位置調整処理は、前記電子画像中の前記角部のうちの少なくとも一部を含む所定領域の輝度を画素単位で求め、互いに直交するX─Y座標を想定したときの前記X軸方向の輝度の積算値のY軸方向における変化を示す第1の波形と、前記Y軸方向の輝度の積算値のX軸方向における変化を示す第2の波形とに基づいて、前記特定位置を検出し、前記第1の波形のピークまたはボトムのY軸方向の位置を前記特定位置のY座標とし、前記第2波形のピークまたはボトムのX軸方向の位置を前記特定位置のX座標とする請求項2または3に記載のライトバルブの位置決め方法。  The target area is an area that is captured as an electronic image, and the position adjustment processing calculates the luminance of a predetermined area including at least a part of the corners in the electronic image in units of pixels, and is orthogonal to each other. A first waveform indicating a change in the Y-axis direction of the integrated luminance value in the X-axis direction assuming a Y coordinate, and a second waveform indicating a change in the X-axis direction of the integrated value of the luminance in the Y-axis direction. The specific position is detected based on the waveform of the first waveform, the position of the peak or bottom of the first waveform in the Y-axis direction is the Y coordinate of the specific position, and the peak or bottom of the second waveform is in the X-axis direction. 4. The light valve positioning method according to claim 2, wherein the position is an X coordinate of the specific position. 5. 前記撮像された投影領域の端部側から、前記第1の波形のピークおよびボトムのNy番目のY軸方向の位置を前記特定位置のY座標とし、前記撮像された投影領域の端部側から、前記第2の波形のピークおよびボトムのNx番目のX軸方向の位置を前記特定位置のX座標とする請求項4に記載のライトバルブの位置決め方法。  From the end side of the imaged projection area, the Ny-th Y-axis position of the peak and bottom of the first waveform is set as the Y coordinate of the specific position, and from the end side of the imaged projection area 5. The light valve positioning method according to claim 4, wherein a position of the peak and bottom of the second waveform in the Nxth X-axis direction is an X coordinate of the specific position. 前記Nyと前記Nxは等しい偶数である請求項5に記載のライトバルブの位置決め方法。  6. The light valve positioning method according to claim 5, wherein the Ny and the Nx are equal even numbers. 前記位置調整処理における前記ライトバルブの変位は、X軸方向の移動と、Y軸方向の移動と、X軸およびY軸のそれぞれに直交するZ軸回りの回転である請求項4ないし6のいずれかに記載のライトバルブの位置決め方法。  The displacement of the light valve in the position adjustment processing is movement in the X-axis direction, movement in the Y-axis direction, and rotation about the Z-axis orthogonal to the X-axis and the Y-axis, respectively. A light valve positioning method according to claim 1.
JP31670798A 1998-11-06 1998-11-06 Light valve positioning method Expired - Fee Related JP3804301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31670798A JP3804301B2 (en) 1998-11-06 1998-11-06 Light valve positioning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31670798A JP3804301B2 (en) 1998-11-06 1998-11-06 Light valve positioning method

Publications (2)

Publication Number Publication Date
JP2000147694A JP2000147694A (en) 2000-05-26
JP3804301B2 true JP3804301B2 (en) 2006-08-02

Family

ID=18080013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31670798A Expired - Fee Related JP3804301B2 (en) 1998-11-06 1998-11-06 Light valve positioning method

Country Status (1)

Country Link
JP (1) JP3804301B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3794251B2 (en) * 2000-07-17 2006-07-05 セイコーエプソン株式会社 Position adjusting device and adjusting method for light modulator
JP6001083B2 (en) * 2012-10-30 2016-10-05 日立マクセル株式会社 Projection-type image display device

Also Published As

Publication number Publication date
JP2000147694A (en) 2000-05-26

Similar Documents

Publication Publication Date Title
US20200141721A1 (en) Apparatus and method for measuring a three dimensional shape
JP6701101B2 (en) Device and method for positioning multi-aperture optics with multiple optical channels relative to an image sensor
JP3646716B2 (en) Position adjustment device for light modulation device and method for position adjustment of light modulation device
JP4096437B2 (en) Light valve positioning method
JP4147841B2 (en) Manufacturing method of optical device, optical device manufactured by this method, and projector provided with this optical device
JPH07297119A (en) Method for position detection
JP3804301B2 (en) Light valve positioning method
JP4096436B2 (en) Light valve positioning method
JP3794190B2 (en) Light valve positioning method
JP2006293387A (en) Positioning apparatus of light valve
JP3849325B2 (en) Light valve positioning method
JP2017032650A (en) Projection type display device and projection type display system
JP2003237031A (en) Alignment device for screen printing
JP2000134560A (en) Method for positioning light valve, display unit and projection type display device
CN100419504C (en) Manufacturing apparatus of optical device, manufacturing method thereof and projector
JP4923783B2 (en) Color filter drawing method
KR100496083B1 (en) Position-control device for light modulation device, position-controlling method for light modulation device, and initial-position controlling jig
JPS63289406A (en) Three-dimensional configuration measuring instrument
JP7152925B2 (en) machine tool with projector
JPH1047940A (en) Measuring plate, and device and method for measuring wheel alignment
JPH07295229A (en) Alignment method of projected image for magnifiedprojection type aligner
US8885051B2 (en) Camera calibration method and camera calibration apparatus
JP2001313241A (en) Aligner and aligning method
JP6646964B2 (en) Projection display device and projection display system
JPH03232215A (en) Method for alignment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060501

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140519

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees