JP4096437B2 - Light valve positioning method - Google Patents

Light valve positioning method Download PDF

Info

Publication number
JP4096437B2
JP4096437B2 JP03003699A JP3003699A JP4096437B2 JP 4096437 B2 JP4096437 B2 JP 4096437B2 JP 03003699 A JP03003699 A JP 03003699A JP 3003699 A JP3003699 A JP 3003699A JP 4096437 B2 JP4096437 B2 JP 4096437B2
Authority
JP
Japan
Prior art keywords
light valve
axis direction
liquid crystal
crystal light
adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03003699A
Other languages
Japanese (ja)
Other versions
JP2000227634A (en
Inventor
和彦 古屋
広一 小島
雅志 北林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP03003699A priority Critical patent/JP4096437B2/en
Publication of JP2000227634A publication Critical patent/JP2000227634A/en
Application granted granted Critical
Publication of JP4096437B2 publication Critical patent/JP4096437B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Liquid Crystal (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、投射型表示装置のライトバルブの位置決め方法、表示ユニットおよび投射型表示装置に関するものである。
【0002】
【従来の技術】
液晶ライトバルブ(液晶光シャッターアレイ)を用いた投射型表示装置が知られている。
【0003】
図54は、従来の投射型表示装置の光学系を模式的に示す図である。
【0004】
同図に示すように、この投射型表示装置300は、光源301と、インテグレータレンズ302および303で構成された照明光学系と、ミラー304、306、309、赤色光および緑色光を反射する(青色光のみを透過する)ダイクロイックミラー305、緑色光のみを反射するダイクロイックミラー307、赤色光のみを反射するダイクロイックミラー(または赤色光を反射するミラー)308、集光レンズ310、311、312、313および314で構成された色分離光学系(導光光学系)と、青色、緑色および赤色に対応した3つの液晶ライトバルブ316、317および318と、ダイクロイックプリズム(色合成光学系)315と、投射レンズ(投射光学系)319とを有している。
【0005】
光源301から出射された白色光(白色光束)は、インテグレータレンズ302および303を透過する。この白色光の光強度(輝度分布)は、インテグレータレンズ302および303により均一化される。
【0006】
インテグレータレンズ302および303を透過した白色光は、ミラー304で図54中左側に反射し、その反射光のうちの赤色光(R)および緑色光(G)は、それぞれダイクロイックミラー305で図54中下側に反射し、青色光(B)は、ダイクロイックミラー305を透過する。
【0007】
ダイクロイックミラー305を透過した青色光は、ミラー306で図54中下側に反射し、その反射光は、集光レンズ310を透過した後、青色用の液晶ライトバルブ316に入射する。
【0008】
ダイクロイックミラー305で反射した赤色光および緑色光のうちの緑色光は、ダイクロイックミラー307で図54中左側に反射し、赤色光は、ダイクロイックミラー307を透過する。
【0009】
ダイクロイックミラー307で反射した緑色光は、集光レンズ311を透過した後、緑色用の液晶ライトバルブ317に入射する。
【0010】
また、ダイクロイックミラー307を透過した赤色光は、ダイクロイックミラー(またはミラー)308で図54中左側に反射し、その反射光は、ミラー309で図54中上側に反射する。前記赤色光は、集光レンズ312、313および314を透過した後、赤色用の液晶ライトバルブ318に入射する。
【0011】
このように、光源301から出射された白色光は、色分離光学系により、赤色、緑色および青色の三原色に色分離され、それぞれ、対応する液晶ライトバルブに導かれ、入射する。
【0012】
これらの青色光、緑色光および赤色光は、それぞれ、液晶ライトバルブ316、317および318で変調され、これにより、青色用の画像、緑色用の画像および赤色用の画像がそれぞれ形成される。
【0013】
前記液晶ライトバルブ316、317および318からの各色の光、すなわち液晶ライトバルブ316、317および318により形成された各画像は、ダイクロイックプリズム315により合成され、これによりカラーの画像が形成される。この画像は、投射レンズ319により、所定の位置に設置されているスクリーン320上に投影(拡大投射)される。
【0014】
前述した投射型表示装置300の組み立ての際は、コントラスト(画像の鮮明さ)が高く、色ずれ(画素ずれ)のない画像をスクリーン320上に表示し得るように、3つの液晶ライトバルブ316、317および318の位置決め、すなわち、3つの液晶ライトバルブ316、317および318のフォーカス調整および位置調整が、それぞれ行われる。
【0015】
フォーカス調整では、コントラストの認識しやすい調整用画像を投影して、作業者が、肉眼でコントラストを確認しつつ、調整器具を用いて、コントラストが最も高くなるように液晶ライトバルブを変位させ、固定するという方法が採られている。
【0016】
また、位置調整では、色ずれの認識しやすい調整用画像を投影して、作業者が、肉眼で画素のずれを確認しつつ、調整器具を用いて、色ずれが最も少なくなるように液晶ライトバルブを変位させ、固定するという方法が採られている。
【0017】
しかしながら、従来は、液晶ライトバルブの位置決めを手作業で行うので、非常に手間がかかり、また、熟練者が行っても作業に長時間かかっていた。
【0018】
また、コントラストや色ずれを肉眼で観察するので、位置決めの精度が悪いという欠点がある。
【0019】
また、画像が投影されるスクリーンと、位置決めされる液晶ライトバルブの位置とが離れているので、1人で位置決めを行う場合には、スクリーンと液晶ライトバルブとの間を何度も行き来する必要があり、作業に非常に時間がかかる。
【0020】
また、2人で位置決めを行う場合には、一方の作業者がスクリーンの近傍に位置し、投影された画像を観察し、その情報を他方の作業者に伝え、その情報を受けた作業者が液晶ライトバルブを変位させるので、作業人員が増えるばかりでなく、作業者間で情報が正確に伝わらないことがあり、確実性に欠ける。
【0021】
【発明が解決しようとする課題】
本発明の目的は、投射型表示装置のライトバルブの位置決めを容易、迅速、確実かつ精度良く行うことができるライトバルブの位置決め方法と、該位置決め方法により位置決めされたライトバルブを有する表示ユニットおよび投射型表示装置とを提供することにある。
【0022】
【課題を解決するための手段】
このような目的は、下記(1)〜(24)の本発明により達成される。
【0023】
(1) ライトバルブにより形成された画像を投射光学系により投影する投射型表示装置の前記ライトバルブの位置決めを行う位置決め方法であって、
スクリーン上に投影された異なる投影領域のそれぞれの所定領域を、それぞれの所定領域について同一のカメラで撮像して電子画像を得、各電子画像に基づいて前記ライトバルブのフォーカス調整と位置調整とを行うことを特徴とするライトバルブの位置決め方法。
【0024】
(2) ライトバルブにより形成された画像を投射光学系により投影する投射型表示装置の前記ライトバルブの位置決めを行う位置決め方法であって、
カメラにより、スクリーン上に投影された第1の投影領域のうちの所定領域を撮像して電子画像を得、前記電子画像のフォーカスの状態が目的の状態に近づくように前記ライトバルブを変位させるフォーカス調整を行い、
前記カメラにより、スクリーン上に投影された第2の投影領域のうちの所定領域を撮像して電子画像を得、前記電子画像中の特定位置が目的位置に近づくように前記ライトバルブを変位させる位置調整を行うことを特徴とするライトバルブの位置決め方法。
【0025】
(3) ライトバルブにより形成された画像を投射光学系により投影する投射型表示装置の前記ライトバルブの位置決めを行う位置決め方法であって、
カメラにより、スクリーン上に投影された第1の投影領域のうちの所定領域を撮像して電子画像を得、前記電子画像のフォーカスの状態が目的の状態に近づくように前記ライトバルブを変位させる第1のフォーカス調整を行い、
前記第1のフォーカス調整の後、前記カメラにより、スクリーン上に投影された第1の投影領域のうちの所定領域を撮像して電子画像を得、前記電子画像のフォーカスの状態が目的の状態にさらに近づくように前記ライトバルブを変位させる第2のフォーカス調整を行い、
前記カメラにより、スクリーン上に投影された第2の投影領域のうちの所定領域を撮像して電子画像を得、前記電子画像中の特定位置が目的位置に近づくように前記ライトバルブを変位させる第1の位置調整を行い、
第1の位置調整の後、前記カメラにより、スクリーン上に投影された第2の投影領域のうちの所定領域を撮像して電子画像を得、前記電子画像中の特定位置が目的位置にさらに近づくように前記ライトバルブを変位させる第2の位置調整を行うことを特徴とするライトバルブの位置決め方法。
【0026】
(4) 前記ライトバルブのフォーカス調整における所定領域と、前記ライトバルブの位置調整における所定領域は、前記スクリーン上の同一の領域である上記(2)または(3)に記載のライトバルブの位置決め方法。
【0027】
(5) 前記第1の投影領域の輪郭は、前記第2の投影領域の輪郭の外側に位置する上記(2)ないし(4)のいずれかに記載のライトバルブの位置決め方法。
【0028】
(6) 前記第1の投影領域は、該第1の投影領域における前記所定領域を包含するように設定される上記(2)ないし(5)のいずれかに記載のライトバルブの位置決め方法。
【0029】
(7) 前記第1の投影領域の形状は、略四角形であり、該第1の投影領域は、その角部付近に該第1の投影領域における前記所定領域が位置するように設定される上記(6)に記載のライトバルブの位置決め方法。
【0030】
(8) 前記第2の投影領域は、その非投影領域との境界部が該第2の投影領域における前記所定領域に包含されるように設定される上記(2)ないし(7)のいずれかに記載のライトバルブの位置決め方法。
【0031】
(9) 前記第2の投影領域の形状は、略四角形であり、該第2の投影領域は、その角部が該第2の投影領域における前記所定領域に包含されるように設定される上記(2)ないし(7)のいずれかに記載のライトバルブの位置決め方法。
【0032】
(10) 前記所定領域は、4箇所に設定され、前記第1の投影領域の形状は、略四角形であり、該第1の投影領域は、その各角部付近に各々前記所定領域が位置するように設定され、前記第2の投影領域の形状は、略四角形であり、該第2の投影領域は、その各角部が各々前記所定領域に包含されるように設定される上記(6)に記載のライトバルブの位置決め方法。
【0033】
(11) 前記所定領域は、3箇所以上(但し、そのすべてが同一直線上に存在する場合を除く)に設定される上記(2)ないし(9)のいずれかに記載のライトバルブの位置決め方法。この場合、前記所定領域は、互いに離れているのが好ましい。
【0034】
(12) 前記カメラは、前記所定領域の数と同じ台数設置されており、前記各カメラにより、対応する前記所定領域を撮像する上記(2)ないし(11)のいずれかに記載のライトバルブの位置決め方法。
【0035】
(13) 前記ライトバルブのフォーカス調整における該ライトバルブの変位は、互いに直交するX軸、Y軸およびZ軸のうちのX軸の回りの回転と、Y軸の回りの回転と、Z軸方向の移動である上記(2)ないし(12)のいずれかに記載のライトバルブの位置決め方法。
【0036】
(14) 前記ライトバルブの位置調整における該ライトバルブの変位は、互いに直交するX軸、Y軸およびZ軸のうちのX軸方向の移動と、Y軸方向の移動と、Z軸の回りの回転である上記(2)ないし(13)のいずれかに記載のライトバルブの位置決め方法。
【0037】
(15) 前記ライトバルブは、液晶ライトバルブである上記(1)ないし(14)のいずれかに記載のライトバルブの位置決め方法。
【0038】
(16) 前記ライトバルブのフォーカス調整を、該ライトバルブを作動させずに行い、前記ライトバルブの位置調整を、該ライトバルブを作動させて行う上記(15)に記載のライトバルブの位置決め方法。
【0039】
(17) 前記ライトバルブのフォーカス調整および位置調整を、それぞれ、該ライトバルブを作動させて行う上記(15)に記載のライトバルブの位置決め方法。
【0040】
(18) 前記ライトバルブのフォーカス調整を行った後に、該ライトバルブの位置調整を行う上記(1)ないし(17)のいずれかに記載のライトバルブの位置決め方法。
【0041】
(19) 前記投射型表示装置は、赤色、緑色および青色に対応した3つのライトバルブを有している上記(1)ないし(18)のいずれかに記載のライトバルブの位置決め方法。
【0042】
(20) 前記3つのライトバルブのそれぞれについて前記位置決めを行う上記(19)に記載のライトバルブの位置決め方法。
【0043】
(21) 前記3つのライトバルブにより形成された画像が重なるように前記位置決めを行う上記(19)または(20)に記載のライトバルブの位置決め方法。
【0044】
(22) 前記緑色に対応したライトバルブの位置決めを行い、そのライトバルブにより形成された画像に、前記赤色に対応したライトバルブにより形成された画像と、前記青色に対応したライトバルブにより形成された画像とが重なるように、前記赤色に対応したライトバルブおよび前記青色に対応したライトバルブの位置決めを行う上記(19)ないし(21)のいずれかに記載のライトバルブの位置決め方法。
【0045】
(23) 上記(1)ないし(22)のいずれかに記載のライトバルブの位置決め方法により位置決めされ、画像を形成する赤色、緑色および青色に対応した3つのライトバルブと、前記各画像を合成する色合成光学系とを有することを特徴とする表示ユニット。
【0046】
(24) 上記(1)ないし(22)のいずれかに記載のライトバルブの位置決め方法により位置決めされ、画像を形成する赤色、緑色および青色に対応した3つのライトバルブと、光源と、該光源からの光を赤色、緑色および青色の光に分離し、前記各光を対応する前記ライトバルブに導く色分離光学系と、前記各画像を合成する色合成光学系と、前記合成された画像を投影する投射光学系とを有することを特徴とする投射型表示装置。
【0047】
【発明の実施の形態】
以下、本発明のライトバルブの位置決め方法、表示ユニットおよび投射型表示装置を添付図面に示す好適実施例に基づいて詳細に説明する。
【0048】
図1は、本発明のライトバルブの位置決め方法に用いる位置決め装置の構成例を模式的に示す側面図、図2は、図1に示す位置決め装置の回路構成を示すブロック図である。
【0049】
これらの図に示す位置決め装置1は、投射型表示装置(例えば、液晶プロジェクター)のライトバルブ(光シャッターアレイ)の位置決め、すなわち、赤色、緑色および青色に対応した3つのライトバルブのフォーカス調整(コントラスト調整)および位置調整(アライメント調整)をそれぞれ自動的に行う装置である。
【0050】
まず、投射型表示装置を説明する。
【0051】
図3は、投射型表示装置の光学ヘッド部(各液晶ライトバルブおよび光学系の一部)を示す断面図、図4は、ダイクロイックプリズムと、緑色に対応した液晶ライトバルブと、支持部材とを示す分解斜視図である。
【0052】
図1および図3に示すように、投射型表示装置は、図示しない光源と、図示しない複数のダイクロイックミラーを備えた色分離光学系(導光光学系)と、赤色に対応した(赤色用の)液晶ライトバルブ(液晶光シャッターアレイ)24と、緑色に対応した(緑色用の)液晶ライトバルブ(液晶光シャッターアレイ)25と、青色に対応した(青色用の)液晶ライトバルブ(液晶光シャッターアレイ)26と、赤色光のみを反射するダイクロイックミラー面211および青色光のみを反射するダイクロイックミラー面212が形成されたダイクロイックプリズム(色合成光学系)21と、投射レンズ(投射光学系)22と、L字状の支持体23とを有している。
【0053】
ダイクロイックプリズム21および投射レンズ22は、それぞれ、支持体23に固定的に設置されている。
【0054】
また、3つの液晶ライトバルブ24、25および26は、それぞれ、支持部材27を介して、ダイクロイックプリズム21の図3中上側の面213、図3中右側の面214および図3中下側の面215に設置されている。
【0055】
緑色用の液晶ライトバルブ25は、互いに直交するX軸方向およびY軸方向の各々の方向に配列された図示しない画素(光シャッター)を有している。
【0056】
この場合、前記X軸方向およびY軸方向は、それぞれ、後述する位置決め装置1により液晶ライトバルブ25が位置決めされる際の図5に示すX軸方向およびY軸方向と一致する。
【0057】
また、赤色用の液晶ライトバルブ24は、互いに直交するX軸方向およびY軸方向の各々の方向に配列された図示しない画素(光シャッター)を有している。
【0058】
この場合、前記X軸方向およびY軸方向は、それぞれ、後述する位置決め装置1により液晶ライトバルブ24が位置決めされる際の図5に示すX軸方向およびY軸方向と一致する。
【0059】
また、青色用の液晶ライトバルブ26は、互いに直交するX軸方向およびY軸方向の各々の方向に配列された図示しない画素(光シャッター)を有している。
【0060】
この場合、前記X軸方向およびY軸方向は、それぞれ、後述する位置決め装置1により液晶ライトバルブ26が位置決めされる際の図5に示すX軸方向およびY軸方向と一致する。
【0061】
各支持部材27の構造は、同様であるので、代表的に、緑色用の液晶ライトバルブ25を支持(固定)している支持部材27を説明する。
【0062】
図4に示すように、支持部材27は、ダイクロイックプリズム21側に位置する固定板28と、液晶ライトバルブ25側に位置する固定板29と、これらの固定板28、29を固定する4つのネジ31とで構成されている。
【0063】
固定板28の中央部には、光通過用の矩形の開口281が形成されている。そして、固定板28の4隅には、前記ネジ31と螺合するネジ孔282が形成されている。
【0064】
また、固定板29の中央部には、光通過用の矩形の開口291が形成されている。そして、固定板29の4隅の前記ネジ孔282に対応する位置には、前記ネジ31の頭部より小径で、そのネジ31が挿入される貫通孔292が形成されている。さらに、固定板29の開口291の各角部の近傍には、ダイクロイックプリズム21の反対側に突出する突起293が立設されている。
【0065】
固定板28と固定板29とは、4つのネジ31で固定された状態で、接着剤33により、プリズム21の面214に接着されている。
【0066】
液晶ライトバルブ25の枠部材251の4隅の前記突起293に対応する位置には、前記突起293が挿入される貫通孔252が形成されている。この貫通孔252の内径は、後述する位置決めの際、液晶ライトバルブ25を変位し得るように設定されている。
【0067】
そして、枠部材251の図4中左側および右側の端面には、それぞれ、後述する楔32を差し込むための切り欠き部253が設けられている。
【0068】
この液晶ライトバルブ25は、固定板29の各突起293が対応する貫通孔252に挿入された状態で、後述する位置決め装置1により位置決めされる。
【0069】
位置決めが終了すると、予め枠部材251の各貫通孔252に注入されている接着剤を硬化させることにより、液晶ライトバルブ25が仮固定される。この仮固定用の接着剤としては、例えば、紫外線硬化型接着剤等を用いることができる。
【0070】
この仮固定の後、支持部材27の固定板29と液晶ライトバルブ25の枠部材251との間に、切り欠き部253から2つの楔(スペーサー)32が差し込まれる。そして、これらの楔32を介し、支持部材27と液晶ライトバルブ25とが接着剤で固定(本固定)される。この固定用の接着剤としては、例えば、紫外線硬化型接着剤等を用いることができる。
【0071】
赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26についても前述した緑色用の液晶ライトバルブ25と同様に、それぞれ、後述する位置決め装置1により位置決めされ、仮固定された後、固定される。
【0072】
なお、各液晶ライトバルブ24、25および26の位置決めは、それぞれ、3つの支持部材27が設置されたダイクロイックプリズム21、投射レンズ22および支持体23で構成される図1に示す光学ブロック20を所定の姿勢で所定の位置に設置(セット)して行う。
【0073】
この光学ブロック20と、ダイクロイックプリズム21に対して固定的に設置された液晶ライトバルブ24、25および26とで、投射型表示装置の表示ユニットが構成される。
【0074】
次に、前記投射型表示装置の作用を説明する。
【0075】
光源から出射された白色光(白色光束)は、色分離光学系により、赤色、緑色および青色の三原色に色分離され、図3に示すように、赤色光、緑色光および青色光は、それぞれ、赤色用の液晶ライトバルブ24、緑色用の液晶ライトバルブ25および青色用の液晶ライトバルブ26に導かれる。
【0076】
赤色光は、液晶ライトバルブ24に入射し、液晶ライトバルブ24で変調され、これにより赤色用の画像が形成される。この際、液晶ライトバルブ24の各画素は、赤色用の画像信号に基づいて作動する図示しない駆動回路(駆動手段)により、スイッチング制御(オン/オフ)される。
【0077】
同様に、緑色光および青色光は、それぞれ、液晶ライトバルブ25および26に入射し、液晶ライトバルブ25および26で変調され、これにより緑色用の画像および青色用の画像が形成される。この際、液晶ライトバルブ25の各画素は、緑色用の画像信号に基づいて作動する図示しない駆動回路により、スイッチング制御され、液晶ライトバルブ26の各画素は、青色用の画像信号に基づいて作動する図示しない駆動回路により、スイッチング制御される。
【0078】
図3に示すように、前記液晶ライトバルブ24により形成された赤色用の画像、すなわち液晶ライトバルブ24からの赤色光は、面213からダイクロイックプリズム21に入射し、ダイクロイックミラー面211で図3中左側に反射し、ダイクロイックミラー面212を透過して、出射面216から出射する。
【0079】
また、前記液晶ライトバルブ25により形成された緑色用の画像、すなわち液晶ライトバルブ25からの緑色光は、面214からダイクロイックプリズム21に入射し、ダイクロイックミラー面211および212をそれぞれ透過して、出射面216から出射する。
【0080】
また、前記液晶ライトバルブ26により形成された青色用の画像、すなわち液晶ライトバルブ26からの青色光は、面215からダイクロイックプリズム21に入射し、ダイクロイックミラー面212で図3中左側に反射し、ダイクロイックミラー面211を透過して、出射面216から出射する。
【0081】
このように、前記液晶ライトバルブ24、25および26からの各色の光、すなわち液晶ライトバルブ24、25および26により形成された各画像は、ダイクロイックプリズム21により合成され、これによりカラーの画像が形成される。この画像は、投射レンズ22により、所定の位置に設置されている図示しないスクリーン上に投影(拡大投射)される。
【0082】
次に、本発明のライトバルブの位置決め方法に用いる位置決め装置1を説明する。なお、位置決め装置1の構造の説明においては、代表的に、緑色用の液晶ライトバルブ25を用いて説明する。
【0083】
図1および図2に示すように、位置決め装置1は、液晶ライトバルブ24、25、26を挟持するチャック11と、チャック11を支持する支持部材12と、フォーカス調整用の3軸テーブル(変位手段)8と、位置調整用(アライメント調整用)の3軸テーブル(変位手段)9と、電子画像(画像データ)を形成し得る4台のカメラ(ビデオカメラ)61、62、63および64と、4台の照明装置71、72、73および74とを有している。
【0084】
前記カメラ61〜64は、それぞれ、所定の位置に固定的に設置されている。また、カメラ61〜64は、それぞれ、後述するフォーカス調整と位置調整とで共用され、その台数は、フォーカス調整において撮像される領域の数および位置調整において撮像される領域の数と同じである。
【0085】
図1に示すように、3軸テーブル8に3軸テーブル9が支持され、この3軸テーブル9に支持部材12が支持され、この支持部材12の先端部にチャック11が設置されている。
【0086】
図5は、位置決め装置1のチャック11で挟持された液晶ライトバルブ25を模式的に示す図である。
【0087】
同図に示すように、互いに直交するX軸、Y軸およびZ軸(X−Y−Z座標)を想定する。
【0088】
フォーカス調整用の3軸テーブル8は、Z軸方向に移動し、H方向(Y軸の回り)に両方向に回転し、かつ、V方向(X軸の回り)に両方向に回転し得るように構成されている。
【0089】
3軸テーブル8がZ軸方向に移動すると、液晶ライトバルブ25は3軸テーブル8とともにZ軸方向に移動する。また、3軸テーブル8がH方向に回転すると、液晶ライトバルブ25は3軸テーブル8とともにH方向に回転する。また、3軸テーブル8がV方向に回転すると、液晶ライトバルブ25は3軸テーブル8とともにV方向に回転する。
【0090】
この3軸テーブル8の変位、すなわち、Z軸方向の移動と、H方向およびV方向の回転は、それぞれ、後述する3軸テーブル駆動機構81を介し、制御手段3により制御される。
【0091】
また、位置調整用の3軸テーブル9は、X軸方向およびY軸方向に移動し、かつ、W方向(Z軸の回り)に両方向に回転し得るように構成されている。
【0092】
3軸テーブル9がX軸方向に移動すると、液晶ライトバルブ25は3軸テーブル9とともにX軸方向に移動する。また、3軸テーブル9がY軸方向に移動すると、液晶ライトバルブ25は3軸テーブル9とともにY軸方向に移動する。また、3軸テーブル9がW方向に回転すると、液晶ライトバルブ25は3軸テーブル9とともにW方向に回転する。
【0093】
この3軸テーブル9の変位、すなわち、X軸方向およびY軸方向の移動と、W方向の回転は、それぞれ、後述する3軸テーブル駆動機構91を介し、制御手段3により制御される。
【0094】
また、図1に示すように、4台の照明装置71、72、73および74は、それぞれ、チャック11で挟持された液晶ライトバルブ25の背面側(図1中右側)に位置するように設置されている。各照明装置71〜74の照明範囲は、それぞれ、少なくともカメラ61〜64の後述する撮像領域をカバーし得るように設定されている。
【0095】
また、位置決め装置1に設置された光学ブロック20から所定距離離間した位置には、スクリーン2が設置されている。
【0096】
このスクリーン2は、一般的なスクリーンに限定されず、投影画像を表示し得るもの(スクリーンとして機能し得るもの)であればよい。
【0097】
各カメラ61〜64は、本実施例では、それぞれ、スクリーン2の表面側(図1中右側)に設置されている。
【0098】
なお、スクリーン2が、例えば、反射型(反射型スクリーン)の場合には、各カメラ61〜64は、それぞれ、スクリーン2の図1中右側、すなわち光学ブロック20側に配置され、図1中右側から撮像し、また、スクリーン2が、例えば、透過型(透過型スクリーン)の場合には、各カメラ61〜64は、それぞれ、スクリーン2の図1中左側、すなわち光学ブロック20と反対側に配置され、図1中左側から撮像する。
【0099】
図6は、液晶ライトバルブ25によるスクリーン2上のフォーカス調整用の投影領域(第1の投影領域)および位置調整用の投影領域(第2の投影領域)と、カメラ61〜64の撮像領域とを模式的に示す図である。
【0100】
同図に示すように、カメラ61の撮像領域611、カメラ62の撮像領域621、カメラ63の撮像領域631およびカメラ64の撮像領域641は、それぞれ、ほぼ長方形(四角形)をなしている。
【0101】
各撮像領域611〜641の位置および姿勢は、それぞれ、図6に示すように、撮像領域611〜641の中心が所定の長方形(四角形)の4つの頂点のそれぞれに位置し、かつ、撮像領域611〜641の対応する辺が平行になるように設定される。
【0102】
前述したように、カメラ61〜64は、それぞれ、フォーカス調整と位置調整とで共用されるので、前記撮像領域611〜641は、それぞれ、フォーカス調整および位置調整の際の撮像領域である。すなわち、フォーカス調整の際に撮像されるスクリーン2上の領域と、位置調整の際に撮像されるスクリーン2上の領域は、同一の領域である。
【0103】
フォーカス調整用の投影領域(第1の投影領域)100は、ほぼ長方形(四角形)をなしている。
【0104】
図6中の一点鎖線で囲まれた領域が投影領域100であり、この投影領域100は、後述するフォーカス調整の際、液晶ライトバルブ24〜26により形成された画像がスクリーン2上に投影されたときの各々の投影画像の領域(範囲)を示す。
【0105】
すなわち、フォーカス調整の際は、図43に示すように、フォーカス調整用の投影画像(第1の投影画像)131(図43中の斜線の部分)が、スクリーン2上に投影される。但し、液晶ライトバルブ24〜26の一部分(例えば、撮像領域611〜641を包含する部分に対応する部分)に、照明装置71〜74からの光束(光)が照射される場合には、それぞれ、投影画像131のうちのその部分の投影画像がスクリーン2上に投影される。
【0106】
また、図6に示すように、位置調整用の投影領域(第2の投影領域)110は、ほぼ長方形(四角形)をなしている。
【0107】
図6中の点線で囲まれた領域が投影領域110であり、この投影領域110は、後述する位置調整の際、液晶ライトバルブ24〜26により形成された画像がスクリーン2上に投影されたときの各々の投影画像の領域(範囲)を示す。
【0108】
すなわち、位置調整の際は、図44に示すように、位置調整用の投影画像(第2の投影画像)141(図44中の斜線の部分)が、スクリーン2上に投影される。但し、液晶ライトバルブ24〜26の一部分(例えば、撮像領域611〜641を包含する部分に対応する部分)に、照明装置71〜74からの光束(光)が照射される場合には、それぞれ、投影画像141のうちのその部分の投影画像がスクリーン2上に投影される。
【0109】
図6に示すように、投影領域110(投影画像141)は、前記投影領域100(投影画像131)に包含されている。すなわち、投影領域100の辺103aは、投影領域110の辺113aの図6中左側に位置し、投影領域100の辺103bは、投影領域110の辺113bの図6中右側に位置し、投影領域100の辺104aは、投影領域110の辺114aの図6中下側に位置し、投影領域100の辺104bは、投影領域110の辺114bの図6中上側に位置している(投影領域100の輪郭は、投影領域110の輪郭の外側に位置している)。
【0110】
そして、前記投影領域100は、図6に示すように、撮像領域611〜641を包含し、かつ、投影領域100の角部101a、101b、101cおよび101dの近傍に、それぞれ、撮像領域611、621、631および641が位置するように設定される。
【0111】
一方、前記投影領域110は、図6に示すように、投影領域110の角部111a、111b、111cおよび111d(投影領域110の非投影領域115との境界部116のうちの所定部分)が、それぞれ、撮像領域611、621、631および641に包含されるように設定される。
【0112】
本実施例では、図6中左上を撮像する(撮像領域611に対応する)カメラ61を「カメラNo.1」、図6中右上を撮像する(撮像領域621に対応する)カメラ62を「カメラNo.2」、図6中左下を撮像する(撮像領域631に対応する)カメラ63を「カメラNo.3」、図6中右下を撮像する(撮像領域641に対応する)カメラ64を「カメラNo.4」とする。
【0113】
なお、投影領域100、110の形状を四角形に設定する場合、その四角形は、それぞれ、図6、図43、図44に示すような形状に限らず、例えば、図45、図46、図47、図54、図49、図50に斜線で示すような形状も含む。すなわち、輪郭(外形輪郭)がほぼ四角形であればよい。
【0114】
また、図2に示すように、位置決め装置1は、制御手段3、メモリー4、3軸テーブル駆動機構81および91を有している。
【0115】
制御手段3は、通常、マイクロコンピュータ(CPU)で構成され、メモリー4と、カメラ61、62、63および64と、照明装置71、72、73および74と、3軸テーブル駆動機構81および91等、位置決め装置1全体の制御と、位置決めされる液晶ライトバルブ24、25および26の駆動回路の制御とをそれぞれ行う。
【0116】
なお、6軸テーブルを用いて、液晶ライトバルブ24、25および26を変位させてもよい。
【0117】
次に、本発明のライトバルブの位置決め方法(位置決め装置1の作用)を説明する。
【0118】
光学ブロック20を位置決め装置1の所定の位置に設置し、位置決め装置1を作動させると、位置決め装置1により、自動的に、各液晶ライトバルブ24、25および26の位置決めが行われ、それらが光学ブロック20に仮固定される。
【0119】
本実施例では、各液晶ライトバルブ24、25および26の位置決めを行う場合、初めに、緑色用の液晶ライトバルブ25の位置決めを行い、この後、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めをそれぞれ行う。
【0120】
すなわち、初めに、液晶ライトバルブ25を予め設定された位置に位置決めし、この後、液晶ライトバルブ25の位置を検出し、この検出された位置に相当する位置に液晶ライトバルブ24および26をそれぞれ位置決めする。
【0121】
また、各液晶ライトバルブ24、25および26の位置決めの際は、それぞれ初めに、フォーカス調整(コントラスト調整)を行い、次いで、位置調整(アライメント調整)を行う。
【0122】
フォーカス調整では、まず、粗調整(第1のフォーカス調整)により、粗く調整し、次いで、微調整(第2のフォーカス調整)により密に調整する。以下、代表的に緑色用の液晶ライトバルブ25のフォーカス調整を説明する。
【0123】
図7、図8および図9は、フォーカス調整における位置決め装置1の制御手段3の制御動作を示すフローチャートである。なお、図8および図9は、図7中のステップS10a(2箇所)におけるサブルーチンを示す。以下、このフローチャートに基づいて説明する。
【0124】
フォーカス調整では、まず、4台の照明装置71〜74を点灯させる(ステップS100)。
【0125】
次いで、液晶ライトバルブ25を作動(駆動)させ、その所定の画素をオンし、スクリーン2上に図43に示す前述したフォーカス調整用の投影画像131を投影する(ステップS101)。
【0126】
すなわち、ステップS101により、図1に示すように、照明装置71〜74から出射し、液晶ライトバルブ25の画素のうちのオンした画素を透過した光がスクリーン2上の投影領域100に投影される。
【0127】
次いで、3軸テーブル8により、液晶ライトバルブ25をZ軸に沿って、粗調整における画像データ取得開始位置(Z軸方向基準位置)へ移動させる(ステップS102)。なお、液晶ライトバルブ25をZ軸方向の所定位置に位置させる場合、液晶ライトバルブ25の有効画面領域の中心を前記所定位置に位置させるものとする。
【0128】
前記画像データ取得開始位置は、フォーカスが合うと予想される位置から、ダイクロイックプリズム21から離間する方向に十分に離間した所定位置(フォーカスが合わない位置)に予め設定されている。
【0129】
次いで、カメラNo.1(カメラ61)で撮像し、撮像領域611の輝度に関する画像データ(以下、単に「画像データ」と言う)を求め、これをメモリー4に記憶する(ステップS103)。
【0130】
次いで、カメラNo.2(カメラ62)で撮像し、撮像領域621の画像データをメモリー4に記憶する(ステップS104)。
【0131】
次いで、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する(ステップS105)。
【0132】
次いで、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する(ステップS106)。
【0133】
次いで、分散値取得処理(図8および図9に示すサブルーチン)を実行する(ステップS10a)。
【0134】
この分散値取得処理では、前記カメラNo.1〜カメラNo.4で撮像した各画像(電子画像)について、それぞれ、Y軸方向成分(縦方向成分)の分散値Vvと、X軸方向成分(横方向成分)の分散値Vhとを取得する。
【0135】
この場合、図34に示すように、カメラNo.1の撮像領域611(カメラNo.1の全画素)のうち、中心部の所定領域(例えば、カメラNo.1の240行×240列の画素)が、この分散値取得処理における処理領域550として予め設定されている。
【0136】
同様に、カメラNo.2〜カメラNo.4の撮像領域621〜641の中心部の所定領域(例えば、240行×240列の画素)が、それぞれ、この分散値取得処理における処理領域550として予め設定されている(図示せず)。
【0137】
また、図34に示すように、X−Y座標を想定する。このX−Y座標のX軸方向(横方向)は、カメラNo.1の画素の行方向に対応し、Y軸方向(縦方向)は、カメラNo.1の画素の列方向に対応する。
【0138】
同様に、カメラNo.2〜カメラNo.4についてもそれぞれX−Y座標を想定する(図示せず)。
【0139】
図35は、処理領域550の一部分を模式的に示す図である。
【0140】
同図に示すように、処理領域550のうち、液晶ライトバルブ25の画素に対応する部分を画素部551とし、液晶ライトバルブ25の画素以外の部分に対応する部分、すなわち、画素部551以外の部分を間隙部552とする。画素部551の輝度は、間隙部552の輝度より高い。
【0141】
前記間隙部552のうち、Y軸方向に配列された液晶ライトバルブ25の画素の間の部分に対応する部分、すなわち、Y軸方向に配列された画素部551の間の部分をY軸方向間隙部553とする。
【0142】
また、前記間隙部552のうち、X軸方向に配列された液晶ライトバルブ25の画素の間の部分に対応する部分、すなわち、X軸方向に配列された画素部551の間の部分をX軸方向間隙部554とする。
【0143】
また、前記間隙部552のうち、隣接するY軸方向間隙部553の間の部分であって、かつ、隣接するX軸方向間隙部554の間の部分でもある部分を共通間隙部555とする。
【0144】
そして、X軸方向に配列された画素部551と、このX軸方向に配列された画素部551の間のX軸方向間隙部554とで構成される部分をA行とし、X軸方向に配列されたY軸方向間隙部553と、このX軸方向に配列されたY軸方向間隙部553の間の共通間隙部555とで構成される部分をB行とする。
【0145】
また、Y軸方向に配列された画素部551と、このY軸方向に配列された画素部551の間のY軸方向間隙部553とで構成される部分をC列とし、Y軸方向に配列されたX軸方向間隙部554と、このY軸方向に配列されたX軸方向間隙部554の間の共通間隙部555とで構成される部分をD列とする。
【0146】
ここで、本発明では、液晶ライトバルブ25の所定の画素をオフ(光束を遮断)し、その画素の部分の画像を投影しない場合には、処理領域550のうち、前記投影されない画素に対応する部分を、液晶ライトバルブ25の画素以外の部分に対応する部分(画素部551以外の部分)、すなわち、間隙部552とする。換言すれば、本発明では、処理領域550のうち、液晶ライトバルブ25の画素に対応する部分(画素部551)とは、液晶ライトバルブ25の画素の投影画像の部分を意味する。
【0147】
この分散値取得処理では、まず、カメラNo.1で撮像した画像について、処理領域550内のカメラNo.1の各画素における輝度をY軸方向(縦方向)に積算し、Y軸方向(縦方向)の輝度の積算値を求める(ステップS201)。この積算値は、処理領域550内のカメラNo.1のX軸方向(横方向)の画素数と同数得られる。
【0148】
図36および図37は、処理領域550の一部分と、その部分に対応する前記Y軸方向の輝度の積算値のグラフとを示す図である。なお、グラフの縦軸に、Y軸方向の輝度の積算値、横軸に、前記積算値に対応するカメラNo.1の画素の列のX軸方向の位置をとる。
【0149】
図36に示すように、Y軸方向の輝度の積算値は、画素部551を含むC列で大きく、画素部551を含まないD列で小さくなる。
【0150】
次いで、カメラNo.1の画素の列のうち、前記Y軸方向の輝度の積算値の大きい方から列を30ライン(30列)選択する(ステップS202)。
【0151】
この場合、カメラNo.1の画素の列を積算値の大きい方から選択するので、図37に示すように、選択された各列560は、すべてC列に属する。
【0152】
なお、本発明では、前記選択される列560の数は、30ラインに限定されない。すなわち、C列に属するカメラNo.1のすべての画素の列を選択してもよいし、また、C列に属するカメラNo.1の画素の列のうちの一部を選択してもよい。
【0153】
次いで、前記選択された30ラインの列560についての画素の輝度の分散値(σ)を求める(ステップS203)。
【0154】
このステップS203では、輝度の値と、その輝度のカメラNo.1の画素数とを検出し、これらに基づいて、前記分散値を求める。
【0155】
この分散値の大小は、Y軸方向に配列された画素部551と、Y軸方向間隙部553における明暗のコントラスト(画像の鮮明さ)の大小に対応する。すなわち、前記分散値は、A行とB行のコントラストを検出するための情報とされる。なお、後述するように、前記分散値が最大のとき、Y軸方向に配列された画素部551と、Y軸方向間隙部553におけるコントラスト、すなわち、A行とB行のコントラストが最大となる。
【0156】
次いで、前記ステップS203で求めた分散値をカメラNo.1で撮像した画像のX軸方向成分(横方向成分)を持った分散値(X軸方向成分の分散値)Vhとしてメモリー4に記憶し、また、この分散値Vhおよび後述する分散値Vvと対応するように、このときの液晶ライトバルブ25のZ軸方向の位置(Z座標)をメモリー4に記憶する(ステップS204)。
【0157】
次いで、カメラNo.1で撮像した画像について、処理領域550内のカメラNo.1の各画素における輝度をX軸方向(横方向)に積算し、X軸方向(横方向)の輝度の積算値を求める(ステップS205)。この積算値は、処理領域550内のカメラNo.1のY軸方向(縦方向)の画素数と同数得られる。
【0158】
図38および図39は、処理領域550の一部分と、その部分に対応する前記X軸方向の輝度の積算値のグラフとを示す図である。なお、グラフの横軸に、X軸方向の輝度の積算値、縦軸に、前記積算値に対応するカメラNo.1の画素の行のY軸方向の位置をとる。
【0159】
図38に示すように、X軸方向の輝度の積算値は、画素部551を含むA行で大きく、画素部551を含まないB行で小さくなる。
【0160】
次いで、カメラNo.1の画素の行のうち、前記X軸方向の輝度の積算値の大きい方から行を30ライン(30行)選択する(ステップS206)。
【0161】
この場合、カメラNo.1の画素の行を積算値の大きい方から選択するので、図39に示すように、選択された各行570は、すべてA行に属する。
【0162】
なお、本発明では、前記選択される行570の数は、30ラインに限定されない。すなわち、A行に属するカメラNo.1のすべての画素の行を選択してもよいし、また、A行に属するカメラNo.1の画素の行のうちの一部を選択してもよい。
【0163】
次いで、前記選択された30ラインの行570についての画素の輝度の分散値を求める(ステップS207)。
【0164】
このステップS207では、輝度の値と、その輝度のカメラNo.1の画素数とを検出し、これらに基づいて、前記分散値を求める。
【0165】
この分散値の大小は、X軸方向に配列された画素部551と、X軸方向間隙部554における明暗のコントラスト(画像の鮮明さ)の大小に対応する。すなわち、前記分散値は、C列とD列のコントラストを検出するための情報とされる。なお、後述するように、前記分散値が最大のとき、X軸方向に配列された画素部551と、X軸方向間隙部554におけるコントラスト、すなわち、C列とD列のコントラストが最大となる。
【0166】
次いで、前記ステップS207で求めた分散値をカメラNo.1で撮像した画像のY軸方向成分(縦方向成分)を持った分散値(Y軸方向成分の分散値)Vvとしてメモリー4に記憶する(ステップS208)。
【0167】
次いで、前記カメラNo.1で撮像した画像の場合と同様に、カメラNo.2で撮像した画像について、処理領域550内のカメラNo.2の各画素における輝度をY軸方向(縦方向)に積算し、Y軸方向(縦方向)の輝度の積算値を求める(ステップS209)。
【0168】
次いで、前記と同様に、カメラNo.2の画素の列のうち、前記Y軸方向の輝度の積算値の大きい方から列を30ライン(30列)選択する(ステップS210)。
【0169】
次いで、前記と同様に、前記選択された30ラインの列560についての画素の輝度の分散値を求める(ステップS211)。
【0170】
次いで、前記と同様に、前記ステップS211で求めた分散値をカメラNo.2で撮像した画像のX軸方向成分(横方向成分)を持った分散値(X軸方向成分の分散値)Vhとしてメモリー4に記憶し、また、この分散値Vhおよび後述する分散値Vvと対応するように、このときの液晶ライトバルブ25のZ軸方向の位置(Z座標)をメモリー4に記憶する(ステップS212)。
【0171】
次いで、前記と同様に、カメラNo.2で撮像した画像について、処理領域550内のカメラNo.2の各画素における輝度をX軸方向(横方向)に積算し、X軸方向(横方向)の輝度の積算値を求める(ステップS213)。
【0172】
次いで、前記と同様に、カメラNo.2の画素の行のうち、前記X軸方向の輝度の積算値の大きい方から行を30ライン(30行)選択する(ステップS214)。
【0173】
次いで、前記と同様に、前記選択された30ラインの行570についての画素の輝度の分散値を求める(ステップS215)。
【0174】
次いで、前記と同様に、前記ステップS215で求めた分散値をカメラNo.2で撮像した画像のY軸方向成分(縦方向成分)を持った分散値(Y軸方向成分の分散値)Vvとしてメモリー4に記憶する(ステップS216)。
【0175】
次いで、前記カメラNo.1で撮像した画像の場合と同様に、カメラNo.3で撮像した画像について、処理領域550内のカメラNo.3の各画素における輝度をY軸方向(縦方向)に積算し、Y軸方向(縦方向)の輝度の積算値を求める(ステップS217)。
【0176】
次いで、前記と同様に、カメラNo.3の画素の列のうち、前記Y軸方向の輝度の積算値の大きい方から列を30ライン(30列)選択する(ステップS218)。
【0177】
次いで、前記と同様に、前記選択された30ラインの列560についての画素の輝度の分散値を求める(ステップS219)。
【0178】
次いで、前記と同様に、前記ステップS219で求めた分散値をカメラNo.3で撮像した画像のX軸方向成分(横方向成分)を持った分散値(X軸方向成分の分散値)Vhとしてメモリー4に記憶し、また、この分散値Vhおよび後述する分散値Vvと対応するように、このときの液晶ライトバルブ25のZ軸方向の位置(Z座標)をメモリー4に記憶する(ステップS220)。
【0179】
次いで、前記と同様に、カメラNo.3で撮像した画像について、処理領域550内のカメラNo.3の各画素における輝度をX軸方向(横方向)に積算し、X軸方向(横方向)の輝度の積算値を求める(ステップS221)。
【0180】
次いで、前記と同様に、カメラNo.3の画素の行のうち、前記X軸方向の輝度の積算値の大きい方から行を30ライン(30行)選択する(ステップS222)。
【0181】
次いで、前記と同様に、前記選択された30ラインの行570についての画素の輝度の分散値を求める(ステップS223)。
【0182】
次いで、前記と同様に、前記ステップS223で求めた分散値をカメラNo.3で撮像した画像のY軸方向成分(縦方向成分)を持った分散値(Y軸方向成分の分散値)Vvとしてメモリー4に記憶する(ステップS224)。
【0183】
次いで、前記カメラNo.1で撮像した画像の場合と同様に、カメラNo.4で撮像した画像について、処理領域550内のカメラNo.4の各画素における輝度をY軸方向(縦方向)に積算し、Y軸方向(縦方向)の輝度の積算値を求める(ステップS225)。
【0184】
次いで、前記と同様に、カメラNo.4の画素の列のうち、前記Y軸方向の輝度の積算値の大きい方から列を30ライン(30列)選択する(ステップS226)。
【0185】
次いで、前記と同様に、前記選択された30ラインの列560についての画素の輝度の分散値を求める(ステップS227)。
【0186】
次いで、前記と同様に、前記ステップS227で求めた分散値をカメラNo.4で撮像した画像のX軸方向成分(横方向成分)を持った分散値(X軸方向成分の分散値)Vhとしてメモリー4に記憶し、また、この分散値Vhおよび後述する分散値Vvと対応するように、このときの液晶ライトバルブ25のZ軸方向の位置(Z座標)をメモリー4に記憶する(ステップS228)。
【0187】
次いで、前記と同様に、カメラNo.4で撮像した画像について、処理領域550内のカメラNo.4の各画素における輝度をX軸方向(横方向)に積算し、X軸方向(横方向)の輝度の積算値を求める(ステップS229)。
【0188】
次いで、前記と同様に、カメラNo.4の画素の行のうち、前記X軸方向の輝度の積算値の大きい方から行を30ライン(30行)選択する(ステップS230)。
【0189】
次いで、前記と同様に、前記選択された30ラインの行570についての画素の輝度の分散値を求める(ステップS231)。
【0190】
次いで、前記と同様に、前記ステップS231で求めた分散値をカメラNo.4で撮像した画像のY軸方向成分(縦方向成分)を持った分散値(Y軸方向成分の分散値)Vvとしてメモリー4に記憶する(ステップS232)。
【0191】
前記ステップS232の後、図7に示すルーチンに戻り、図40に示すように、3軸テーブル8により、液晶ライトバルブ25をZ軸方向に一定量(一定距離)(例えば、50μm )移動させる(ステップS107)。
【0192】
前述したように、粗調整における画像データ取得開始位置がフォーカスが合うと予想される位置よりダイクロイックプリズム21に遠い側の所定位置に設定されているので、このステップS107では、液晶ライトバルブ25をダイクロイックプリズム21に接近する方向(図40中左側)に移動させる。
【0193】
また、ステップS107は、粗調整における画像データ取得のための液晶ライトバルブ25の移動制御であるので、その移動量(移動距離)は、後述するステップ117の微調整における画像データ取得のための液晶ライトバルブ25の移動制御での液晶ライトバルブ25の移動量より大きく設定されている。
【0194】
前記ステップS107での液晶ライトバルブ25の移動量をL1、後述するステップS117での液晶ライトバルブ25の移動量をL2としたとき、これらの比L1/L2は、2〜10程度が好ましく、3〜7程度がより好ましい。
【0195】
また、ステップS107での液晶ライトバルブ25の移動量L1は、20〜240μm 程度が好ましく、30〜100μm 程度がより好ましい。
【0196】
また、後述するステップS117での液晶ライトバルブ25の移動量L2は、3〜30μm 程度が好ましく、5〜20μm 程度がより好ましい。
【0197】
以上のように液晶ライトバルブ25の移動量L1、L2を設定することにより、フォーカス調整に要する時間を短縮しつつ、フォーカス調整の精度を向上させることができる。
【0198】
次いで、液晶ライトバルブ25が粗調整における画像データ取得終了位置に到達したか否かを判断する(ステップS108)。
【0199】
前記画像データ取得終了位置は、フォーカスが合うと予想される位置から、ダイクロイックプリズム21に接近する方向に十分に離間した所定位置(フォーカスが合わない位置)に予め設定されている。
【0200】
前記ステップS108において、液晶ライトバルブ25が画像データ取得終了位置に到達していないと判断した場合には、ステップS103に戻り、再度、ステップS103〜ステップS108を実行する。これにより、液晶ライトバルブ25を前回の位置からZ軸方向にL1移動させてカメラNo.1〜カメラNo.4で撮像した各画像について、それぞれ、Y軸方向成分の分散値Vvと、X軸方向成分の分散値Vhとを取得することができる。
【0201】
また、前記ステップS108において、液晶ライトバルブ25が画像データ取得終了位置に到達したと判断した場合には、粗調整における前記ステップS10aで取得した分散値に基づいて、粗調整におけるZ軸方向のフォーカス位置(Z座標)ZPと、H方向の移動量(角度)Hdと、V方向の移動量(角度)Vdとをそれぞれ求める(ステップS109)。
【0202】
このステップS109では、カメラNo.1で撮像した画像(電子画像)について、Y軸方向成分(縦方向成分)の分散値Vvの最大値と、X軸方向成分(横方向成分)の分散値Vhの最大値とをそれぞれ求め、これらから、Y軸方向成分の分散値Vvが最大の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置(Z座標)Z1vと、X軸方向成分の分散値Vhが最大の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置(Z座標)Z1hとをそれぞれ検出する。
【0203】
図41は、カメラNo.1で撮像した画像についての分散値Vh、Vvと、前記分散値Vh、Vvを取得したときの液晶ライトバルブ25のZ軸方向の位置との関係を示すグラフである。なお、グラフの縦軸に、分散値Vh、Vv、横軸に、液晶ライトバルブ25のZ軸方向の位置をとる。
【0204】
図42は、液晶ライトバルブ25のZ軸方向の位置を変えたときの処理領域550内の画像(フォーカスの状態:コントラスト)を模式的に示す図である。
【0205】
図42において、液晶ライトバルブ25のZ軸方向の位置は、処理領域550内の画像の状態が(a)のときがダイクロイックプリズム21から最も離間し、以下、(b)、(c)、(d)、(e)、(f)、(g)の順に、ダイクロイックプリズム21に接近する。
【0206】
また、図42(d)の状態は、このフォーカス調整における撮像領域611内の画像の目的の状態、すなわち、フォーカスが合った状態(合焦状態)を示すものであり、このときは、A行とB行のコントラスト(Y軸方向に配列された画素部551とY軸方向間隙部553におけるコントラスト)と、C列とD列のコントラスト(X軸方向に配列された画素部551とX軸方向間隙部554におけるコントラスト)とが、それぞれ比較的高く、かつ、そのバランスも良い。
【0207】
図41に示すように、X軸方向成分の分散値Vhが最大のとき、すなわち、液晶ライトバルブ25がZ1hに位置しているときは、処理領域550内の画像は、図42(c)の状態、すなわち、A行とB行のコントラスト(Y軸方向に配列された画素部551とY軸方向間隙部553におけるコントラスト)が最大の状態(第1の状態)となる。
【0208】
一方、図41に示すように、Y軸方向成分の分散値Vvが最大のとき、すなわち、液晶ライトバルブ25がZ1vに位置しているときは、処理領域550内の画像は、図42(e)の状態、すなわち、C列とD列のコントラスト(X軸方向に配列された画素部551とX軸方向間隙部554におけるコントラスト)が最大の状態(第2の状態)となる。
【0209】
図42(d)に示す目的の状態は、図42(c)に示す第1の状態と、図42(e)に示す第2の状態との間の所定の状態であるので、図42(d)の状態が得られるのは、液晶ライトバルブ25が、位置Z1vと位置Z1hとの間の所定の位置(Z座標)に位置しているときである。
【0210】
従って、前記位置Z1vと位置Z1hとの間の所定の位置(Z座標)(例えば、Z1vとZ1hの中間の位置)をZ1とする。
【0211】
本実施例では、例えば、Z1vおよびZ1hを下記式に代入して、Z1を求める。
【0212】
Z1=a・Z1v+(1−a)・Z1h(但し、0<a<1)
上記式中の係数aは、その式で求めたZ1に液晶ライトバルブ25を位置させたとき、スクリーン2上に投影された撮像領域611中の画像について、フォーカスが合うように(合焦状態が得られるように)、すなわち、処理領域550内の画像の状態が図42(d)に示す目的の状態とになるように、予め設定されている。なお、この係数aは、その設定に先立って、例えば、実験的に求められる。
【0213】
ここで、処理領域550内のカメラNo.1の全画素についての輝度の分散値が最大となるときの処理領域550内の画像は、例えば、レンズの収差等の影響により、必ずしも図42(d)の状態になるとは限らない。このため、処理領域550内のカメラNo.1の全画素についての輝度の分散値が最大となるときの液晶ライトバルブ25のZ軸方向の位置を前記Z1として後述する調整を行うと、特に、レンズの収差が大きい場合は、フォーカス調整の精度が低くなってしまうことがある。
【0214】
これに対し、レンズの収差の大小にかかわらず、X軸方向成分の分散値Vhが最大のときの液晶ライトバルブ25のZ軸方向の位置Z1hと、Y軸方向成分の分散値Vvが最大のときの液晶ライトバルブ25のZ軸方向の位置Z1vとの間の所定の位置に液晶ライトバルブ25が位置しているときに、処理領域550内の画像は、図42(d)に示すフォーカスが合った状態となる。
【0215】
従って、前述したように、X軸方向成分の分散値Vhが最大のときの液晶ライトバルブ25のZ軸方向の位置Z1hと、Y軸方向成分の分散値Vvが最大のときの液晶ライトバルブ25のZ軸方向の位置Z1vの間の所定の位置をZ1とし、このZ1に基づいて後述する調整を行うことにより、フォーカス調整の精度を高くすることができる。
【0216】
また、前記と同様に、カメラNo.2で撮像した画像(電子画像)について、Y軸方向成分(縦方向成分)の分散値Vvの最大値と、X軸方向成分(横方向成分)の分散値Vhの最大値とをそれぞれ求め、これらから、Y軸方向成分の分散値Vvが最大の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置(Z座標)Z2vと、X軸方向成分の分散値Vhが最大の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置(Z座標)Z2hとをそれぞれ検出し、前記位置Z2vと位置Z2hとの間の所定の位置(Z座標)(例えば、Z2vとZ2hの中間の位置)をZ2とする。本実施例では、例えば、Z2vおよびZ2hを下記式に代入して、Z2を求める。
【0217】
Z2=a・Z2v+(1−a)・Z2h(但し、0<a<1)
なお、上記式中の係数aは、前記と同様に予め設定されている。
【0218】
また、前記と同様に、カメラNo.3で撮像した画像(電子画像)について、Y軸方向成分(縦方向成分)の分散値Vvの最大値と、X軸方向成分(横方向成分)の分散値Vhの最大値とをそれぞれ求め、これらから、Y軸方向成分の分散値Vvが最大の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置(Z座標)Z3vと、X軸方向成分の分散値Vhが最大の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置(Z座標)Z3hとをそれぞれ検出し、前記位置Z3vと位置Z3hとの間の所定の位置(Z座標)(例えば、Z3vとZ3hの中間の位置)をZ3とする。本実施例では、例えば、Z3vおよびZ3hを下記式に代入して、Z3を求める。
【0219】
Z3=a・Z3v+(1−a)・Z3h(但し、0<a<1)
なお、上記式中の係数aは、前記と同様に予め設定されている。
【0220】
また、前記と同様に、カメラNo.4で撮像した画像(電子画像)について、Y軸方向成分(縦方向成分)の分散値Vvの最大値と、X軸方向成分(横方向成分)の分散値Vhの最大値とをそれぞれ求め、これらから、Y軸方向成分の分散値Vvが最大の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置(Z座標)Z4vと、X軸方向成分の分散値Vhが最大の画像を撮像したときの液晶ライトバルブ25のZ軸方向の位置(Z座標)Z4hとをそれぞれ検出し、前記位置Z4vと位置Z4hとの間の所定の位置(Z座標)(例えば、Z4vとZ4hの中間の位置)をZ4とする。本実施例では、例えば、Z4vおよびZ4hを下記式に代入して、Z4を求める。
【0221】
Z4=a・Z4v+(1−a)・Z4h(但し、0<a<1)
なお、上記式中の係数aは、前記と同様に予め設定されている。
【0222】
前記Z1、Z2、Z3およびZ4を下記(1)式に代入して、液晶ライトバルブ25のZ軸方向のフォーカス位置(Z座標)ZPを求める。
【0223】
【数1】

Figure 0004096437
【0224】
ここで、カメラNo.1の撮像領域611の中心(中心点)をフォーカス調整された液晶ライトバルブ25に光学ブロック20を介して投影したときのX座標を上記(1)式中のX1、Y座標を上記(1)式中のY1とする。
【0225】
同様に、カメラNo.2の撮像領域621の中心をフォーカス調整された液晶ライトバルブ25に光学ブロック20を介して投影したときのX座標を上記(1)式中のX2、Y座標を上記(1)式中のY2とする。
【0226】
同様に、カメラNo.3の撮像領域631の中心をフォーカス調整された液晶ライトバルブ25に光学ブロック20を介して投影したときのX座標を上記(1)式中のX3、Y座標を上記(1)式中のY3とする。
【0227】
同様に、カメラNo.4の撮像領域641の中心をフォーカス調整された液晶ライトバルブ25に光学ブロック20を介して投影したときのX座標を上記(1)式中のX4、Y座標を上記(1)式中のY4とする。
【0228】
なお、前記X1、Y1、X2、Y2、X3、Y3、X4およびY4は、それぞれ、対応するカメラの位置で決定されている。
【0229】
前記X1、X2、X3およびX4と、前記Z1、Z2、Z3およびZ4とを下記(2)式に代入して、液晶ライトバルブ25のH方向の移動量(角度)Hdを求める。なお、図5中の矢印(H)の方向が正の方向である。
【0230】
【数2】
Figure 0004096437
【0231】
また、前記Hdと、前記Y1、Y2、Y3およびY4と、前記Z1、Z2、Z3およびZ4とを下記(3)式に代入して、液晶ライトバルブ25のV方向の移動量(角度)Vdを求める。なお、図5中の矢印(V)の方向が正の方向である。
【0232】
【数3】
Figure 0004096437
【0233】
次いで、3軸テーブル8により、液晶ライトバルブ25を、H方向に前記ステップS109で得られた角度Hd回転させ、また、V方向に角度Vd回転させる(ステップS110)。
【0234】
ここで、3軸テーブル8により、液晶ライトバルブ25をZ軸に沿って前記ステップS109で得られたフォーカス位置ZPに移動させた場合には、4つの撮像領域611〜641の処理領域550内の画像の状態が、それぞれ、図42(d)に示す目的の状態に近づく(目的の状態と一致する場合も含む)が、すなわち、粗く4隅のフォーカスが合うが、この動作は省略される(液晶ライトバルブ25のZ軸方向の調整は、後述する微調整においてのみ行えばよい)。なお、この動作を前記粗調整において行ってもよいことは、言うまでもない。
【0235】
また、前記ステップS110では、必要に応じて、3軸テーブル9により、液晶ライトバルブ25をX軸方向、Y軸方向に所定量移動させる。
【0236】
このステップS110で粗調整が終了する。
【0237】
次いで、微調整における画像データ取得のための液晶ライトバルブ25のZ軸方向移動範囲を設定する(ステップS111)。
【0238】
このステップS111では、前記ステップS109で得られたフォーカス位置ZPから、ダイクロイックプリズム21から離間する方向に所定量(所定距離)離間した位置を後述するステップS112の微調整における画像データ取得開始位置(Z軸方向設定位置)として設定するとともに、前記フォーカス位置ZPから、ダイクロイックプリズム21に接近する方向に所定量(所定距離)離間した位置を後述するステップS118の微調整における画像データ取得終了位置として設定する。
【0239】
前記所定量は、それぞれ、例えば、図41に示すZ軸方向の距離L3の1/2の値、または距離L3の1/2より大きい所定の値に予め設定されている。この所定量は、例えば、実験的に求められる。
【0240】
なお、前記画像データ取得開始位置は、液晶ライトバルブ25が画像データ取得開始位置に位置しているとき、フォーカスが合わないように設定されればよいが、液晶ライトバルブ25が画像データ取得開始位置に位置しているとき、フォーカスが合わず、かつ、撮像領域611〜641内の液晶ライトバルブ25の画素に対応する部分の輝度と、前記画素の間の部分に対応する部分の輝度とに差がでるように設定されるのが好ましい。
【0241】
また、前記画像データ取得終了位置は、液晶ライトバルブ25が画像データ取得終了位置に位置しているとき、フォーカスが合わないように設定されればよいが、液晶ライトバルブ25が画像データ取得終了位置に位置しているとき、フォーカスが合わず、かつ、撮像領域611〜641内の液晶ライトバルブ25の画素に対応する部分の輝度と、前記画素の間の部分に対応する部分の輝度とに差がでるように設定されるのが好ましい。
【0242】
次いで、3軸テーブル8により、液晶ライトバルブ25をZ軸に沿って、前記微調整における画像データ取得開始位置(Z軸方向設定位置)へ移動させる(ステップS112)。
【0243】
次いで、カメラNo.1で撮像し、撮像領域611の画像データをメモリー4に記憶する(ステップS113)。
【0244】
次いで、カメラNo.2で撮像し、撮像領域621の画像データをメモリー4に記憶する(ステップS114)。
【0245】
次いで、カメラNo.3で撮像し、撮像領域631の画像データをメモリー4に記憶する(ステップS115)。
【0246】
次いで、カメラNo.4で撮像し、撮像領域641の画像データをメモリー4に記憶する(ステップS116)。
【0247】
次いで、前述したように、分散値取得処理(図8および図9に示すサブルーチン)を実行し(ステップS10a)、カメラNo.1〜カメラNo.4で撮像した各画像(電子画像)について、それぞれ、Y軸方向成分(縦方向成分)の分散値Vvと、X軸方向成分(横方向成分)の分散値Vhとを取得する。
【0248】
次いで、図40に示すように、3軸テーブル8により、液晶ライトバルブ25をZ軸方向に一定量(例えば、10μm )移動させる(ステップS117)。
【0249】
前述したように、微調整における画像データ取得開始位置が前記ステップS109で得られたフォーカス位置ZPよりダイクロイックプリズム21に遠い側の所定位置に設定されているので、このステップS117では、液晶ライトバルブ25をダイクロイックプリズム21に接近する方向(図40中左側)に移動させる。
【0250】
次いで、液晶ライトバルブ25が微調整における画像データ取得終了位置に到達したか否かを判断する(ステップS118)。
【0251】
前記ステップS118において、液晶ライトバルブ25が画像データ取得終了位置に到達していないと判断した場合には、ステップS113に戻り、再度、ステップS113〜ステップS118を実行する。これにより、液晶ライトバルブ25を前回の位置からZ軸方向にL1移動させてカメラNo.1〜カメラNo.4で撮像した各画像について、それぞれ、Y軸方向成分の分散値Vvと、X軸方向成分の分散値Vhとを取得することができる。
【0252】
また、前記ステップS118において、液晶ライトバルブ25が画像データ取得終了位置に到達したと判断した場合には、前述した粗調整の場合と同様にして、微調整における前記ステップS10aで取得した分散値に基づいて、微調整におけるZ軸方向のフォーカス位置(合焦位置)ZPと、H方向の移動量(角度)Hdと、V方向の移動量(角度)Vdとをそれぞれ求める(ステップS119)。
【0253】
次いで、3軸テーブル8により、液晶ライトバルブ25をZ軸に沿って前記ステップS119で得られたフォーカス位置ZPに移動させ、また、H方向に角度Hd回転させ、また、V方向に角度Vd回転させる(ステップS120)。
【0254】
これにより、前記ステップS110において液晶ライトバルブ25をZ軸に沿って前記ステップS109で得られたフォーカス位置ZPに移動させた場合に対し、4つの撮像領域611〜641の処理領域550内の画像の状態が、それぞれ、図42(d)に示す目的の状態にさらに近づく(目的の状態と一致する場合も含む)。すなわち、実質的に4隅のフォーカスが合う。
【0255】
また、前記ステップS120では、必要に応じて、3軸テーブル9により、液晶ライトバルブ25をX軸方向、Y軸方向に所定量移動させる。
【0256】
このステップS120で微調整が終了、すなわち、フォーカス調整が終了する。
【0257】
なお、本発明では、フォーカス調整における粗調整や、微調整を前述した方法と異なる方法で行ってもよい。前述した方法と異なる方法としては、例えば、画像全体の分散値を求めてフォーカス調整を行う方法や、コントラストを測定してフォーカス調整を行う方法等が挙げられる。
【0258】
但し、フォーカス調整における粗調整と微調整のうちの一方、特に、微調整を前述した方法で行うのが好ましく、フォーカス調整における粗調整と微調整の両方を前述した方法で行うのがより好ましい。
【0259】
また、前記実施例では、フォーカス調整における調整の回数が2回(粗調整と微調整)に設定されているが、本発明では、フォーカス調整における調整の回数は、2回に限らず、1回、または3回以上であってもよい。
【0260】
但し、フォーカス調整における調整の回数は、2回以上が好ましく、2〜4回程度がより好ましい。
【0261】
フォーカス調整において、その調整を2回以上行うと、フォーカス調整の精度を向上させることができる。
【0262】
また、フォーカス調整における調整の回数を2回以上にする場合、後の調整ほど、撮像時の液晶ライトバルブ25のZ軸方向における位置の間隔(画像データを取得する際、液晶ライトバルブ25を次の撮像時の位置に移動させるときのその移動量)を小さくするのが好ましい。
【0263】
これにより、フォーカス調整に要する時間を短縮しつつ、フォーカス調整の精度を向上させることができる。
【0264】
また、本発明では、画像データを取得する際の液晶ライトバルブ25の移動方向を、ダイクロイックプリズム21から離間する方向(図40中右側)としてもよい。すなわち、画像データ取得開始位置と画像データ取得終了位置を前記実施例と逆にしてもよい。
【0265】
また、本発明では、粗調整と微調整とで、画像データを取得する際の液晶ライトバルブ25の移動方向が異なっていてもよい。
【0266】
また、前記実施例では、A行に属する行570や、C列に属する列560を選択する場合、積算値の大きい方から所定数のラインを選択するようになっているが、本発明では、これに限らず、例えば、所定のしきい値を設定し、このしいき値以上の行や列を選択するように構成してもよい。
【0267】
但し、前記実施例のように積算値の大きい方から所定数のラインを選択するよう構成するのが好ましい。この場合には、特に、照明ムラや画像ムラがあったとしても、精度良くフォーカス調整することができる。
【0268】
フォーカス調整終了後、液晶ライトバルブ25の作動(駆動)を維持し、その所定の画素をオンし、スクリーン2上に図44に示す前述した位置調整用の投影画像141を投影する(ステップS150)。
【0269】
すなわち、ステップS150により、図1に示すように、照明装置71〜74から出射し、液晶ライトバルブ25の画素のうちのオンした画素を透過した光がスクリーン2上の投影領域110に投影される。
【0270】
このステップS150後、位置調整(アライメント調整)へ移行する。以下、代表的に緑色用の液晶ライトバルブ25の位置調整(アライメント調整)を説明する。
【0271】
図10、13〜18は、位置調整(アライメント調整)における位置決め装置1の制御手段3の制御動作を示すフローチャートである。以下、このフローチャートに基づいて説明する。
【0272】
以下のアライメント調整の説明において、投影領域110を移動させるとは、3軸テーブル9で液晶ライトバルブ25をX軸方向およびY軸方向に移動させることにより、投影領域110を移動させることを意味する。また、投影領域110を回転させるとは、3軸テーブル9で液晶ライトバルブ25をW方向(Z軸の回り)に回転させることにより、投影領域110を回転させることを意味する。
【0273】
また、以下のアライメント調整の説明において、図19〜25中左右方向は、液晶ライトバルブ25のX軸方向に対応し、図19〜25中上下方向は、液晶ライトバルブ25のY軸方向に対応している。
【0274】
以下の位置調整を行う前に、あらかじめ、メモリー4に、図11に示すような、投影領域110の各角部111a、111b、111cおよび111dを含む部分に対応した4つのパターンA1、B1、C1およびD1の画像データ(輝度データ)を記憶しておく。さらに、あらかじめ、図12に示すような、投影領域110の図6中左側のY軸方向の辺113aを含む部分に対応したパターンH1、および、投影領域110の図6中下側のX軸方向の辺114aを含む部分に対応したパターンV1の画像データを記憶しておく。
【0275】
各パターンA1、B1、C1およびD1中には、それぞれ、位置121、122、123および124があらかじめ設定されている。これら位置121、122、123および124は、それぞれ、投影領域110のエッジ(頂点)112a、112b、112c、112dの位置に対応している。また、パターンH1およびV1には、それぞれ位置129aおよび129bがあらかじめ設定されている。なお、これら位置129aおよび129bは、投影領域110の対応する辺113aおよび114a上に重なるように位置している。
【0276】
なお、これらのパターンをあらかじめメモリー4に記憶しておかずに、以下の位置調整において必要に応じ、位置決め装置1に接続されている図示しない外部記憶装置(例えば、フロッピーディスク、ハードディスク、光磁気ディスクなど)から、適宜メモリー4に読み込んでもよい。
【0277】
なお、以下の位置調整を説明するに先立って、以下の位置調整中で適宜行われるパターンマッチング(パターンマッチング法)について、まず説明する。
【0278】
パターンマッチングでは、例えばカメラNo.1、2、3、4で撮影され、メモリ4に取り込まれた画像データ(被検索データ)中に、パターンA1、B1、C1、D1、H1、V1等の特定のパターン(検索パターン)が存在するか否かを検索する。
【0279】
そして、かかる検索パターンが存在しない場合には、かかる検索パターンは被検索データ中に存在しないと判別される。
【0280】
一方、かかる検索パターンが存在する場合には、かかる検索パターンは被検索データ中に存在すると判別される。また、このとき、撮像した画像(被検索データ)中の所定領域と、検索パターンとが一致したときの位置(例えば位置121〜124、129a、129b等)の座標(X座標、Y座標)を得る。この座標(位置)をその後の処理で必要としない場合は、かかる座標は、得なくてもよい。
【0281】
ここで、パターンマッチング中において、「検索パターンが存在する」とは、検索パターンと完全に合致するパターンが、被検索データ中に存在するという意ではなく、検索パターンとの一致度(認識率)が一定値(しきい値)以上のパターンが存在することをいう。
【0282】
この値(しきい値)は、位置決め装置1の置かれている環境等、種々の条件により好ましい値は異なるが、80%以上に設定することが好ましく、90%以上に設定することがより好ましい。しきい値を前記の値に設定すると、パターンマッチングをより高い精度で行うことができる。
【0283】
なお、検索パターンが被検索データ中に存在する旨の結果を出力あるいは返却する際に、必要に応じ、かかる一致度を返却または出力してもよい。
【0284】
図10に示すように、位置調整(アライメント調整)では、まず、粗調整を行い(S300)、次いで、微調整(S350)を行う。
【0285】
まず、ステップS300の粗調整について説明する。
【0286】
ステップS300の粗調整では、第1の処理(処理S30A)と、第2の処理(処理S30B)と、第3の処理(処理S30C)と、第4の処理(処理S30D)と、第5の処理(処理S30E)と、第6の処理(処理S30F)と、第7の処理(処理S30G)と、第8の処理(処理S30H)とを行う。以下、図13〜16、19〜24に基づいて、各処理を、ステップごとに詳細に説明する。
【0287】
[処理S30A]第1の処理は、ステップS301〜S303とパターンC導入処理(処理S90a)とで構成される。
【0288】
ステップS301〜S303を実行することにより、投影領域110の角部111cが撮像領域(目的領域)631内に存在するか否かを検出することができる。また、角部111cが撮像領域631内に存在しない場合には、パターンC導入処理(処理S90a)を実行することにより、角部111cを撮像領域631内に導入することができる。
【0289】
[ステップS301]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0290】
[ステップS302]次に、前記ステップS301でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0291】
[ステップS303]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンC1が存在する場合、すなわち図19(A1)に示すように、撮像領域631内に角部111cが存在する場合には、第2の処理(処理S30B)すなわちステップS304を行い、存在しない場合には、パターンC導入処理(処理S90a)を実行する。
【0292】
なお、ここで、「撮像領域631内に角部111cが存在しない」とは、パターンマッチングで、角部111cが存在しないという結果が得られたという意である。以下の説明において、パターンマッチングの結果に基づき本ステップと同様の判断を行う場合にも、これと同様のことが言える。
【0293】
[処理S90a]パターンC導入処理は、図16に示すように、ステップS901〜S910で構成される。
【0294】
このパターンC導入処理を実行することにより、角部111cを撮像領域631内に入れるもしくは近づけることができる。さらには、この処理を実行することにより、投影領域110と撮像領域631との相対的な位置関係が分かる。
【0295】
[ステップS901]まず、前記ステップS301でメモリー4に記憶した画像データに対して、パターンH1を検索パターンとして、パターンマッチングを行う。
【0296】
[ステップS902]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンH1が存在する場合、すなわち図19(A2)に示すように、撮像領域631内に投影領域110のY軸方向の辺113aが存在する場合には、ステップS903を行い、存在しない場合には、ステップS904を実行する。
【0297】
[ステップS903]次に、投影領域110を、図19中上方に移動(変位)させる。このときの移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量である。
【0298】
これにより、図19(B2)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、例えば角部111cが撮像領域631からn/3より離間した位置に存在する場合のように、投影領域110の角部111cが撮像領域631から遠い場合には、投影領域110の角部111cが撮像領域631に近づく。
【0299】
その後、ステップS301へ戻る。
【0300】
なお、本ステップにおいて、投影領域110の移動量は、アライメントを調整する際の諸条件に応じて、任意の値に設定することが可能である。これは、以下のステップにおいて、本ステップと同様の処理を行う場合(例えば、ステップS906、ステップS909、ステップS910など)にも言える。
【0301】
[ステップS904]次に、前記ステップS301でメモリー4に記憶した画像データに対して、パターンV1を検索パターンとして、パターンマッチングを行う。
【0302】
[ステップS905]次に、パターンマッチングを行った結果、前記ステップS301でメモリー4に記憶した画像データにパターンV1が存在する場合、すなわち図19(A3)に示すように、撮像領域631内に投影領域110のX軸方向の辺114aが存在する場合には、ステップS906を行い、存在しない場合には、ステップS907を実行する。
【0303】
[ステップS906]次に、投影領域110を、図19中右方向に移動させる。このときの移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0304】
これにより、図19(B3)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、例えば角部111cが撮像領域631からm/3より離間した位置に存在する場合のように、投影領域110の角部111cが撮像領域631から遠い場合には、投影領域110の角部111cが撮像領域631に近づく。
【0305】
その後、ステップS301へ戻る。
【0306】
[ステップS907]次に、前記ステップS301でメモリー4に記憶した画像データに対して、かかる画像データ全体の輝度、すなわち撮像領域631内の明るさを求める。
【0307】
[ステップS908]次に、輝度を求めた結果、かかる輝度がしきい値未満の場合(撮像領域631内の明るさがしきい値未満の場合)、すなわち図20(A4)に示すように、撮像領域631中に投影領域110の角部111c、辺113a、114aのいずれも存在しない場合には、ステップS909を実行する。一方、輝度が一定値以上の場合(撮像領域631内の明るさがしきい値以上の場合)、すなわち図20(A5)に示すように、撮像領域631が投影領域110内に包含されている場合には、ステップS910を実行する。
【0308】
なお、このしきい値は、撮像領域631中に投影領域110の角部111c、辺113a、114aのいずれも存在しない場合の輝度よりも十分高く、かつ、撮像領域631が投影領域110内に包含されている場合の輝度よりも十分低く設定されている。
【0309】
[ステップS909]次に、投影領域110を、図20中左下方向に移動させる。このとき図20中下方向への移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量であり、図19中左方向への移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0310】
これにより、図20(B4)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、投影領域110の角部111cが、かかる移動量に相当する距離より、撮像領域631から離間していた場合には、投影領域110の角部111cが撮像領域631に近づく。
【0311】
その後、ステップS301へ戻る。
【0312】
[ステップS910]次に、投影領域110を、図20中右上方向に移動させる。このとき図20中上方向への移動量は、例えば、撮像領域631のY軸方向の長さnの1/3に相当する量であり、図20中右方向への移動量は、例えば、撮像領域631のX軸方向の長さmの1/3に相当する量である。
【0313】
これにより、図20(B5)に示すように、投影領域110の角部111cが撮像領域631内に入る。もしくは、投影領域110の角部111cが、かかる移動量に相当する距離より、撮像領域631から離間していた場合には、投影領域110の角部111cが撮像領域631に近づく。
【0314】
その後、ステップS301へ戻る。
【0315】
なお、角部111cが撮像領域631から大きく離間している場合のように、1回のパターンC導入処理で角部111cを撮像領域631内に入れることができない場合でも、パターンC導入処理を1回実行する度に角部111cを撮像領域631に近づけることができるので、パターンC導入処理を複数回実行することにより、最終的に角部111cを撮像領域631内に入れることができる。
【0316】
[処理S30B]第2の処理は、ステップS304、S305で構成される。
【0317】
この第2の処理を実行することにより、角部111cを撮像領域631の中心125cに合致させることができる。
【0318】
[ステップS304]まず、前記ステップS302における最後のパターンマッチングで得られた位置123に基づいて、投影領域110のエッジ112cを撮像領域631の中心125cに移動させるための、投影領域110のX軸方向およびY軸方向の移動量を求める。
【0319】
これは、前述したように、得られた位置123の座標は、エッジ112cの座標に対応している、すなわち、位置123の座標は、エッジ112cの座標を表しているので、位置123の座標と中心125cとの座標から、投影領域110の移動量を求めることができる。
【0320】
[ステップS305]次に、前記ステップS304で求めた投影領域110のX軸方向およびY軸方向の移動量に基づいて、投影領域110を移動させる。
【0321】
これにより、図19(B1)に示すように、投影領域110の角部111cが、撮像領域631の中心125cに合致する。
【0322】
以下に説明する第3〜第5の処理(処理S30C〜S30E)では、撮像領域611と撮像領域631とを基準として位置合わせを行う。すなわち、投影領域110のY軸方向、換言すれば、液晶ライトバルブ25のY軸方向に重きを置いて位置合わせを行う。
【0323】
[処理S30C]第3の処理は、ステップS306〜S310とパターンA導入処理(処理S90b)とで構成される。
【0324】
上記第1の処理および第2の処理を実行することにより、投影領域110の角部111cを撮像領域631内に導入し、さらには角部111cを撮像領域631の中心125cに合致させることができる。
【0325】
しかし、かかる処理を行った後でも、図21(A6)に示すように、辺113aが撮像領域631の中心125cと撮像領域611の中心125aとを結ぶ線に対して大きく傾いている場合には、角部111aが撮像領域611内に入っていない場合がある。
【0326】
このような場合でも、この第3の処理を実行することにより、角部111aを撮像領域611内に導入することができる。
【0327】
なお、以下のステップS308を実行するに先だって、後述するステップS921で投影領域110の移動量を算出するために必要な変数Iに、あらかじめ0を代入しておく。
【0328】
[ステップS306]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0329】
[ステップS307]次に、前記ステップS306でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0330】
[ステップS308]次に、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0331】
[ステップS309]次に、前記ステップS308でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0332】
[ステップS310]次に、パターンマッチングを行った結果、前記ステップS308でメモリー4に記憶した画像データにパターンA1が存在しない場合、すなわち図21(A6)に示すように、撮像領域611内に角部111aが存在しない場合には、パターンA導入処理(処理S90b)を実行する。一方、パターンA1が存在する場合には、第4の処理(処理S30D)すなわちステップS311を実行する。
【0333】
[処理S90b]パターンA導入処理は、ステップS921、S922とで構成される。
【0334】
このパターンA導入処理を所定回数実行することにより、角部111aを撮像領域611内に導入することができる。
【0335】
[ステップS921]まず、次のステップS922で投影領域110を移動させる際の移動先のエッジ112cの位置(座標)を求める。これは、例えば次の式で求めることができる。この式は、Iの値に対応したエッジ112cの座標を与える。なお、前述したように、nは、撮像領域631のY軸方向の長さであり、mは、撮像領域631のX軸方向の長さである。
【0336】
X軸方向の位置 = IDOU_X1 + (I mod 3)*(m)
(ここで、(I mod 3)とは、Iを3で割ったときの余りを求めることを意味する)
Y軸方向の位置 = IDOU_Y1 + (I/3)*(n/2) (なお、得られた移動量の小数点以下は切り捨てる)
ここで、定数IDOU_X1およびIDOU_Y1は、I=0のときの、次のステップS922におけるエッジ112cの移動先の座標に対応している。
【0337】
これら定数IDOU_X1およびIDOU_Y1としては、I=0のときの移動後のエッジ112cの位置が、撮像領域631の中心125cよりも図21中左上に来るような値が好ましい。これにより、エッジ112aを効率よく撮像領域611内に導入することができる。
【0338】
[ステップS922]次に、前記ステップS921で求めたエッジ112cの移動先の位置に、エッジ112cが来るように、投影領域110を移動させる。
【0339】
これにより、図21(B61)〜(B64)および図22(B65)〜(B69)に示すように、Iが所定の値になった場合に、エッジ112aが、撮像領域611内に入る。
【0340】
なお、図21の(B61)はI=0のときの投影領域110の位置を、(B62)はI=1のときの投影領域110の位置を、(B63)はI=2のときの投影領域110の位置を、(B64)はI=3のときの投影領域110の位置を、図22の(B65)はI=4のときの投影領域110の位置を、(B66)はI=5のときの投影領域110の位置を、(B67)はI=6のときの投影領域110の位置を、(B68)はI=7のときの投影領域110の位置を、(B69)はI=8のときの投影領域110の位置をそれぞれ表している。
【0341】
なお、図21および図22に示す例では、I=8となったときに、エッジ112aが、撮像領域611内に入る。
【0342】
その後、ステップS308へ戻る。そのとき、Iに1を加える。
【0343】
このように、Iの値を変化させつつパターンA導入処理(処理S90b)を所定回数実行することにより、エッジ112aを撮像領域611内に入れることができる。
【0344】
なお、前記ステップS921において、エッジ112cのX軸方向の位置およびY軸方向の位置は、同一の変数Iによりそれぞれを求めているが、X軸およびY軸に対応した変数をそれぞれ用意し、X軸方向の位置およびY軸方向の位置を、これら用意した変数からそれぞれ独立に求めてもよい。
【0345】
なお、前記ステップS921において、エッジ112cのX軸方向の位置およびY軸方向の位置は、計算により求めているが、あらかじめIの値に対応したX軸方向およびY軸方向の位置もしくは移動量を、テーブルとして用意しておき、かかるテーブルに基づいて前記ステップS922で投影領域110を移動させてもよい。
【0346】
[処理S30D]第4の処理は、ステップS311、S312とで構成される。
【0347】
この第4の処理を実行することにより、撮像領域611の中心125aと撮像領域631の中心125cとを結ぶ直線126(目的線)と、辺113とを平行にすることができる。すなわち、辺113の傾きを解消することができる。
【0348】
[ステップS311]まず、前記パターンA導入処理(処理S90b)における前記ステップS921で最後に求めたエッジ112cの座標(位置)と、前記ステップS309の最後のパターンマッチングで得られたエッジ112aの座標とに基づいて、図23(A7)に示すような、直線126と辺113aとの傾きθ1を求める。
【0349】
なお、前記パターンA導入処理(処理S90b)を一度も行わなかった場合には、前記ステップS307のパターンマッチングで得られた位置123が、エッジ112cの位置となる。
【0350】
[ステップS312]次に、前記ステップS311で求めたθ1に基づいて、投影領域110を回転させる。
【0351】
これにより、図23(B71)に示すように、直線126と辺113aとを平行にすることができる。
【0352】
[処理S30E]第5の処理は、ステップS313〜S317とで構成される。
【0353】
この第5の処理を実行することにより、エッジ112aと112cとが、目的位置に近づく。また、撮像領域611内に入る投影領域110の画素数と、撮像領域631内に入る投影領域110の画素数とをほぼ一致させることができる。
【0354】
[ステップS313]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0355】
[ステップS314]次に、前記ステップS313でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0356】
[ステップS315]次に、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0357】
[ステップS316]次に、前記ステップS315でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0358】
[ステップS317]次に、前記ステップS314およびS316におけるパターンマッチングで得られたエッジ112aとエッジ112cの位置に基づいて、直線126と辺113aとが合致するように、かつ、y1=y2となるように、投影領域110を移動させる。
【0359】
なお、y1とは、図23(B72)に示すように、撮像領域611の図23中上の辺612と、投影領域110の図23中上の辺114bとの間の幅である。また、y2とは、撮像領域631の図23中下の辺632と、投影領域110の図23中下の辺114aとの間の幅である。
【0360】
これにより、図23(B72)に示すように、エッジ112aと112cとが、目的位置に近づく。また、撮像領域611内に入る投影領域110の画素数と、撮像領域631内に入る投影領域110の画素数とがほぼ一致する。
【0361】
以下に説明する第6〜第8の処理は、前記第3〜第5の処理と類似の処理である。
【0362】
前記第3〜第5の処理は、撮像領域611と撮像領域631とを基準として位置合わせを行った。すなわち、投影領域110のY軸方向(辺113a)、換言すれば、液晶ライトバルブ25のY軸方向に重きを置いた位置合わせを行った。それに対し、以下の第6〜第8の処理では、撮像領域631と撮像領域641とを基準として位置合わせを行う。すなわち、投影領域110のX軸方向(辺114a)、換言すれば、液晶ライトバルブ25のX軸方向に重きを置いた位置合わせを行う。
【0363】
[処理S30F]第6の処理は、ステップS318〜S322とパターンD導入処理(処理S90c)とで構成される。
【0364】
上記第3〜第5の処理を実行することにより、投影領域110の角部111aを撮像領域611内に導入でき、さらには辺113aを直線126と平行にすることができ、さらにはエッジ112aと112cとを、目的位置に近づけることができた。
【0365】
しかし、かかる処理を行った後でも、図23(A8)に示すように、角部111dが撮像領域641内に入っていない可能性も、非常に少ないが、有り得る。
【0366】
このような場合でも、この第6の処理を実行することにより、角部111dを撮像領域641内に導入することができる。
【0367】
なお、以下のステップS320を実行するに先だって、後述するステップS931で投影領域110の移動量を算出するために必要な変数Iに、あらかじめ0を代入しておく。
【0368】
[ステップS318]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0369】
[ステップS319]次に、前記ステップS318でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0370】
[ステップS320]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0371】
[ステップS321]次に、前記ステップS320でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0372】
[ステップS322]次に、パターンマッチングを行った結果、前記ステップS320でメモリー4に記憶した画像データにパターンD1が存在しない場合、すなわち図23(A8)に示すように、撮像領域641内に角部111dが存在しない場合には、パターンD導入処理(処理S90c)を実行する。一方、パターンD1が存在する場合には、第7の処理(処理S30G)すなわちステップS323を実行する。
【0373】
[処理S90c]パターンD導入処理は、ステップS931、S932とで構成される。
【0374】
このパターンD導入処理を所定回数実行することにより、角部111dを撮像領域641内に導入することができる。
【0375】
[ステップS931]まず、次のステップS932で投影領域110を移動させる際の移動先のエッジ112cの位置(座標)を求める。これは、例えば次の式で求めることができる。この式は、Iの値に対応したエッジ112cの座標を与える。なお、前述したように、nは、撮像領域631のY軸方向の長さであり、mは、撮像領域631のX軸方向の長さである。
【0376】
X軸方向の位置 = IDOU_X2 + (I mod 3)*(m)
(ここで、(I mod 3)とは、Iを3で割ったときの余りを求めることを意味する)
Y軸方向の位置 = IDOU_Y2 + (I/3)*(n/3) (なお、得られた移動量の小数点以下は切り捨てる)
ここで、定数IDOU_X2およびIDOU_Y2は、I=0のときの、次のステップS932におけるエッジ112cの移動先の座標に対応している。
【0377】
これら定数IDOU_X2およびIDOU_Y2としては、I=0のときの移動後のエッジ112cの位置が、投影領域631の中心125cよりも図23中左上に来るような値が好ましい。これにより、エッジ112dを効率よく撮像領域641内に導入することができる。
【0378】
[ステップS932]次に、前記ステップS931で求めたエッジ112cの移動先の位置に、エッジ112cが来るように、投影領域110を移動させる。なお、Y軸方向に移動させる処理は、省略することもできる(X軸方向のみに移動させてもよい)。
【0379】
これにより、Iが所定の値になった場合に、エッジ112dが、撮像領域641内に入る。
【0380】
その後、ステップS320へ戻る。そのとき、Iに1を加える。
【0381】
このように、Iの値を変化させつつパターンD導入処理(処理S90c)を所定回数実行することにより、エッジ112dを撮像領域641内に入れることができる。
【0382】
なお、前記ステップS931において、エッジ112cのX軸方向の位置およびY軸方向の位置は、同一の変数Iによりそれぞれを求めているが、X軸およびY軸に対応した変数をそれぞれ用意し、X軸方向の位置およびY軸方向の位置を、これら用意した変数からそれぞれ独立に求めてもよい。
【0383】
なお、前記ステップS931において、エッジ112cのX軸方向の位置およびY軸方向の位置は、計算により求めているが、あらかじめIの値に対応したX軸方向およびY軸方向の位置もしくは移動量を、テーブルとして用意しておき、かかるテーブルに基づいて前記ステップ932で投影領域110を移動させてもよい。
【0384】
[処理S30G]第7の処理は、ステップS323、S324とで構成される。
【0385】
この第7の処理を実行することにより、撮像領域631の中心125cと撮像領域641の中心125dとを結ぶ直線127(目的線)と、辺114aとを平行にすることができる。すなわち、辺114aの傾きを解消することができる。
【0386】
[ステップS323]まず、前記パターンD導入処理(処理S90c)における前記ステップS931で最後に求めたエッジ112cの座標(位置)と、前記ステップS321の最後のパターンマッチングで得られたエッジ112dの座標とに基づいて、図24(A9)に示すような、直線127と辺114aとの傾きθ2を求める。
【0387】
なお、前記パターンD導入処理(処理S90c)を一度も行わなかった場合には、前記ステップS319のパターンマッチングで得られた位置123が、エッジ112cの位置となる。
【0388】
[ステップS324]次に、前記ステップS323で求めたθ2に基づいて、投影領域110を回転させる。
【0389】
これにより、図24(B91)に示すように、直線127と辺114aとを平行にすることができる。
【0390】
[処理S30H]第8の処理は、ステップS325〜S329とで構成される。
【0391】
この第8の処理を実行することにより、エッジ112cと112dとが、目的位置に近づく。また、撮像領域631内に入る投影領域110の画素数と、撮像領域641内に入る投影領域110の画素数とをほぼ一致させることができる。
【0392】
[ステップS325]まず、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0393】
[ステップS326]次に、前記ステップS325でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0394】
[ステップS327]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0395】
[ステップS328]次に、前記ステップS327でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0396】
[ステップS329]次に、前記ステップS314およびS316におけるパターンマッチングで得られたエッジ112cとエッジ112dの位置に基づいて、直線127と辺114aとが合致するように、かつ、x1=x2となるように、投影領域110を移動させる。
【0397】
なお、x1とは、図24(B92)に示すように、撮像領域631の図24中左の辺633と、投影領域110の図24中左の辺113aとの間の幅である。また、x2とは、撮像領域641の図24中右の辺643と、投影領域110の図24中右の辺113bとの間の幅である。
【0398】
これにより、図24(B92)に示すように、エッジ112cと112dとが、目的位置に近づく。また、撮像領域631内に入る投影領域110の画素数と、撮像領域641内に入る投影領域110の画素数とがほぼ一致する。
【0399】
以上で、粗調整が終了する。
【0400】
以下、ステップS350の微調整(位置調整処理)の第1の実施の形態について説明する。
【0401】
以下のステップS350の微調整を行うことにより、アライメントを非常に高精度で調整することができる。さらには、図25(A13)に示すような、投影領域110が、完全に長方形でない場合でも、正確にアライメント調整を行うことができる。
【0402】
ステップS350の微調整を説明するに先立って、ステップS350の微調整中で適宜行われる四頂点位置計測処理(処理S90d)についてまず説明する。
【0403】
[処理S90d]図18に示すように、四頂点位置計測処理は、ステップS941〜S948で構成される。
【0404】
この四頂点位置計測処理を実行することにより、エッジ112a、エッジ112b、エッジ112cおよびエッジ112dの座標を得ることができる。
【0405】
[ステップS941]まず、カメラNo.1(カメラ61)で撮像し、撮像領域611の画像データをメモリー4に記憶する。
【0406】
[ステップS942]次に、前記ステップS941でメモリー4に記憶した画像データに対して、パターンA1を検索パターンとして、パターンマッチングを行う。
【0407】
[ステップS943]次に、カメラNo.2(カメラ62)で撮像し、撮像領域621の画像データをメモリー4に記憶する。
【0408】
[ステップS944]次に、前記ステップS943でメモリー4に記憶した画像データに対して、パターンB1を検索パターンとして、パターンマッチングを行う。
【0409】
[ステップS945]次に、カメラNo.3(カメラ63)で撮像し、撮像領域631の画像データをメモリー4に記憶する。
【0410】
[ステップS946]次に、前記ステップS945でメモリー4に記憶した画像データに対して、パターンC1を検索パターンとして、パターンマッチングを行う。
【0411】
[ステップS947]次に、カメラNo.4(カメラ64)で撮像し、撮像領域641の画像データをメモリー4に記憶する。
【0412】
[ステップS948]次に、前記ステップS947でメモリー4に記憶した画像データに対して、パターンD1を検索パターンとして、パターンマッチングを行う。
【0413】
なお、以上の四頂点位置計測処理(処理S90d)で得られたエッジ112aの座標を(gluxg,gluyg)、エッジ112bの座標を(gruxg,gruyg)、エッジ112cの座標を(gldxg,gldyg)、エッジ112dの座標を(grdxg,grdyg)とする(図25(A10)参照)。
【0414】
ステップS350の微調整では、第1の処理(処理S35A)と、第2の処理(処理S35B)と、第3の処理(処理S35C)とを行う。以下、図17、18、25に基づいて、各処理を、ステップごとに詳細に説明する。
【0415】
[処理S35A]第1の処理は、四頂点位置計測処理(処理S90d)と、ステップS351〜S353とで構成される。
【0416】
この第1の処理を実行することにより、投影領域110全体の傾き、すなわち、液晶ライトバルブ25全体の傾きが最も小さくなる。
【0417】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0418】
[ステップS351]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標に基づいて、θgux、θgdx、θglyおよびθgryを求める。
【0419】
図25(A11)に示すように、θguxは、辺114bと、撮像領域611の中心125aと撮像領域621の中心125bとを結ぶ線との間の角度である。θgdxは、辺114aと、撮像領域631の中心125cと撮像領域641の中心125dとを結ぶ線との間の角度である。θglyは、辺113aと、撮像領域611の中心125aと撮像領域631の中心125cとを結ぶ線との間の角度である。θgryは、辺113bと、撮像領域621の中心125bと撮像領域641の中心125dとを結ぶ線との間の角度である。
【0420】
これらθgux、θgdx、θglyおよびθgryは、四頂点位置計測処理(処理S90d)で得られたエッジ112a〜112dの座標(gluxg,gluyg)、(gruxg,gruyg)、(gldxg,gldyg)および(grdxg,grdyg)と、中心125a〜dの座標とから求めることができる。
【0421】
[ステップS352]次に、前記ステップS351で求めたθgux、θgdx、θglyおよびθgryに基づいて、次のステップS353で投影領域110を回転させる際の回転角度θを求める。
【0422】
これは、次の式から求めることができる。なお、θkとは、あらかじめ設定された基準角度である。
【0423】
θgx = (θgux + θgdx)/2
θgy = (θgly + θgry)/2
θg = (θgx + θgy)/2
θ = θk − θg
[ステップS353]次に、投影領域110を、前記ステップS352で求めた回転角度θ度回転させる。
【0424】
これにより、図25(B12)に示すように、投影領域110のX軸方向およびy軸方向の傾きが最も小さくなる。
【0425】
[処理S35B]第2の処理は、四頂点位置計測処理(処理S90d)と、ステップS354〜S356とで構成される。
【0426】
この第2の処理を実行することにより、投影領域110の中心の位置が、あらかじめ設定された基準座標に合致する。すなわち、この第2の処理を実行することにより、投影領域110の中心の位置を調整することができる。
【0427】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0428】
[ステップS354]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標に基づいて、投影領域110の中心座標(gxg,gyg)を求める。
【0429】
この座標は、例えば、四頂点位置計測処理(処理S90d)で得られたエッジ112a〜112dの座標(gluxg,gluyg)、(gruxg,gruyg)、(gldxg,gldyg)、(grdxg,grdyg)から、辺113a、113b、114aおよび114bの中点の座標をそれぞれ求め、これらの中点の座標から、辺113aの中点と辺113bの中点とを結ぶ直線と、辺114aの中点と辺114bの中点とを結ぶ直線との交点の座標を求めることにより得ることができる。
【0430】
すなわち、辺113aの中点と辺113bの中点とを結ぶ直線と、辺114aの中点と辺114bの中点とを結ぶ直線との交点の座標が、投影領域110の中心座標(gxg,gyg)となる。
【0431】
[ステップS355]次に、前記ステップS354で求めた投影領域110の中心座標(gxg,gyg)に基づいて、次のステップS356で投影領域110を移動させる際の移動量を求める。
【0432】
これは、次の式から求めることができる。なお、kxgとkygは、あらかじめ設定された基準座標である。
【0433】
X軸移動量 = kxg − gxg
Y軸移動量 = kyg − gyg
[ステップS356]次に、投影領域110を、前記ステップS355で求めたX軸移動量およびY軸移動量に基づいて移動させる。
【0434】
これにより、撮像領域110の中心が基準座標に移動する。
【0435】
[処理S35C]第3の処理は、四頂点位置計測処理(処理S90d)と、ステップS357〜S359とで構成される。
【0436】
この第3の処理を実行することにより、液晶ライトバルブ25全体を、X軸方向およびY軸方向のずれが最も小さくなる位置に調整することができる。
【0437】
[処理S90d]まず、前述した四頂点位置計測処理を実行する。
【0438】
[ステップS357]次に、この四頂点位置計測処理により得られたエッジ112a〜112dの座標について、エッジ112a〜112dごとにそれぞれあらかじめ設定された基準座標(目的位置)からのずれを求める。
【0439】
ここで、エッジ112aの基準座標を(kluxg,kluyg)、エッジ112bの基準座標を(kruxg,kruyg)、エッジ112cの基準座標を(kldxg,kldyg)、エッジ112dの基準座標を(krdxg,krdyg)とする。
【0440】
ここで、エッジ112a〜112dのX軸方向の基準座標からのずれをそれぞれX1〜X4、エッジ112a〜112dのY軸方向の基準座標からのずれをそれぞれY1〜Y4とすると、X1〜X4およびY1〜Y4は、例えば次の式で表すことができる。
【0441】
X1 = kluxg − gluxg
X2 = gruxg − kruxg
X3 = kldxg − gldxg
X4 = grdxg − krdxg
Y1 = kluyg − gluyg
Y2 = kruyg − gruyg
Y3 = gldyg − kldyg
Y4 = grdyg − krdyg
[ステップS358]次に、前記ステップS357で求めたX1〜X4およびY1〜Y4に基づいて、次のステップS359で投影領域110を移動させる際の移動量を求める。
【0442】
X軸方向の移動量は、X1〜X4のうち、1番目に大きい絶対値と2番目に大きい絶対値を有するものの平均をとることにより求める。なお、絶対値が1番大きいものと2番目に大きいものの値の正負が同符号の場合は、X1〜X4のうち、1番目に大きい絶対値と3番目に大きい絶対値を有するものの平均をとることにより、X軸方向の移動量を求める。さらには、絶対値が1番大きいものと3番目に大きいものの値の正負が同符号の場合は、X1〜X4のうち、1番目に大きい絶対値と4番目に大きい絶対値を有するものの平均をとることにより、X軸方向の移動量を求める。
【0443】
Y軸方向の移動量は、Y1〜Y4のうち、1番目に大きい絶対値と2番目に大きい絶対値を有するものの平均をとることにより求める。なお、絶対値が1番大きいものと2番目に大きいものの値の正負が同符号の場合は、Y1〜Y4のうち、1番目に大きい絶対値と3番目に大きい絶対値を有するものの平均をとることにより、Y軸方向の移動量を求める。さらには、絶対値が1番大きいものと3番目に大きいものの値の正負が同符号の場合は、Y1〜Y4のうち、1番目に大きい絶対値と4番目に大きい絶対値を有するものの平均をとることにより、Y軸方向の移動量を求める。
【0444】
[ステップS359]次に、前記ステップS358で求めたX軸方向の移動量およびY軸方向の移動量に基づいて、投影領域110を移動させる。
【0445】
これによりエッジ112a〜112d(角部111a〜111d)のうち、これらに対応する基準座標から最も離れたエッジ(角部)は、かかる基準座標に近づく。
【0446】
従って、例えば、図25(A13)に示すように、投影領域110が、完全に長方形でない場合でも、正確に位置調整を行うことができる。
【0447】
以上で、第1の実施の形態のステップS350の微調整(位置調整処理)が終了する。
【0448】
なお、この微調整では、第1の処理(処理S35A)、第2の処理(処理S35B)および第3の処理(処理S35C)の各処理ごとに四頂点位置計測処理(処理S90d)を行っているが、各処理ごとに四頂点位置計測処理(処理S90d)を行わなくてもよい。ただし、この第1の実施の形態のように、各処理ごとに四頂点位置計測処理(処理S90d)を実行することが好ましい。これにより、アライメント調整の精度がより向上する。
【0449】
なお、この微調整では、四頂点位置計測処理(処理S90d)を行い、エッジ112a〜112dの座標をそれぞれ求め、第1〜第3の処理(処理S35A〜処理S35C)を行っているが、エッジ112a〜112dの座標のうちの少なくとも2つの座標を求め、かかる座標に基づいて、第1の処理(処理S35A)、第2の処理(処理S35B)および第3の処理(処理S35C)を行ってもよい。
【0450】
アライメント調整において、光学系の特性(レンズの収差)等により、スクリーン2上に投影される画像(投影画像)、すなわちライトバルブの画素の投影画像が変形する(例えば、カブリ、ムラ、ぼけ、にじみ等が生じる)ことがある。
【0451】
このような場合、例えば、図11に示すようなパターンA1〜D1を検索パターンとしてパターンマッチングを行った場合、検索を的確に行うことが困難な場合がある。
【0452】
このときは、図26に示すような、パターンA2、B2、C2およびD2を検索パターンとして、パターンマッチングを行ってもよい。これら各パターンA2、B2、C2およびD2は、それぞれ、液晶ライトバルブの画素の投影像にレンズの収差による投影画像の変形がある場合に、対応する角部111a、111b、111cおよび111dを含む部分に対応するものである。
【0453】
さらには、まずは、図11に示すようなパターンA1〜D1を検索パターンとしてパターンマッチングを行い、かかるパターンマッチングで、被検索データ中に検索パターンが存在しなかった場合に、図26に示すようなパターンA2〜D2を検索パターンとして再びパターンマッチングを行うようにしてもよい。
【0454】
このように、パターンマッチングに用いる所定のパターン(1つの角部に対応するパターン)を複数設定しておくことにより、レンズの収差による投影画像の変形の程度が異なる場合に、容易に対応することができ、アライメントの精度を向上させることができる。
【0455】
この場合、図26に示すように、パターンA2〜D2中において、位置121、122、123および124は、例えば、各画素にレンズの収差による投影画像の変形がないときのエッジ112a、112b、112cおよび112dの位置に対応したものとすることができる。
【0456】
また前記と同様に、図12に示すようなパターンH1およびパターンV1についても、図27に示すような、パターンH1およびパターンV1に対応したパターンH2およびパターンV2を用意して、これらを用いてパターンマッチングを行うことができる。
【0457】
これらパターンH2およびパターンV2は、それぞれ、液晶ライトバルブの画素の投影像にレンズの収差による投影画像の変形がある場合に、対応する辺113aおよび114aを含む部分に対応したものである。
【0458】
この場合、図27に示すように、パターンH2およびV2中において、位置129aおよび129bは、例えば、各画素にレンズの収差による投影画像の変形がないとしたときの辺113aおよび114a上に重なるような位置とすることができる。
【0459】
以下、ステップS350の微調整(位置調整処理)の第2の実施の形態について説明する。
【0460】
微調整では、まず、カメラNo.1、カメラNo.2、カメラNo.3およびカメラNo.4でそれぞれ撮像し、撮像領域611、621、631および641の各画像データをメモリー4に記憶する。
【0461】
次いで、メモリー4からカメラNo.1、カメラNo.2、カメラNo.3およびカメラNo.4で撮像された画像の各画像データをそれぞれ読み出し、エッジ処理(エッジ処理法)により、図28(a)に示す各特定位置128を検出する(特定位置128のX座標およびY座標を求める)。なお、このエッジ処理については後に詳述する。
【0462】
そして、図28(b)に示すように、各特定位置128がそれぞれ対応する目的位置にさらに近づくように(一致する場合も含む)、3軸テーブル9により、液晶ライトバルブ25を変位させる。すなわち、各特定位置128がそれぞれ対応する目的位置にさらに近づくように(一致する場合も含む)、液晶ライトバルブ25をW方向に回転させ、X軸方向およびY軸方向に移動させる。
【0463】
次に、エッジ処理について説明する。なお、代表的に、カメラNo.4で撮像した画像の特定位置のY座標を求める場合を説明する。
【0464】
図29は、エッジ処理における位置決め装置1の制御手段3の制御動作を示すフローチャートである。以下、このフローチャートに基づいて説明する。
【0465】
エッジ処理では、まず、カメラNo.4(本実施例では、画素:400行×600列)で撮像し、撮像領域641の画像データをメモリー4に記憶する(ステップS401)。
【0466】
前記カメラNo.4で撮像された画像、すなわち、メモリー4に記憶された画像は、例えば、図30に示す通りである。
【0467】
図30に示すように、X−Y座標を想定する。このX−Y座標は、電子画像の面に対応している。すなわち、カメラNo.4の各画素の列(第1列〜第600列)および行(第1行〜第400行)は、それぞれ、その画素のX軸方向の座標(X座標)およびY軸方向の座標(Y座標)に対応する。本実施例では、カメラNo.4の第j行(j行目)、第i列(i列目)の画素の座標は、(i,j)である。
【0468】
次いで、各画素における輝度をY軸方向に積算し、Y軸方向の輝度の積算値Iy[i]=Σ f(i,j )を求める(ステップS402)。
【0469】
前記積算値Iy[i]のグラフを図30に示す。なお、グラフの縦軸に、積算値Iy[i]、横軸に、画素のX座標iをとる。
【0470】
次いで、前記積算値Iy[i]の最大値Iymaxと、最小値Iyminとをそれぞれ求める(ステップS403)。
【0471】
次いで、しきい値Ty を設定する(ステップS404)。
【0472】
このステップS404では、前記ステップS403で求めた最大値Iymaxおよび最小値Iyminを下記式に代入することにより、しきい値Ty を求める。
【0473】
Ty =(Iymax−Iymin)*α+Iymin(但し、0<α<1)
次いで、図30に示すように、しきい値Ty と積算値Iy[i]とのクロス点のX座標Xc を求める(ステップS405)。
【0474】
次いで、図31に示すように、座標(0,0)、座標(Xc ,0)、座標(Xc ,400)および座標(0,400)の4点で囲まれる四角形の領域を設定する(ステップS406)。
【0475】
次いで、前記設定された領域内において、各画素における輝度をX軸方向に積算し、X軸方向の輝度の積算値Iax[j] =Σ f(i,j )を求める(ステップS407)。
【0476】
前記積算値Iax[j] (第1の波形)のグラフを図31に示す。なお、グラフの横軸に、積算値Iax[j] 、縦軸に、画素のY座標jをとる。この積算値Iax[j] をX軸方向の輝度の積算値のY軸方向における変化を示す第1の波形とする。
【0477】
次いで、前記積算値Iax[j] の最大値Iaxmax と、最小値Iaxmin とをそれぞれ求める(ステップS408)。
【0478】
次いで、しきい値Taxを設定する(ステップS409)。
【0479】
このステップS409では、前記ステップS408で求めた最大値Iaxmax および最小値Iaxmin を下記式に代入することにより、しきい値Taxを求める。
【0480】
Tax=(Iaxmax −Iaxmin )*α+Iaxmin (但し、0<α<1)
次いで、図31に示すように、しきい値Taxと積算値Iax[j] とのクロス点のY座標Yacを求める(ステップS410)。
【0481】
次いで、図31に示すように、積算値Iax[j] のグラフの各ピーク(正ピーク)におけるY座標Ppy[P] と、各ボトム(負ピーク)におけるY座標Pmy[q] とをそれぞれ求める(ステップS411)。
【0482】
なお、図31の場合には、正ピークの数が4、負ピークの数が3であるので、前記4つの正ピークにおけるY座標Ppy[1] 、Ppy[2] 、Ppy[3] およびPpy[4] と、前記3つの負ピークにおけるY座標Pmy[1] 、Pmy[2] およびPmy[3] とがそれぞれ検出される。
【0483】
次いで、下記式から、隣接する正ピークの縦軸方向の間隔の平均値Ppyavr を求める(ステップS412)。
【0484】
Ppyavr ={Σ(Ppy[p+1] −Ppy[p] )}/(n−1)
(但し、nは、正ピークの数である)
次いで、図31に示すように、Y座標がYac−1.2*Ppyavr 未満の範囲で、Yac−1.2*Ppyavr −Pmy[q] が最小となる負のピークにおけるY座標Pmpymaxを検出する(ステップS413)。
【0485】
なお、換言すれば、前記Pmpymaxは、Yac−1.2*Ppyavr より小さく、かつ、Yac−1.2*Ppyavr に最も近いPmy[q] である。
【0486】
次いで、下記式から、積算値Iax[j] の差分値Diax[j]を計算する(ステップS414)。
【0487】
Diax[j]=Iax[j+1] −Iax[j−1]
なお、換言すれば、j行目の差分値Diax[j]は、j+1行目の積算値Iax[j+1] からj−1行目の積算値Iax[j−1]を引いた値である。
【0488】
前記差分値Diax[j]のグラフと、積算値Iax[j] のグラフとを図32に示す。なお、差分値Diax[j]のグラフでは、その横軸に、差分値Diax[j]、縦軸に、画素のY座標jをとる。
【0489】
次いで、図32に示すように、Pmpymax付近(図32中丸で示す)で、Diax[j]を用いてゼロクロス点(Diax[j]=0のときのY座標)を計算し(ゼロクロス処理を行い)、得られたゼロクロス点を特定位置のY座標とする(ステップS415)。
【0490】
すなわち、このステップS415により、カメラNo.4で撮像した画像の特定位置のY座標が求まる。
【0491】
以上で、エッジ処理を終了する。
【0492】
なお、カメラNo.4で撮像された画像の特定位置のX座標を求めるには、前述した特定位置のY座標を求めるエッジ処理において、xをyに、yをxに変えて同様に行えばよい。
【0493】
この場合、設定された領域内において、各画素における輝度をY軸方向に積算したY軸方向の輝度の積算値と、画素のX座標との関係(Y軸方向の輝度の積算値のX軸方向における変化)を示す図示しないグラフにおける波形が、第2の波形であり、前述した特定位置のY座標を求めるエッジ処理と同様に、この第2の波形に基づいて特定位置のX座標を求める。
【0494】
図33は、第1の波形および第2の波形を示す図である。
【0495】
同図に示すように、第2の実施の形態では、図33中下側(撮像された投影領域の端部側)から、第1の波形のピークおよびボトムの4番目のY軸方向の位置が特定位置128のY座標とされ、図33中右側(撮像された投影領域の端部側)から、第2の波形のピークおよびボトムの4番目のX軸方向の位置が特定位置128のX座標とされる。
【0496】
また、カメラNo.1、カメラNo.2およびカメラNo.3で撮像された各画像の特定位置のX座標およびY座標を求めるには、それぞれ、前述したように行えばよい。
【0497】
以上で、第2の実施の形態のステップS350の微調整(位置調整処理)が終了する。
【0498】
以上のようなエッジ処理のフローチャートから判るように、第2の実施の形態のステップS350の微調整では、エッジ処理において、図33に示す第1の波形のピークまたはボトムのY軸方向の位置を特定位置のY座標とし、第2の波形のピークまたはボトムのX軸方向の位置を特定位置のX座標とするのが好ましい。
【0499】
また、図33中下側(撮像された投影領域の端部側)から、第1の波形のピークおよびボトム(1次微分係数が0となる点)のNy 番目のY軸方向の位置を特定位置のY座標とし、図33中右側(撮像された投影領域の端部側)から、第2の波形のピークおよびボトム(1次微分係数が0となる点)のNx 番目のX軸方向の位置を特定位置のX座標とするのが好ましい。
【0500】
この場合、Ny とNx は、異なっていてもよいが、等しいのが好ましい。Ny とNx とを等しくすることにより、位置調整の精度をより高くすることができる。
【0501】
また、Ny およびNx は、それぞれ、偶数であるのが好ましい。すなわち、第1の波形のボトムのY軸方向の位置を特定位置のY座標とするのが好ましく、また、第2の波形のボトムのX軸方向の位置を特定位置のX座標とするのが好ましい。
【0502】
Ny 、Nx が偶数であると、より正確に特定位置のY座標、X座標を求めることができ、これにより位置調整の精度を向上させることができる。
【0503】
また、Ny およびNx は、それぞれ、2以上であるのが好ましく、4以上であるのがより好ましく、4〜8程度がさらに好ましい。
【0504】
Ny 、Nx が2以上であると、より正確に特定位置のY座標、X座標を求めることができ、これにより位置調整の精度を向上させることができる。
【0505】
以上で、緑色用の液晶ライトバルブ25の位置決めが終了し、前述したように、この液晶ライトバルブ25は、光学ブロック20に仮固定され、この後、本固定される。
【0506】
次いで、前記と同様に、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めが行われる。
【0507】
このとき、ステップS350の微調整(位置調整処理)を第1の実施の形態の微調整で行う場合には、次のように行うことにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0508】
まず、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うに先立って、前記四頂点位置計測処理(処理S90d)を行い、緑色用の液晶ライトバルブ25の投影領域110のエッジ112a〜112dの座標を得る。
【0509】
かかる座標に基づいて、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めにおいてステップS352で用いられるθkと、ステップS355で用いられるkxgおよびkygと、ステップS357で用いられるエッジ112a〜112dの基準座標(kluxg,kluyg)と(kruxg,kruyg)と(kldxg,kldyg)と(krdxg,krdyg)とを求める。
【0510】
そして、これらの値に基づいて、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行う。
【0511】
これにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0512】
一方、ステップS350の微調整(位置調整処理)を第2の実施の形態の微調整で行う場合には、次のように行うことにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0513】
まず、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うに先立って、緑色用の液晶ライトバルブ25の投影領域110をカメラ61〜64でそれぞれ撮像し、各画像データをメモリー4に記憶する。
【0514】
そして、メモリー4から前記各画像データをそれぞれ読み出し、前述したエッジ処理により、各特定位置のX座標およびY座標を求める。得られた各特定位置のX座標およびY座標を、それぞれ、位置調整のうちの微調整における各目的位置のX座標およびY座標として設定する。
【0515】
これにより、緑色用の液晶ライトバルブ25と、赤色用の液晶ライトバルブ24と、青色用の液晶ライトバルブ26とにより形成された各画像が重なるように、赤色用の液晶ライトバルブ24および青色用の液晶ライトバルブ26の位置決めを行うことができる。
【0516】
液晶ライトバルブ24の位置決めが終了すると、前述したように、この液晶ライトバルブ24は、光学ブロック20に仮固定され、この後、本固定される。
【0517】
同様に、液晶ライトバルブ26の位置決めが終了すると、前述したように、この液晶ライトバルブ26は、光学ブロック20に仮固定され、この後、本固定される。
【0518】
以上説明したように、本発明のライトバルブの位置決め方法によれば、各液晶ライトバルブ24〜26の位置決めが自動的に行われるので、それを手作業で行う場合に比べ、容易、迅速かつ確実に位置決めすることができる。
【0519】
また、位置決めを手作業で行う場合に比べ、精度良く、位置決めすることができる。
【0520】
特に、フォーカス調整用の投影領域100と位置調整用の投影領域110とを設定して位置決めを行うので、フォーカス調整と位置調整で、カメラ61〜64を兼用することができる。
【0521】
このため、フォーカス調整専用のカメラと位置調整専用のカメラとを用いて位置決めを行う場合に比べ、カメラの台数を減少させることができ、これにより、位置決め装置1の構造を簡素化することができ、また、コストを低減することができる。
【0522】
また、フォーカス調整専用のカメラと位置調整専用のカメラとを用いて位置決めを行う場合に比べ、位置決め装置1の組み立て、特に、カメラ61〜64を設置するとき(組み付けるとき)のそのカメラの位置決めを容易に行うことができる。
【0523】
また、フォーカス調整用の投影領域100と、位置調整用の投影領域110とを設定し、これらを切り替えて、フォーカス調整と位置調整とを行うので、汎用性が広く、容易に、多機種に対応することができる。
【0524】
また、フォーカス調整では、粗調整と微調整とを行うので、短時間で、精度良くフォーカス調整することができる。
【0525】
また、X軸方向成分の分散値Vhが最大のときの液晶ライトバルブ24〜26のZ軸方向の位置と、Y軸方向成分の分散値Vvが最大のときの液晶ライトバルブ24〜26のZ軸方向の位置とを求め、これらに基づいて、図42(d)に示すフォーカスが合った状態のときの液晶ライトバルブ24〜26のZ軸方向の位置を求めるので、レンズの収差の大小にかかわらず、フォーカス調整の精度を高くすることができる。
【0526】
また、カメラ61の撮像領域611、カメラ62の撮像領域621、カメラ63の撮像領域631およびカメラ64の撮像領域641が、それぞれ、図6に示すように、投影領域100の角部101a付近、角部101b付近、角部101c付近および角部101d付近に位置するようになっており、これらのすべての処理領域550において図42(d)に示すフォーカスが合った状態に近づくか、または、一致するように調整するので、スクリーン2上の投影領域100のほぼ全域においてフォーカスが合う。すなわち、投影領域100のほぼ全域において高いコントラストが得られる。
【0527】
また、位置調整では、粗調整と微調整とを行うので、短時間で、精度良く位置調整を行うことができる。
【0528】
また、カメラ61の撮像領域611、カメラ62の撮像領域621、カメラ63の撮像領域631およびカメラ64の撮像領域641に、それぞれ、図6に示すように、投影領域110の角部111a、角部111b、角部111cおよび角部111dが含まれ、これらのすべての角部に対して位置調整するので、正確に位置調整することができる。
【0529】
また、粗調整を行うことにより、スクリーン上に投影した画像が目的領域内に存在しない場合でも、かかる画像の角部を目的領域内に導入することができ、効率よく位置調整を行うことができる。これにより、投影領域が目的領域から離間したところに位置する場合でも、位置調整を容易に行うことができる。
【0530】
また、第1の実施の形態の微調整を行う場合には、スクリーン上に投影した画像が完全に長方形でない場合でも、正確に位置調整を行うことができる。
【0531】
また、位置調整のうちの微調整において、第2の実施の形態の微調整を行う場合には、輝度の積算値を利用する前述したエッジ処理により特定位置のX座標およびY座標を求めるので、正確に特定位置のX座標およびY座標を求めることができ、これにより位置調整の精度をさらに向上させることができる。
【0532】
そして、本発明の表示ユニットおよび投射型表示装置によれば、前述した位置決め方法により、液晶ライトバルブ24、25および26が精度良く位置決めされているので、画像の全域においてコントラスト(画像の鮮明さ)が高く、色ずれ(画素ずれ)のないカラー画像をスクリーン上に投影することができる。
【0533】
次に、本発明のライトバルブの位置決め方法の他の実施例を説明する。なお、前述した実施例との共通点については説明を省略し、主な相違点を説明する。
【0534】
前述した実施例では、液晶ライトバルブ24〜26のフォーカス調整および位置調整をそれぞれ液晶ライトバルブ24〜26を作動させて行うが、この実施例では、液晶ライトバルブ24〜26のフォーカス調整をそれぞれ液晶ライトバルブ24〜26を作動させずに行い、液晶ライトバルブ24〜26の位置調整をそれぞれ液晶ライトバルブ24〜26を作動させて行う。
【0535】
具体的には、この実施例は、前述した実施例において、図7に示すフローチャートのステップS101を省略したものとなる。
【0536】
液晶ライトバルブ24〜26を作動させない場合、それぞれ、液晶ライトバルブ24〜26に照射された光は、その画素を透過し、スクリーン2上に投影される。
【0537】
よって、この実施例では、例えば、液晶ライトバルブ25の有効画面領域に対応するスクリーン2上の領域を前述したフォーカス調整用の投影領域100として設定する。
【0538】
なお、この場合には、図7のステップS100において4台の照明装置71〜74を点灯させると、スクリーン2上の投影領域100に、フォーカス調整用の投影画像131(厳密には、照明光が照射された部分)が投影される。
【0539】
一方、位置調整用の投影領域110は、前述した実施例と同様にして設定する。
【0540】
この位置決め方法でも前述した実施例と同様の効果が得られる。
【0541】
以上、本発明のライトバルブの位置決め方法、表示ユニットおよび投射型表示装置を、図示の実施例に基づいて説明したが、本発明はこれに限定されるものではない。
【0542】
例えば、本発明では、用いる位置決め装置の構造は、図示のものに限定されない。
【0543】
また、本発明では、第1の投影領域の形状、第2の投影領域の形状は、それぞれ、四角形には限定されず、この他、例えば、三角形、五角形等の多角形等でもよい。
【0544】
また、本発明では、フォーカス調整において撮像される所定領域の位置と、位置調整において撮像される所定領域の位置は、それぞれ、前記実施例には限定されない。
【0545】
また、本発明では、カメラの台数、すなわち、フォーカス調整において撮像される所定領域の数と、位置調整において撮像される所定領域の数は、それぞれ、前記実施例には限定されない。
【0546】
例えば、フォーカス調整や位置調整において撮像される所定領域は、3箇所以下でもよく、また、5箇所以上でもよい。
【0547】
但し、フォーカス調整、位置調整において撮像される所定領域は、3箇所以上(但し、そのすべてが同一直線上に存在する場合を除く)が好ましく、4または5箇所(但し、そのすべてが同一直線上に存在する場合を除く)がより好ましい。
【0548】
フォーカス調整、位置調整において撮像される所定領域を3箇所以上に設定することにより、スクリーン上に投影された第1の投影領域のほぼ全域においてフォーカスが合った状態のときのライトバルブのZ軸方向の位置および姿勢と、現在のライトバルブのZ軸方向の位置および姿勢とのずれを検出することができる。これにより、前記第1の投影領域のほぼ全域においてフォーカスが合うように(第1の投影領域のほぼ全域において高いコントラストが得られるように)、フォーカス調整することができる。
【0549】
フォーカス調整、位置調整において撮像される所定領域を3箇所に設定したときの実施例を図51および図52に示し、フォーカス調整、位置調整において撮像される所定領域を4箇所に設定したときの実施例を図53に示す。
【0550】
図51に示すように、この実施例では、図示しない3台のカメラが設置されており、これらのカメラの撮像領域411、412および413は、それぞれ、投影領域100の内側で、かつ、投影領域110の非投影領域115との境界部16を含むように設定されている。
【0551】
具体的には、撮像領域411は、辺104aの近傍であって、かつ、辺103aと辺103bの中間に位置し、辺114aの中間部を含むように設定されている。
【0552】
また、撮像領域412は、角部101a付近に位置し、角部111aを含むように設定されている。
【0553】
また、撮像領域413は、角部101b付近に位置し、角部111bを含むように設定されている。
【0554】
この場合には、撮像領域411の画像データからは、撮像領域411のうちの特定位置のY座標が求まり、撮像領域412の画像データからは、撮像領域412のうちの特定位置のX座標およびY座標が求まり、撮像領域413の画像データからは、撮像領域413のうちの特定位置のX座標およびY座標が求まる。
【0555】
従って、これらの情報に基づいて液晶ライトバルブを変位させることにより位置調整する。
【0556】
図52に示すように、この実施例では、図示しない3台のカメラが設置されており、これらのカメラの撮像領域421、422および423は、それぞれ、投影領域100の内側で、かつ、投影領域110の非投影領域115との境界部16を含むように設定されている。
【0557】
具体的には、撮像領域421は、辺104bの近傍であって、かつ、辺103aと辺103bの中間に位置し、辺114bの中間部を含むように設定されている。
【0558】
また、撮像領域422は、角部101c付近に位置し、角部111cを含むように設定されている。
【0559】
また、撮像領域423は、角部101d付近に位置し、角部111dを含むように設定されている。
【0560】
この場合には、撮像領域421の画像データからは、撮像領域421のうちの特定位置のY座標が求まり、撮像領域422の画像データからは、撮像領域422のうちの特定位置のX座標およびY座標が求まり、撮像領域423の画像データからは、撮像領域423のうちの特定位置のX座標およびY座標が求まる。
【0561】
従って、これらの情報に基づいて液晶ライトバルブを変位させることにより位置調整する。
【0562】
図53に示すように、この実施例では、図示しない4台のカメラが設置されており、これらのカメラの撮像領域431、432および433は、それぞれ、投影領域100の内側で、かつ、投影領域110の非投影領域115との境界部16を含むように設定されている。
【0563】
具体的には、撮像領域431は、角部101a付近に位置し、辺114bのうちの角部111aの近傍の部分を含むように設定されている。
【0564】
また、撮像領域432は、角部101b付近に位置し、辺114bのうちの角部111bの近傍の部分を含むように設定されている。
【0565】
また、撮像領域433は、角部101c付近に位置し、角部111cを含むように設定されている。
【0566】
また、撮像領域434は、角部101d付近に位置し、角部111dを含むように設定されている。
【0567】
この場合には、撮像領域431の画像データからは、撮像領域431のうちの特定位置のY座標が求まり、撮像領域432の画像データからは、撮像領域432のうちの特定位置のY座標が求まり、撮像領域433の画像データからは、撮像領域433のうちの特定位置のX座標およびY座標が求まり、撮像領域434の画像データからは、撮像領域434のうちの特定位置のX座標およびY座標が求まる。
【0568】
従って、これらの情報に基づいて液晶ライトバルブを変位させることにより位置調整する。
【0569】
なお、この他、例えば、撮像領域を辺103aの近傍であって、かつ、辺104aと辺104bの中間に位置させ、辺113aの中間部を含むように設定してもよい。この場合には、前記撮像領域の画像データからは、その撮像領域のうちの特定位置のX座標が求まる。
【0570】
また、例えば、撮像領域を辺103bの近傍であって、かつ、辺104aと辺104bの中間に位置させ、辺113bの中間部を含むように設定してもよい。この場合には、前記撮像領域の画像データからは、その撮像領域のうちの特定位置のX座標が求まる。
【0571】
また、前記実施例では、第1のフォーカス調整(フォーカスの粗調整)、第2のフォーカス調整(フォーカスの微調整)、第1の位置調整(位置の粗調整)、第2の位置調整(位置の微調整)の順番で、ライトバルブの位置決めを行っているが、本発明では、この順番に限らず、例えば、第1のフォーカス調整(フォーカスの粗調整)、第1の位置調整(位置の粗調整)、第2のフォーカス調整(フォーカスの微調整)、第2の位置調整(位置の微調整)の順番で、ライトバルブの位置決めを行ってもよい。
【0572】
また、前記実施例では、ライトバルブが、液晶ライトバルブで構成されているが、本発明では、これに限らず、例えば、DMD(Digital Micromirror Device)を用いたライトバルブで構成されていてもよい。なお、DMDを用いたライトバルブの場合には、そのDMDにより所定のパターン(明暗パターン)を形成し、そのパターンをスクリーン上に投影して位置決めを行う。
【0573】
また、前記第1の実施の形態のステップS350の微調整において、四頂点位置計測処理(処理S90d)では、エッジ処理を行い特定位置を検出し、かかるエッジ処理で検出した特定位置に基づいて、前記第1の処理(処理S35A)と、第2の処理(処理S35B)と、第3の処理(処理S35C)とを行ってもよい。
【0574】
【発明の効果】
以上説明したように、本発明のライトバルブの位置決め方法によれば、容易、迅速、確実に、かつ精度良く位置決めすることができる。
【0575】
特に、フォーカス調整と位置調整とに、共通(同一)のカメラを用いて位置決めを行うので、フォーカス調整専用のカメラと位置調整専用のカメラとを用いて位置決めを行う場合に比べ、カメラの台数を減少させることができ、これにより、位置決め装置の構造を簡素化することができる。
【0576】
また、フォーカス調整専用のカメラと位置調整専用のカメラとを用いて位置決めを行う場合に比べ、位置決め装置の組み立て、特に、カメラを設置するときのそのカメラの位置決めを容易に行うことができる。
【0577】
また、第1の投影領域と第2の投影領域とを設定し、これらを切り替えて、フォーカス調整と位置調整とを行うので、汎用性が広く、容易に、多機種に対応することができる。
【0578】
また、フォーカス調整では、粗調整と微調整とを行うので、短時間で、精度良くフォーカス調整を行うことができ、また、位置調整では、粗調整と微調整とを行うので、短時間で、精度良く位置調整を行うことができる。
【0579】
そして、本発明の表示ユニットおよび投射型表示装置によれば、赤色、緑色および青色に対応した3つのライトバルブが精度良く位置決めされているので、コントラストが高く、色ずれのないカラー画像をスクリーン上に投影することができる。
【図面の簡単な説明】
【図1】本発明のライトバルブの位置決め方法に用いる位置決め装置の構成例を模式的に示す側面図である。
【図2】図1に示す位置決め装置の回路構成を示すブロック図である。
【図3】本発明における投射型表示装置の光学ヘッド部(各液晶ライトバルブおよび光学系の一部)を示す断面図である。
【図4】本発明におけるダイクロイックプリズムと、緑色に対応した液晶ライトバルブと、支持部材とを示す分解斜視図である。
【図5】図1に示す位置決め装置のチャックで挟持された液晶ライトバルブを模式的に示す図である。
【図6】本発明における液晶ライトバルブによるスクリーン上の各投影領域と、各カメラの撮像領域とを模式的に示す図である。
【図7】本発明におけるフォーカス調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図8】本発明におけるフォーカス調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図9】本発明におけるフォーカス調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図10】本発明における位置調整(アライメント調整)の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図11】本発明における4つのパターンを模式的に示す図である。
【図12】本発明における2つのパターンを模式的に示す図である。
【図13】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図14】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図15】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図16】本発明における位置調整(アライメント調整)における粗調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図17】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図18】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整の際の位置決め装置の制御手段の制御動作を示すフローチャートである。
【図19】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図20】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図21】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図22】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図23】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図24】本発明における位置調整(アライメント調整)における粗調整を説明するための図である。
【図25】本発明における位置調整(アライメント調整)における第1の実施の形態の微調整を説明するための図である。
【図26】本発明における他の4つのパターンを模式的に示す図である。
【図27】本発明における他の2つのパターンを模式的に示す図である。
【図28】本発明における位置調整(アライメント調整)における第2の実施の形態の微調整を説明するための図である。
【図29】本発明におけるエッジ処理における位置決め装置の制御手段の制御動作を示すフローチャートである。
【図30】本発明におけるエッジ処理を説明するための図である。
【図31】本発明におけるエッジ処理を説明するための図である。
【図32】本発明におけるエッジ処理を説明するための図である。
【図33】本発明における第1の波形および第2の波形を示す図である。
【図34】本発明における撮像領域と、処理領域とを模式的に示す図である。
【図35】本発明における処理領域の一部分を模式的に示す図である。
【図36】本発明における処理領域の一部分と、その部分に対応するY軸方向の輝度の積算値のグラフとを示す図である。
【図37】本発明における処理領域の一部分と、その部分に対応するY軸方向の輝度の積算値のグラフとを示す図である。
【図38】本発明における処理領域の一部分と、その部分に対応するX軸方向の輝度の積算値のグラフとを示す図である。
【図39】本発明における処理領域の一部分と、その部分に対応するX軸方向の輝度の積算値のグラフとを示す図である。
【図40】本発明におけるフォーカス調整の際の液晶ライトバルブの移動を説明するための模式図である。
【図41】本発明におけるカメラで撮像した画像についての分散値Vh、Vvと、前記分散値Vh、Vvを取得したときの液晶ライトバルブのZ軸方向の位置との関係を示すグラフである。
【図42】本発明における液晶ライトバルブのZ軸方向の位置を変えたときの処理領域内の画像を模式的に示す図である。
【図43】本発明におけるフォーカス調整用の投影画像の構成例を模式的に示す図である。
【図44】本発明における位置調整用の投影画像の構成例を模式的に示す図である。
【図45】本発明におけるフォーカス調整用の投影領域、位置調整用の投影領域の構成例を模式的に示す図である。
【図46】本発明におけるフォーカス調整用の投影領域、位置調整用の投影領域の構成例を模式的に示す図である。
【図47】本発明におけるフォーカス調整用の投影領域、位置調整用の投影領域の構成例を模式的に示す図である。
【図48】本発明におけるフォーカス調整用の投影領域、位置調整用の投影領域の構成例を模式的に示す図である。
【図49】本発明におけるフォーカス調整用の投影領域、位置調整用の投影領域の構成例を模式的に示す図である。
【図50】本発明におけるフォーカス調整用の投影領域、位置調整用の投影領域の構成例を模式的に示す図である。
【図51】本発明における液晶ライトバルブによるスクリーン上の各投影領域と、各カメラの撮像領域(3箇所)とを模式的に示す図である。
【図52】本発明における液晶ライトバルブによるスクリーン上の各投影領域と、各カメラの撮像領域(3箇所)とを模式的に示す図である。
【図53】本発明における液晶ライトバルブによるスクリーン上の各投影領域と、各カメラの撮像領域(4箇所)とを模式的に示す図である。
【図54】従来の投射型表示装置の光学系を模式的に示す図である。
【符号の説明】
1 位置決め装置
2 スクリーン
3 制御手段
4 メモリー
550 処理領域
551 画素部
552 間隙部
553 Y軸方向間隙部
554 X軸方向間隙部
555 共通間隙部
560 列
570 行
61〜64 カメラ
611、621 撮像領域
612 辺
631、641 撮像領域
632、633 辺
643 辺
71〜74 照明装置
8 3軸テーブル
81 3軸テーブル駆動機構
9 3軸テーブル
91 3軸テーブル駆動機構
11 チャック
12 支持部材
20 光学ブロック
21 ダイクロイックプリズム
211、212 ダイクロイックミラー面
213〜215 面
216 出射面
22 投射レンズ
23 支持体
24〜26 液晶ライトバルブ
251 枠部材
252 貫通孔
253 切り欠き部
27 支持部材
28 固定板
281 開口
282 ネジ孔
29 固定板
291 開口
292 貫通孔
293 突起
31 ネジ
32 楔
33 接着剤
411〜413 撮像領域
421〜423 撮像領域
431〜434 撮像領域
100 投影領域
101a、101b 角部
101c、101d 角部
103a、103b 辺
104a、104b 辺
110 投影領域
111a、111b 角部
111c、111d 角部
112a、112b エッジ
112c、112d エッジ
113a、113b 辺
114a、114b 辺
115 非投影領域
116 境界部
121〜124 位置
125a、125b 中心
125c、125d 中心
126、127 直線
128 特定位置
129a、129b 位置
131、141 投影画像
300 投射型表示装置
301 光源
302、303 インテグレータレンズ
304、306、309 ミラー
305、307、308 ダイクロイックミラー
310〜314 集光レンズ
315 ダイクロイックプリズム
316〜318 液晶ライトバルブ
319 投射レンズ
320 スクリーン
S100〜S120 ステップ
S10a 処理
S150 ステップ
S201〜S232 ステップ
S300 粗調整
S30A〜S30H 処理
S301〜S329 ステップ
S350 微調整
S351〜S359 ステップ
S401〜S415 ステップ
S90a〜S90d 処理
S901〜S910 ステップ
S921、S922 ステップ
S931、S932 ステップ
S941〜S948 ステップ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a light valve positioning method for a projection display device, a display unit, and a projection display device.
[0002]
[Prior art]
A projection type display device using a liquid crystal light valve (liquid crystal light shutter array) is known.
[0003]
FIG. 54 is a diagram schematically showing an optical system of a conventional projection display apparatus.
[0004]
As shown in the figure, the projection display apparatus 300 reflects a light source 301, an illumination optical system composed of integrator lenses 302 and 303, mirrors 304, 306, and 309, red light and green light (blue). A dichroic mirror 305 that transmits only light, a dichroic mirror 307 that reflects only green light, a dichroic mirror that reflects only red light (or a mirror that reflects red light) 308, condenser lenses 310, 311, 312, 313, and 314, a color separation optical system (light guide optical system), three liquid crystal light valves 316, 317 and 318 corresponding to blue, green and red, a dichroic prism (color synthesis optical system) 315, and a projection lens (Projection optical system) 319.
[0005]
White light (white light beam) emitted from the light source 301 passes through the integrator lenses 302 and 303. The light intensity (luminance distribution) of this white light is made uniform by the integrator lenses 302 and 303.
[0006]
The white light transmitted through the integrator lenses 302 and 303 is reflected to the left in FIG. 54 by the mirror 304, and red light (R) and green light (G) of the reflected light are respectively reflected by the dichroic mirror 305 in FIG. The blue light (B) is reflected downward and passes through the dichroic mirror 305.
[0007]
The blue light transmitted through the dichroic mirror 305 is reflected downward in FIG. 54 by the mirror 306, and the reflected light passes through the condenser lens 310 and then enters the liquid crystal light valve 316 for blue.
[0008]
Of the red light and green light reflected by the dichroic mirror 305, green light is reflected by the dichroic mirror 307 to the left in FIG. 54, and the red light passes through the dichroic mirror 307.
[0009]
The green light reflected by the dichroic mirror 307 passes through the condenser lens 311 and then enters the green liquid crystal light valve 317.
[0010]
Further, the red light transmitted through the dichroic mirror 307 is reflected by the dichroic mirror (or mirror) 308 to the left side in FIG. 54, and the reflected light is reflected by the mirror 309 to the upper side in FIG. The red light passes through the condenser lenses 312, 313 and 314 and then enters the red liquid crystal light valve 318.
[0011]
As described above, the white light emitted from the light source 301 is separated into the three primary colors of red, green, and blue by the color separation optical system, and is guided to the corresponding liquid crystal light valve and enters.
[0012]
These blue light, green light, and red light are modulated by the liquid crystal light valves 316, 317, and 318, respectively, thereby forming a blue image, a green image, and a red image, respectively.
[0013]
The light of each color from the liquid crystal light valves 316, 317 and 318, that is, the respective images formed by the liquid crystal light valves 316, 317 and 318 are synthesized by the dichroic prism 315, thereby forming a color image. This image is projected (enlarged projection) onto the screen 320 installed at a predetermined position by the projection lens 319.
[0014]
When assembling the projection display device 300 described above, the three liquid crystal light valves 316, 306, so that an image having high contrast (clearness of image) and no color shift (pixel shift) can be displayed on the screen 320. Positioning of 317 and 318, that is, focus adjustment and position adjustment of the three liquid crystal light valves 316, 317 and 318 are performed, respectively.
[0015]
In the focus adjustment, an adjustment image that makes it easy to recognize the contrast is projected, and the operator confirms the contrast with the naked eye, and uses an adjustment tool to displace and fix the liquid crystal light valve so that the contrast becomes the highest. The method of doing is taken.
[0016]
In the position adjustment, an adjustment image that easily recognizes color misregistration is projected, and an operator checks the pixel misregistration with the naked eye, and uses an adjustment tool to adjust the liquid crystal light so that the color misregistration is minimized. A method of displacing and fixing the valve is employed.
[0017]
Conventionally, however, the positioning of the liquid crystal light valve is performed manually, which is very time-consuming and takes a long time even by a skilled person.
[0018]
In addition, since contrast and color shift are observed with the naked eye, there is a drawback that positioning accuracy is poor.
[0019]
In addition, since the screen on which the image is projected is separated from the position of the liquid crystal light valve to be positioned, it is necessary to go back and forth between the screen and the liquid crystal light valve many times when positioning by one person. And it takes a very long time to work.
[0020]
When positioning by two people, one worker is located near the screen, observes the projected image, conveys the information to the other worker, and the worker who receives the information Since the liquid crystal light valve is displaced, not only does the number of workers increase, but information may not be accurately transmitted between the workers, which is not reliable.
[0021]
[Problems to be solved by the invention]
An object of the present invention is to provide a light valve positioning method capable of easily, quickly, reliably and accurately positioning a light valve of a projection display device, a display unit having a light valve positioned by the positioning method, and a projection. It is to provide a mold display device.
[0022]
[Means for Solving the Problems]
Such an object is achieved by the present inventions (1) to (24) below.
[0023]
(1) A positioning method for positioning the light valve of a projection display device that projects an image formed by a light valve by a projection optical system,
Each predetermined area projected on the screen is imaged with the same camera for each predetermined area to obtain an electronic image, and focus adjustment and position adjustment of the light valve are performed based on each electronic image. A light valve positioning method characterized by comprising:
[0024]
(2) A positioning method for positioning the light valve of a projection display device that projects an image formed by a light valve by a projection optical system,
A focus that displaces the light valve so that an electronic image is obtained by imaging a predetermined area of the first projection area projected on the screen by a camera, and the focus state of the electronic image approaches a target state. Make adjustments
A position at which the light valve is displaced so that a predetermined area in the second projection area projected on the screen is captured by the camera to obtain an electronic image, and a specific position in the electronic image approaches a target position. A light valve positioning method characterized by performing adjustment.
[0025]
(3) A positioning method for positioning the light valve of a projection display device that projects an image formed by a light valve by a projection optical system,
An electronic image is obtained by imaging a predetermined area of the first projection area projected on the screen by a camera, and the light valve is displaced so that the focus state of the electronic image approaches a target state. Adjust the focus of 1
After the first focus adjustment, the camera captures a predetermined area of the first projection area projected on the screen to obtain an electronic image, and the focus state of the electronic image becomes a target state. Perform a second focus adjustment to displace the light valve so that it is closer,
The camera captures a predetermined area of the second projection area projected on the screen to obtain an electronic image, and displaces the light valve so that a specific position in the electronic image approaches a target position. Adjust position 1 and
After the first position adjustment, the camera captures a predetermined area of the second projection area projected on the screen to obtain an electronic image, and the specific position in the electronic image is closer to the target position. The light valve positioning method is characterized by performing a second position adjustment for displacing the light valve as described above.
[0026]
(4) The light valve positioning method according to (2) or (3), wherein the predetermined area in the focus adjustment of the light valve and the predetermined area in the position adjustment of the light valve are the same area on the screen. .
[0027]
(5) The light valve positioning method according to any one of (2) to (4), wherein the contour of the first projection region is located outside the contour of the second projection region.
[0028]
(6) The light valve positioning method according to any one of (2) to (5), wherein the first projection area is set so as to include the predetermined area in the first projection area.
[0029]
(7) The shape of the first projection area is a substantially quadrangular shape, and the first projection area is set so that the predetermined area in the first projection area is positioned in the vicinity of a corner portion thereof. The light valve positioning method according to (6).
[0030]
(8) Any one of (2) to (7), wherein the second projection area is set such that a boundary portion with the non-projection area is included in the predetermined area in the second projection area The light valve positioning method described in 1.
[0031]
(9) The shape of the second projection area is a substantially quadrangular shape, and the second projection area is set such that a corner thereof is included in the predetermined area in the second projection area. The light valve positioning method according to any one of (2) to (7).
[0032]
(10) The predetermined areas are set at four places, the shape of the first projection area is a substantially quadrangular shape, and the predetermined areas are located near the corners of the first projection area. The shape of the second projection area is substantially quadrangular, and the second projection area is set such that each corner is included in the predetermined area (6) The light valve positioning method described in 1.
[0033]
(11) The light valve positioning method according to any one of (2) to (9), wherein the predetermined area is set to three or more places (except when all of them are on the same straight line). . In this case, it is preferable that the predetermined areas are separated from each other.
[0034]
(12) The number of the cameras is the same as the number of the predetermined areas. The light valve according to any one of (2) to (11), wherein each of the cameras captures the corresponding predetermined area. Positioning method.
[0035]
(13) The displacement of the light valve in the focus adjustment of the light valve includes the rotation around the X axis, the rotation around the Y axis of the X axis, the Y axis, and the Z axis orthogonal to each other, and the Z axis direction. The light valve positioning method according to any one of (2) to (12), wherein
[0036]
(14) The displacement of the light valve in the position adjustment of the light valve is the movement in the X-axis direction of the X-axis, the Y-axis, and the Z-axis orthogonal to each other, the movement in the Y-axis direction, The light valve positioning method according to any one of the above (2) to (13), which is rotation.
[0037]
(15) The light valve positioning method according to any one of (1) to (14), wherein the light valve is a liquid crystal light valve.
[0038]
(16) The light valve positioning method according to (15), wherein focus adjustment of the light valve is performed without operating the light valve, and position adjustment of the light valve is performed by operating the light valve.
[0039]
(17) The light valve positioning method according to (15), wherein focus adjustment and position adjustment of the light valve are performed by operating the light valve, respectively.
[0040]
(18) The light valve positioning method according to any one of (1) to (17), wherein the position of the light valve is adjusted after focus adjustment of the light valve.
[0041]
(19) The light valve positioning method according to any one of (1) to (18), wherein the projection display device includes three light valves corresponding to red, green, and blue.
[0042]
(20) The light valve positioning method according to (19), wherein the positioning is performed for each of the three light valves.
[0043]
(21) The light valve positioning method according to (19) or (20), wherein the positioning is performed so that images formed by the three light valves overlap.
[0044]
(22) The light valve corresponding to the green color is positioned, and the image formed by the light valve is formed by the light valve corresponding to the red color and the light valve corresponding to the blue color. The light valve positioning method according to any one of (19) to (21), wherein the light valve corresponding to the red color and the light valve corresponding to the blue color are positioned so as to overlap with an image.
[0045]
(23) The light bulb is positioned by the light valve positioning method according to any one of the above (1) to (22), and three light valves corresponding to red, green, and blue forming an image are combined with each image. A display unit comprising a color synthesis optical system.
[0046]
(24) Three light valves corresponding to red, green, and blue, which are positioned by the light valve positioning method according to any one of (1) to (22) and form an image, a light source, and the light source Are separated into red, green, and blue light, a color separation optical system that guides each light to the corresponding light valve, a color synthesis optical system that synthesizes the images, and a projection of the synthesized image And a projection optical system.
[0047]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a light valve positioning method, a display unit, and a projection display device according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
[0048]
FIG. 1 is a side view schematically showing a configuration example of a positioning device used in the light valve positioning method of the present invention, and FIG. 2 is a block diagram showing a circuit configuration of the positioning device shown in FIG.
[0049]
The positioning device 1 shown in these figures is for positioning a light valve (light shutter array) of a projection display device (for example, a liquid crystal projector), that is, focus adjustment (contrast of three light valves corresponding to red, green and blue). Adjustment) and position adjustment (alignment adjustment).
[0050]
First, a projection display device will be described.
[0051]
FIG. 3 is a cross-sectional view showing an optical head portion (each liquid crystal light valve and a part of the optical system) of the projection display device, and FIG. 4 shows a dichroic prism, a liquid crystal light valve corresponding to green, and a support member. It is a disassembled perspective view shown.
[0052]
As shown in FIG. 1 and FIG. 3, the projection display device corresponds to a red light source (a light guide optical system) including a light source (not shown), a plurality of dichroic mirrors (not shown), and red (for red). ) Liquid crystal light valve (liquid crystal light shutter array) 24, liquid crystal light valve (liquid crystal light shutter array) 25 corresponding to green (for green), and liquid crystal light valve (liquid crystal light shutter for blue) corresponding to blue Array) 26, a dichroic prism (color combining optical system) 21 on which a dichroic mirror surface 211 reflecting only red light and a dichroic mirror surface 212 reflecting only blue light are formed, and a projection lens (projection optical system) 22 And an L-shaped support body 23.
[0053]
The dichroic prism 21 and the projection lens 22 are each fixedly installed on the support 23.
[0054]
Further, the three liquid crystal light valves 24, 25, and 26 are respectively connected to the upper surface 213 in FIG. 3, the right surface 214 in FIG. 3, and the lower surface in FIG. 215.
[0055]
The liquid crystal light valve 25 for green has pixels (light shutters) (not shown) arranged in the X axis direction and the Y axis direction orthogonal to each other.
[0056]
In this case, the X-axis direction and the Y-axis direction respectively coincide with the X-axis direction and the Y-axis direction shown in FIG. 5 when the liquid crystal light valve 25 is positioned by the positioning device 1 described later.
[0057]
The liquid crystal light valve 24 for red has pixels (light shutters) (not shown) arranged in the X axis direction and the Y axis direction orthogonal to each other.
[0058]
In this case, the X-axis direction and the Y-axis direction respectively coincide with the X-axis direction and the Y-axis direction shown in FIG. 5 when the liquid crystal light valve 24 is positioned by the positioning device 1 described later.
[0059]
The blue liquid crystal light valve 26 has pixels (light shutters) (not shown) arranged in the X-axis direction and the Y-axis direction orthogonal to each other.
[0060]
In this case, the X-axis direction and the Y-axis direction respectively coincide with the X-axis direction and the Y-axis direction shown in FIG. 5 when the liquid crystal light valve 26 is positioned by the positioning device 1 described later.
[0061]
Since the structure of each support member 27 is the same, the support member 27 that supports (fixes) the green liquid crystal light valve 25 will be typically described.
[0062]
As shown in FIG. 4, the support member 27 includes a fixing plate 28 positioned on the dichroic prism 21 side, a fixing plate 29 positioned on the liquid crystal light valve 25 side, and four screws for fixing these fixing plates 28 and 29. 31.
[0063]
A rectangular opening 281 for passing light is formed at the center of the fixed plate 28. Screw holes 282 that are screwed into the screws 31 are formed at the four corners of the fixing plate 28.
[0064]
A rectangular opening 291 for passing light is formed at the center of the fixed plate 29. In the positions corresponding to the screw holes 282 at the four corners of the fixing plate 29, through holes 292 having a diameter smaller than the head of the screw 31 and into which the screw 31 is inserted are formed. Further, in the vicinity of each corner of the opening 291 of the fixed plate 29, a protrusion 293 is provided so as to protrude to the opposite side of the dichroic prism 21.
[0065]
The fixed plate 28 and the fixed plate 29 are bonded to the surface 214 of the prism 21 with an adhesive 33 while being fixed with four screws 31.
[0066]
Through holes 252 into which the protrusions 293 are inserted are formed at positions corresponding to the protrusions 293 at the four corners of the frame member 251 of the liquid crystal light valve 25. The inner diameter of the through hole 252 is set so that the liquid crystal light valve 25 can be displaced during positioning described later.
[0067]
And the notch part 253 for inserting the wedge 32 mentioned later is provided in the left and right end surfaces in FIG. 4 of the frame member 251 respectively.
[0068]
The liquid crystal light valve 25 is positioned by a positioning device 1 to be described later in a state where each projection 293 of the fixing plate 29 is inserted into the corresponding through hole 252.
[0069]
When the positioning is completed, the liquid crystal light valve 25 is temporarily fixed by curing the adhesive previously injected into each through hole 252 of the frame member 251. As the adhesive for temporary fixing, for example, an ultraviolet curable adhesive or the like can be used.
[0070]
After this temporary fixing, two wedges (spacers) 32 are inserted from the notch 253 between the fixing plate 29 of the support member 27 and the frame member 251 of the liquid crystal light valve 25. The support member 27 and the liquid crystal light valve 25 are fixed (mainly fixed) with an adhesive via the wedges 32. As the fixing adhesive, for example, an ultraviolet curable adhesive can be used.
[0071]
Similarly to the green liquid crystal light valve 25 described above, the red liquid crystal light valve 24 and the blue liquid crystal light valve 26 are respectively positioned, temporarily fixed, and fixed by the positioning device 1 described later. .
[0072]
The liquid crystal light valves 24, 25, and 26 are respectively positioned with respect to the optical block 20 shown in FIG. 1, which includes the dichroic prism 21, the projection lens 22, and the support 23 on which three support members 27 are installed. Install (set) at a predetermined position in the posture.
[0073]
The optical block 20 and the liquid crystal light valves 24, 25 and 26 fixedly installed with respect to the dichroic prism 21 constitute a display unit of a projection display device.
[0074]
Next, the operation of the projection display device will be described.
[0075]
White light (white light flux) emitted from the light source is color-separated into three primary colors of red, green, and blue by a color separation optical system. As shown in FIG. 3, red light, green light, and blue light are respectively The liquid crystal light valve 24 for red, the liquid crystal light valve 25 for green, and the liquid crystal light valve 26 for blue are led.
[0076]
The red light enters the liquid crystal light valve 24 and is modulated by the liquid crystal light valve 24, thereby forming a red image. At this time, each pixel of the liquid crystal light valve 24 is subjected to switching control (ON / OFF) by a drive circuit (drive means) (not shown) that operates based on a red image signal.
[0077]
Similarly, green light and blue light are incident on the liquid crystal light valves 25 and 26, respectively, and modulated by the liquid crystal light valves 25 and 26, whereby a green image and a blue image are formed. At this time, each pixel of the liquid crystal light valve 25 is controlled by a drive circuit (not shown) that operates based on the green image signal, and each pixel of the liquid crystal light valve 26 operates based on the blue image signal. Switching control is performed by a driving circuit (not shown).
[0078]
As shown in FIG. 3, the red image formed by the liquid crystal light valve 24, that is, red light from the liquid crystal light valve 24 is incident on the dichroic prism 21 from the surface 213, and is reflected by the dichroic mirror surface 211 in FIG. 3. The light is reflected to the left, passes through the dichroic mirror surface 212, and exits from the exit surface 216.
[0079]
Further, the green image formed by the liquid crystal light valve 25, that is, the green light from the liquid crystal light valve 25, enters the dichroic prism 21 from the surface 214, passes through the dichroic mirror surfaces 211 and 212, and exits. The light exits from the surface 216.
[0080]
Further, the blue image formed by the liquid crystal light valve 26, that is, the blue light from the liquid crystal light valve 26 is incident on the dichroic prism 21 from the surface 215, and is reflected by the dichroic mirror surface 212 to the left in FIG. The light passes through the dichroic mirror surface 211 and exits from the exit surface 216.
[0081]
Thus, the light of each color from the liquid crystal light valves 24, 25 and 26, that is, the images formed by the liquid crystal light valves 24, 25 and 26 are synthesized by the dichroic prism 21, thereby forming a color image. Is done. This image is projected (enlarged projection) on a screen (not shown) installed at a predetermined position by the projection lens 22.
[0082]
Next, the positioning device 1 used in the light valve positioning method of the present invention will be described. In the description of the structure of the positioning device 1, the green liquid crystal light valve 25 is representatively described.
[0083]
As shown in FIGS. 1 and 2, the positioning device 1 includes a chuck 11 that holds liquid crystal light valves 24, 25, and 26, a support member 12 that supports the chuck 11, and a three-axis table (displacement means) for focus adjustment. ) 8, a three-axis table (displacement means) 9 for position adjustment (for alignment adjustment), four cameras (video cameras) 61, 62, 63 and 64 capable of forming an electronic image (image data), There are four lighting devices 71, 72, 73 and 74.
[0084]
Each of the cameras 61 to 64 is fixedly installed at a predetermined position. The cameras 61 to 64 are commonly used for focus adjustment and position adjustment, which will be described later, and the number of the cameras 61 to 64 is the same as the number of areas imaged in the focus adjustment and the number of areas imaged in the position adjustment.
[0085]
As shown in FIG. 1, a triaxial table 9 is supported by a triaxial table 8, a support member 12 is supported by the triaxial table 9, and a chuck 11 is installed at the tip of the support member 12.
[0086]
FIG. 5 is a diagram schematically showing the liquid crystal light valve 25 held by the chuck 11 of the positioning device 1.
[0087]
As shown in the figure, an X axis, a Y axis, and a Z axis (XYZ coordinates) orthogonal to each other are assumed.
[0088]
The focus adjustment triaxial table 8 is configured to move in the Z axis direction, rotate in both directions in the H direction (around the Y axis), and rotate in both directions in the V direction (around the X axis). Has been.
[0089]
When the three-axis table 8 moves in the Z-axis direction, the liquid crystal light valve 25 moves in the Z-axis direction together with the three-axis table 8. When the triaxial table 8 rotates in the H direction, the liquid crystal light valve 25 rotates in the H direction together with the triaxial table 8. When the triaxial table 8 rotates in the V direction, the liquid crystal light valve 25 rotates in the V direction together with the triaxial table 8.
[0090]
The displacement of the three-axis table 8, that is, the movement in the Z-axis direction and the rotation in the H-direction and the V-direction are each controlled by the control means 3 via a three-axis table drive mechanism 81 described later.
[0091]
Further, the position adjusting triaxial table 9 is configured to move in the X axis direction and the Y axis direction and to rotate in both directions in the W direction (around the Z axis).
[0092]
When the triaxial table 9 moves in the X axis direction, the liquid crystal light valve 25 moves in the X axis direction together with the triaxial table 9. When the triaxial table 9 moves in the Y axis direction, the liquid crystal light valve 25 moves in the Y axis direction together with the triaxial table 9. When the triaxial table 9 rotates in the W direction, the liquid crystal light valve 25 rotates in the W direction together with the triaxial table 9.
[0093]
The displacement of the three-axis table 9, that is, movement in the X-axis direction and Y-axis direction, and rotation in the W-direction are controlled by the control means 3 via a three-axis table drive mechanism 91 described later.
[0094]
Further, as shown in FIG. 1, the four lighting devices 71, 72, 73 and 74 are installed so as to be located on the back side (right side in FIG. 1) of the liquid crystal light valve 25 sandwiched between the chucks 11, respectively. Has been. The illumination ranges of the respective illumination devices 71 to 74 are set so as to cover at least imaging areas described later of the cameras 61 to 64, respectively.
[0095]
A screen 2 is installed at a position separated from the optical block 20 installed in the positioning device 1 by a predetermined distance.
[0096]
The screen 2 is not limited to a general screen, and may be any screen that can display a projection image (can function as a screen).
[0097]
In the present embodiment, each of the cameras 61 to 64 is installed on the surface side of the screen 2 (right side in FIG. 1).
[0098]
When the screen 2 is, for example, a reflection type (reflection type screen), each of the cameras 61 to 64 is disposed on the right side of the screen 2 in FIG. When the screen 2 is, for example, a transmission type (transmission type screen), the cameras 61 to 64 are arranged on the left side of the screen 2 in FIG. The image is taken from the left side in FIG.
[0099]
FIG. 6 shows a focus adjustment projection area (first projection area) and a position adjustment projection area (second projection area) on the screen 2 by the liquid crystal light valve 25, and imaging areas of the cameras 61 to 64. FIG.
[0100]
As shown in the figure, the imaging area 611 of the camera 61, the imaging area 621 of the camera 62, the imaging area 631 of the camera 63, and the imaging area 641 of the camera 64 are each substantially rectangular (quadrangle).
[0101]
As shown in FIG. 6, the positions and orientations of the imaging regions 611 to 641 are respectively located at the four vertices of a predetermined rectangle (rectangle), and the imaging regions 611 are located at the centers of the imaging regions 611 to 641. The corresponding sides of ˜641 are set to be parallel.
[0102]
As described above, since the cameras 61 to 64 are commonly used for focus adjustment and position adjustment, the imaging regions 611 to 641 are imaging regions for focus adjustment and position adjustment, respectively. That is, the area on the screen 2 imaged at the time of focus adjustment and the area on the screen 2 imaged at the time of position adjustment are the same area.
[0103]
The focus adjustment projection area (first projection area) 100 is substantially rectangular (quadrangle).
[0104]
An area surrounded by a one-dot chain line in FIG. 6 is a projection area 100, and an image formed by the liquid crystal light valves 24 to 26 is projected onto the screen 2 during the focus adjustment described later. The region (range) of each projected image at that time is shown.
[0105]
That is, at the time of focus adjustment, as shown in FIG. 43, a focus adjustment projection image (first projection image) 131 (the hatched portion in FIG. 43) is projected onto the screen 2. However, when a part of the liquid crystal light valves 24 to 26 (for example, a part corresponding to a part including the imaging regions 611 to 641) is irradiated with light beams (light) from the illumination devices 71 to 74, respectively, A projection image of that portion of the projection image 131 is projected on the screen 2.
[0106]
Further, as shown in FIG. 6, the position adjustment projection area (second projection area) 110 is substantially rectangular (quadrangle).
[0107]
An area surrounded by a dotted line in FIG. 6 is a projection area 110, and this projection area 110 is obtained when an image formed by the liquid crystal light valves 24 to 26 is projected on the screen 2 during position adjustment described later. A region (range) of each projection image is shown.
[0108]
That is, at the time of position adjustment, as shown in FIG. 44, a position adjustment projection image (second projection image) 141 (the hatched portion in FIG. 44) is projected onto the screen 2. However, when a part of the liquid crystal light valves 24 to 26 (for example, a part corresponding to a part including the imaging regions 611 to 641) is irradiated with light beams (light) from the illumination devices 71 to 74, respectively, A projection image of that portion of the projection image 141 is projected onto the screen 2.
[0109]
As shown in FIG. 6, the projection area 110 (projection image 141) is included in the projection area 100 (projection image 131). That is, the side 103a of the projection area 100 is located on the left side of the side 113a of the projection area 110 in FIG. 6, and the side 103b of the projection area 100 is located on the right side of the side 113b of the projection area 110 in FIG. The side 104a of 100 is positioned below the side 114a of the projection area 110 in FIG. 6, and the side 104b of the projection area 100 is positioned above the side 114b of the projection area 110 in FIG. 6 (projection area 100). Is located outside the contour of the projection area 110).
[0110]
As shown in FIG. 6, the projection area 100 includes imaging areas 611 to 641, and in the vicinity of the corners 101 a, 101 b, 101 c, and 101 d of the projection area 100, the imaging areas 611 and 621, respectively. , 631 and 641 are positioned.
[0111]
On the other hand, as shown in FIG. 6, the projection area 110 has corner portions 111a, 111b, 111c and 111d (predetermined portions of the boundary portion 116 between the projection area 110 and the non-projection area 115). These are set so as to be included in the imaging regions 611, 621, 631 and 641, respectively.
[0112]
In this embodiment, the camera 61 that captures the upper left in FIG. 6 (corresponding to the imaging region 611) is “camera No. 1”, and the camera 62 that captures the upper right in FIG. No. 2 ”, the camera 63 that captures the lower left in FIG. 6 (corresponding to the imaging area 631) is“ camera No. 3 ”, and the camera 64 that captures the lower right in FIG. 6 (corresponding to the imaging area 641) is“ Camera No. 4 ”.
[0113]
In addition, when the shape of the projection areas 100 and 110 is set to a quadrangle, the quadrangle is not limited to the shape illustrated in FIGS. 6, 43, and 44, for example, FIG. 45, FIG. 46, FIG. 54, FIG. 49, and FIG. 50 also include shapes shown by hatching. In other words, the outline (outer outline) may be substantially rectangular.
[0114]
As shown in FIG. 2, the positioning device 1 includes a control unit 3, a memory 4, and triaxial table drive mechanisms 81 and 91.
[0115]
The control means 3 is usually composed of a microcomputer (CPU), the memory 4, the cameras 61, 62, 63 and 64, the illumination devices 71, 72, 73 and 74, the triaxial table drive mechanisms 81 and 91, and the like. The overall positioning device 1 is controlled and the drive circuits of the liquid crystal light valves 24, 25 and 26 to be positioned are controlled.
[0116]
The liquid crystal light valves 24, 25 and 26 may be displaced using a 6-axis table.
[0117]
Next, the light valve positioning method of the present invention (the operation of the positioning device 1) will be described.
[0118]
When the optical block 20 is placed at a predetermined position of the positioning device 1 and the positioning device 1 is operated, the positioning device 1 automatically positions each of the liquid crystal light valves 24, 25 and 26, and these are optically detected. Temporarily fixed to the block 20.
[0119]
In this embodiment, when the liquid crystal light valves 24, 25 and 26 are positioned, the green liquid crystal light valve 25 is first positioned, and thereafter the red liquid crystal light valve 24 and the blue liquid crystal light valve 24 are positioned. The light valve 26 is positioned.
[0120]
That is, first, the liquid crystal light valve 25 is positioned at a preset position, then the position of the liquid crystal light valve 25 is detected, and the liquid crystal light valves 24 and 26 are respectively positioned at positions corresponding to the detected positions. Position it.
[0121]
Further, when positioning each of the liquid crystal light valves 24, 25 and 26, first, focus adjustment (contrast adjustment) is performed, and then position adjustment (alignment adjustment) is performed.
[0122]
In focus adjustment, first, coarse adjustment (first focus adjustment) is performed, and then coarse adjustment is performed, and then fine adjustment (second focus adjustment) is performed. The focus adjustment of the green liquid crystal light valve 25 will be described below as a representative.
[0123]
7, 8 and 9 are flowcharts showing the control operation of the control means 3 of the positioning device 1 in focus adjustment. 8 and 9 show a subroutine in step S10a (two places) in FIG. Hereinafter, description will be given based on this flowchart.
[0124]
In the focus adjustment, first, the four illumination devices 71 to 74 are turned on (step S100).
[0125]
Next, the liquid crystal light valve 25 is actuated (driven), the predetermined pixel is turned on, and the above-mentioned focus adjustment projection image 131 shown in FIG. 43 is projected on the screen 2 (step S101).
[0126]
That is, in step S101, as shown in FIG. 1, the light emitted from the illumination devices 71 to 74 and transmitted through the turned-on pixels among the pixels of the liquid crystal light valve 25 is projected onto the projection region 100 on the screen 2. .
[0127]
Next, the liquid crystal light valve 25 is moved along the Z axis to the image data acquisition start position (rough reference position in the Z axis direction) along the Z axis by the triaxial table 8 (step S102). When the liquid crystal light valve 25 is positioned at a predetermined position in the Z-axis direction, the center of the effective screen area of the liquid crystal light valve 25 is positioned at the predetermined position.
[0128]
The image data acquisition start position is set in advance to a predetermined position (a position where the focus is not achieved) sufficiently separated from a position where the focus is expected to be achieved in a direction away from the dichroic prism 21.
[0129]
Next, camera no. 1 (camera 61), image data relating to the luminance of the imaging region 611 (hereinafter simply referred to as “image data”) is obtained and stored in the memory 4 (step S103).
[0130]
Next, camera no. 2 (camera 62), and the image data of the imaging area 621 is stored in the memory 4 (step S104).
[0131]
Next, camera no. 3 (camera 63), and the image data of the imaging area 631 is stored in the memory 4 (step S105).
[0132]
Next, camera no. 4 (camera 64), and the image data of the imaging area 641 is stored in the memory 4 (step S106).
[0133]
Next, a dispersion value acquisition process (subroutine shown in FIGS. 8 and 9) is executed (step S10a).
[0134]
In this distributed value acquisition process, the camera No. 1 to camera no. For each image (electronic image) captured in step 4, a variance value Vv of the Y-axis direction component (vertical component) and a variance value Vh of the X-axis direction component (lateral component) are acquired.
[0135]
In this case, as shown in FIG. Among the one imaging region 611 (all pixels of the camera No. 1), a predetermined region (for example, pixels of 240 rows × 240 columns of the camera No. 1) is a processing region 550 in the dispersion value acquisition process. It is set in advance.
[0136]
Similarly, camera no. 2-Camera No. Predetermined regions (for example, pixels of 240 rows × 240 columns) in the center of the four imaging regions 621 to 641 are preset as processing regions 550 in the variance value acquisition processing (not shown).
[0137]
As shown in FIG. 34, XY coordinates are assumed. The X-axis direction (horizontal direction) of this XY coordinate indicates the camera number. 1 corresponds to the row direction of the pixel No. 1 and the Y-axis direction (vertical direction) indicates the camera number. This corresponds to the column direction of one pixel.
[0138]
Similarly, camera no. 2-Camera No. 4 also assume XY coordinates (not shown).
[0139]
FIG. 35 is a diagram schematically showing a part of the processing area 550.
[0140]
As shown in the figure, a portion corresponding to the pixel of the liquid crystal light valve 25 in the processing region 550 is a pixel portion 551, and a portion corresponding to a portion other than the pixel of the liquid crystal light valve 25, that is, other than the pixel portion 551. The portion is a gap portion 552. The luminance of the pixel portion 551 is higher than the luminance of the gap portion 552.
[0141]
Of the gap portion 552, a portion corresponding to a portion between the pixels of the liquid crystal light valve 25 arranged in the Y-axis direction, that is, a portion between the pixel portions 551 arranged in the Y-axis direction is defined as a gap in the Y-axis direction. Part 553.
[0142]
Further, a portion of the gap portion 552 corresponding to a portion between the pixels of the liquid crystal light valve 25 arranged in the X-axis direction, that is, a portion between the pixel portions 551 arranged in the X-axis direction is defined as the X-axis. The direction gap portion 554 is used.
[0143]
Further, a portion of the gap portion 552 between the adjacent Y-axis direction gap portions 553 and also between the adjacent X-axis direction gap portions 554 is defined as a common gap portion 555.
[0144]
A portion composed of the pixel portions 551 arranged in the X-axis direction and the X-axis direction gap portions 554 between the pixel portions 551 arranged in the X-axis direction is defined as A row and arranged in the X-axis direction. A portion constituted by the Y-axis direction gap portion 553 and the common gap portion 555 between the Y-axis direction gap portions 553 arranged in the X-axis direction is defined as a B row.
[0145]
Further, a portion composed of the pixel portion 551 arranged in the Y-axis direction and the Y-axis direction gap portion 553 between the pixel portions 551 arranged in the Y-axis direction is defined as a C column, and is arranged in the Y-axis direction. A portion formed by the X-axis direction gap portion 554 and the common gap portion 555 between the X-axis direction gap portions 554 arranged in the Y-axis direction is defined as a D row.
[0146]
Here, in the present invention, when a predetermined pixel of the liquid crystal light valve 25 is turned off (a light beam is blocked) and an image of the pixel portion is not projected, the processing region 550 corresponds to the non-projected pixel. The portion is a portion corresponding to a portion other than the pixel of the liquid crystal light valve 25 (a portion other than the pixel portion 551), that is, a gap portion 552. In other words, in the present invention, the portion of the processing area 550 corresponding to the pixel of the liquid crystal light valve 25 (pixel portion 551) means the portion of the projected image of the pixel of the liquid crystal light valve 25.
[0147]
In this distributed value acquisition process, first, camera No. 1, the camera No. 1 in the processing area 550 is captured. The luminance in each pixel of 1 is integrated in the Y-axis direction (vertical direction), and the integrated value of the luminance in the Y-axis direction (vertical direction) is obtained (step S201). This integrated value is the camera No. in the processing area 550. As many pixels as 1 in the X-axis direction (lateral direction) are obtained.
[0148]
36 and 37 are diagrams showing a part of the processing area 550 and a graph of the integrated value of luminance in the Y-axis direction corresponding to the part. It should be noted that the vertical axis of the graph is the integrated value of luminance in the Y-axis direction, and the horizontal axis is the camera number corresponding to the integrated value. The position of one pixel column in the X-axis direction is taken.
[0149]
As shown in FIG. 36, the integrated value of luminance in the Y-axis direction is large in the C column including the pixel portion 551, and is small in the D column not including the pixel portion 551.
[0150]
Next, camera no. Of the columns of one pixel, 30 columns (30 columns) are selected from the one with the larger integrated value of luminance in the Y-axis direction (step S202).
[0151]
In this case, the camera No. Since one pixel column is selected from the larger integrated value, all the selected columns 560 belong to the C column as shown in FIG.
[0152]
In the present invention, the number of the selected columns 560 is not limited to 30 lines. That is, the camera No. belonging to the C column. 1 may be selected, or camera numbers belonging to column C may be selected. A part of one pixel column may be selected.
[0153]
Next, the pixel luminance variance (σ) for the selected 30-line column 560. 2 ) Is obtained (step S203).
[0154]
In this step S203, the brightness value and the camera No. The number of pixels of 1 is detected, and based on these, the variance value is obtained.
[0155]
The magnitude of the dispersion value corresponds to the magnitude of the contrast between light and darkness (image sharpness) in the pixel portion 551 arranged in the Y-axis direction and the Y-axis direction gap portion 553. That is, the variance value is information for detecting the contrast between the A row and the B row. As will be described later, when the variance value is the maximum, the contrast between the pixel portions 551 arranged in the Y-axis direction and the Y-axis direction gap portion 553, that is, the contrast between the A row and the B row is maximized.
[0156]
Next, the dispersion value obtained in step S203 is set to the camera number. 1 is stored in the memory 4 as a dispersion value (dispersion value of the X-axis direction component) Vh having an X-axis direction component (lateral direction component) of the image taken in 1, and this dispersion value Vh and a dispersion value Vv described later are also stored. Correspondingly, the position (Z coordinate) in the Z-axis direction of the liquid crystal light valve 25 at this time is stored in the memory 4 (step S204).
[0157]
Next, camera no. 1, the camera No. 1 in the processing area 550 is captured. The luminance in each pixel of 1 is integrated in the X-axis direction (horizontal direction), and an integrated value of the luminance in the X-axis direction (horizontal direction) is obtained (step S205). This integrated value is the camera No. in the processing area 550. As many pixels as 1 in the Y-axis direction (vertical direction) are obtained.
[0158]
38 and 39 are diagrams showing a part of the processing region 550 and a graph of the integrated value of the luminance in the X-axis direction corresponding to the part. It should be noted that the horizontal axis of the graph is the integrated value of luminance in the X-axis direction, and the vertical axis is the camera No. corresponding to the integrated value. The position of one pixel row in the Y-axis direction is taken.
[0159]
As shown in FIG. 38, the integrated value of the luminance in the X-axis direction is large in the A row including the pixel portion 551, and is small in the B row not including the pixel portion 551.
[0160]
Next, camera no. Among the rows of one pixel, 30 rows (30 rows) are selected from the one with the larger integrated value of the luminance in the X-axis direction (step S206).
[0161]
In this case, the camera No. Since the row of one pixel is selected from the larger integrated value, as shown in FIG. 39, all the selected rows 570 belong to the A row.
[0162]
In the present invention, the number of the selected rows 570 is not limited to 30 lines. That is, the camera No. belonging to the A row. 1 may be selected, or camera numbers belonging to the A row may be selected. A part of the row of one pixel may be selected.
[0163]
Next, the variance value of the luminance of the pixel for the selected 30-line row 570 is obtained (step S207).
[0164]
In this step S207, the brightness value and the camera No. The number of pixels of 1 is detected, and based on these, the variance value is obtained.
[0165]
The magnitude of the dispersion value corresponds to the magnitude of the contrast of light and darkness (image sharpness) in the pixel portion 551 arranged in the X-axis direction and the gap portion 554 in the X-axis direction. That is, the variance value is information for detecting the contrast between the C column and the D column. As will be described later, when the variance value is maximum, the contrast between the pixel portions 551 arranged in the X-axis direction and the gap portion 554 in the X-axis direction, that is, the contrast between the C column and the D column is maximum.
[0166]
Next, the variance value obtained in step S207 is used as the camera number. 1 is stored in the memory 4 as a dispersion value (dispersion value of the Y-axis direction component) Vv having the Y-axis direction component (vertical direction component) of the image captured in 1 (step S208).
[0167]
Next, the camera No. As in the case of the image picked up in Step 1, the camera No. 2, the camera No. in the processing area 550 The luminance in each pixel of 2 is integrated in the Y-axis direction (vertical direction), and an integrated value of the luminance in the Y-axis direction (vertical direction) is obtained (step S209).
[0168]
Next, as described above, the camera No. Among the two pixel columns, 30 lines (30 columns) are selected from the one with the larger integrated value of luminance in the Y-axis direction (step S210).
[0169]
Next, in the same manner as described above, the variance value of the luminance of the pixel for the selected 30-line column 560 is obtained (step S211).
[0170]
Next, in the same manner as described above, the dispersion value obtained in step S211 is used as the camera number. 2 is stored in the memory 4 as a dispersion value (dispersion value of the X-axis direction component) Vh having an X-axis direction component (lateral direction component) of the image picked up in 2, and this dispersion value Vh and a dispersion value Vv described later Correspondingly, the position in the Z-axis direction (Z coordinate) of the liquid crystal light valve 25 at this time is stored in the memory 4 (step S212).
[0171]
Next, as described above, the camera No. 2, the camera No. in the processing area 550 2 is integrated in the X-axis direction (lateral direction) to obtain an integrated value of luminance in the X-axis direction (horizontal direction) (step S213).
[0172]
Next, as described above, the camera No. Of the two pixel rows, 30 rows (30 rows) are selected from the row with the larger integrated value of luminance in the X-axis direction (step S214).
[0173]
Next, in the same manner as described above, the variance value of the luminance of the pixel for the selected 30-line row 570 is obtained (step S215).
[0174]
Next, in the same manner as described above, the dispersion value obtained in the step S215 is used as the camera number. 2 is stored in the memory 4 as a dispersion value (dispersion value of the Y-axis direction component) Vv having the Y-axis direction component (vertical direction component) of the image captured in 2 (step S216).
[0175]
Next, the camera No. As in the case of the image picked up in Step 1, the camera No. For the image captured in step 3, the camera No. 3 is integrated in the Y-axis direction (vertical direction), and an integrated value of luminance in the Y-axis direction (vertical direction) is obtained (step S217).
[0176]
Next, as described above, the camera No. Of the three pixel columns, 30 lines (30 columns) are selected from the one with the larger integrated value of luminance in the Y-axis direction (step S218).
[0177]
Next, in the same manner as described above, the variance value of the luminance of the pixel for the selected 30-line column 560 is obtained (step S219).
[0178]
Next, in the same manner as described above, the dispersion value obtained in step S219 is used as the camera number. 3 is stored in the memory 4 as a dispersion value (dispersion value of the X-axis direction component) Vh having an X-axis direction component (lateral direction component) of the image taken in 3, and this dispersion value Vh and a dispersion value Vv to be described later Correspondingly, the position (Z coordinate) in the Z-axis direction of the liquid crystal light valve 25 at this time is stored in the memory 4 (step S220).
[0179]
Next, as described above, the camera No. For the image captured in step 3, the camera No. 3 is integrated in the X-axis direction (horizontal direction), and an integrated value of luminance in the X-axis direction (horizontal direction) is obtained (step S221).
[0180]
Next, as described above, the camera No. Among the three pixel rows, 30 rows (30 rows) are selected from the one with the larger integrated value of the luminance in the X-axis direction (step S222).
[0181]
Next, in the same manner as described above, the variance value of the luminance of the pixel for the selected 30-line row 570 is obtained (step S223).
[0182]
Next, in the same manner as described above, the dispersion value obtained in step S223 is used as the camera number. 3 is stored in the memory 4 as a dispersion value (dispersion value of the Y-axis direction component) Vv having the Y-axis direction component (vertical direction component) of the image captured in 3 (step S224).
[0183]
Next, the camera No. As in the case of the image picked up in Step 1, the camera No. 4, the camera No. in the processing area 550 The luminance in each pixel of 4 is integrated in the Y-axis direction (vertical direction), and the integrated value of the luminance in the Y-axis direction (vertical direction) is obtained (step S225).
[0184]
Next, as described above, the camera No. Of the four pixel columns, 30 lines (30 columns) are selected from the one with the larger integrated value of luminance in the Y-axis direction (step S226).
[0185]
Next, in the same manner as described above, the variance value of the luminance of the pixel for the selected column 560 of 30 lines is obtained (step S227).
[0186]
Next, in the same manner as described above, the variance value obtained in step S227 is used as the camera number. 4 is stored in the memory 4 as a dispersion value (dispersion value of the X-axis direction component) Vh having an X-axis direction component (lateral direction component) of the image captured in 4, and this dispersion value Vh and a dispersion value Vv described later Correspondingly, the position in the Z-axis direction (Z coordinate) of the liquid crystal light valve 25 at this time is stored in the memory 4 (step S228).
[0187]
Next, as described above, the camera No. 4, the camera No. in the processing area 550 The luminance in each pixel of 4 is integrated in the X-axis direction (horizontal direction), and the integrated value of the luminance in the X-axis direction (horizontal direction) is obtained (step S229).
[0188]
Next, as described above, the camera No. Of the four pixel rows, 30 rows (30 rows) are selected from the one with the larger integrated value of luminance in the X-axis direction (step S230).
[0189]
Next, in the same manner as described above, the variance value of the luminance of the pixel for the selected 30-line row 570 is obtained (step S231).
[0190]
Next, in the same manner as described above, the dispersion value obtained in the step S231 is used as the camera number. 4 is stored in the memory 4 as a dispersion value (dispersion value of the Y-axis direction component) Vv having the Y-axis direction component (vertical direction component) of the image captured in 4 (step S232).
[0191]
After step S232, the routine returns to the routine shown in FIG. 7, and as shown in FIG. 40, the liquid crystal light valve 25 is moved in the Z-axis direction by a certain amount (a certain distance) (for example, 50 μm) as shown in FIG. Step S107).
[0192]
As described above, since the image data acquisition start position in the coarse adjustment is set to a predetermined position farther from the dichroic prism 21 than the position where the focus is expected, in this step S107, the liquid crystal light valve 25 is set to the dichroic. It moves in the direction approaching the prism 21 (left side in FIG. 40).
[0193]
Further, since step S107 is the movement control of the liquid crystal light valve 25 for acquiring image data in the coarse adjustment, the moving amount (movement distance) is the liquid crystal for acquiring image data in the fine adjustment of step 117 described later. The amount of movement of the liquid crystal light valve 25 in the movement control of the light valve 25 is set to be larger.
[0194]
When the movement amount of the liquid crystal light valve 25 in step S107 is L1, and the movement amount of the liquid crystal light valve 25 in step S117 described later is L2, the ratio L1 / L2 is preferably about 2 to 10. About ~ 7 is more preferable.
[0195]
Further, the moving amount L1 of the liquid crystal light valve 25 in step S107 is preferably about 20 to 240 μm, and more preferably about 30 to 100 μm.
[0196]
Further, the moving amount L2 of the liquid crystal light valve 25 in step S117 described later is preferably about 3 to 30 μm, and more preferably about 5 to 20 μm.
[0197]
By setting the movement amounts L1 and L2 of the liquid crystal light valve 25 as described above, it is possible to improve the accuracy of focus adjustment while reducing the time required for focus adjustment.
[0198]
Next, it is determined whether or not the liquid crystal light valve 25 has reached the image data acquisition end position in the coarse adjustment (step S108).
[0199]
The image data acquisition end position is set in advance to a predetermined position (a position where the focus is not achieved) sufficiently separated from a position where the focus is expected to be achieved in a direction approaching the dichroic prism 21.
[0200]
If it is determined in step S108 that the liquid crystal light valve 25 has not reached the image data acquisition end position, the process returns to step S103, and steps S103 to S108 are executed again. As a result, the liquid crystal light valve 25 is moved L1 in the Z-axis direction from the previous position, and the camera No. 1 to camera no. For each of the images captured in step 4, the Y-axis direction component variance value Vv and the X-axis direction component variance value Vh can be acquired.
[0201]
If it is determined in step S108 that the liquid crystal light valve 25 has reached the image data acquisition end position, the focus in the Z-axis direction in the coarse adjustment is based on the dispersion value obtained in step S10a in the coarse adjustment. A position (Z coordinate) ZP, a movement amount (angle) Hd in the H direction, and a movement amount (angle) Vd in the V direction are obtained (step S109).
[0202]
In this step S109, the camera No. For the image captured in 1 (electronic image), the maximum value of the variance value Vv of the Y-axis direction component (longitudinal component) and the maximum value of the variance value Vh of the X-axis direction component (lateral component) are respectively obtained. From these, the position (Z coordinate) Z1v in the Z-axis direction of the liquid crystal light valve 25 when the image having the maximum variance value Vv of the Y-axis direction component is captured, and the image having the maximum variance value Vh of the X-axis direction component. The position (Z coordinate) Z1h in the Z-axis direction of the liquid crystal light valve 25 when the image is taken is detected.
[0203]
FIG. 2 is a graph showing the relationship between dispersion values Vh and Vv for the image captured in 1 and the position of the liquid crystal light valve 25 in the Z-axis direction when the dispersion values Vh and Vv are acquired. The vertical axis of the graph represents the dispersion values Vh and Vv, and the horizontal axis represents the position of the liquid crystal light valve 25 in the Z-axis direction.
[0204]
FIG. 42 is a diagram schematically showing an image (focus state: contrast) in the processing region 550 when the position of the liquid crystal light valve 25 in the Z-axis direction is changed.
[0205]
42, the position of the liquid crystal light valve 25 in the Z-axis direction is farthest from the dichroic prism 21 when the state of the image in the processing area 550 is (a). Hereinafter, (b), (c), ( It approaches the dichroic prism 21 in the order of d), (e), (f), and (g).
[0206]
The state shown in FIG. 42 (d) shows the target state of the image in the imaging area 611 in this focus adjustment, that is, the focused state (focused state). And B row contrast (contrast in the pixel portion 551 and Y-axis direction gap portion 553 arranged in the Y-axis direction), and C column and D-column contrast (pixel portion 551 arranged in the X-axis direction and X-axis direction) The contrast in the gap portion 554 is relatively high, and the balance is also good.
[0207]
As shown in FIG. 41, when the variance value Vh of the X-axis direction component is maximum, that is, when the liquid crystal light valve 25 is positioned at Z1h, the image in the processing area 550 is shown in FIG. The state, that is, the contrast between the A row and the B row (the contrast in the pixel portion 551 arranged in the Y-axis direction and the Y-axis direction gap portion 553) is the maximum state (first state).
[0208]
On the other hand, as shown in FIG. 41, when the variance value Vv of the Y-axis direction component is maximum, that is, when the liquid crystal light valve 25 is positioned at Z1v, the image in the processing area 550 is shown in FIG. ) State, that is, the contrast between the C column and the D column (contrast in the pixel portion 551 and the X-axis direction gap portion 554 arranged in the X-axis direction) is the maximum state (second state).
[0209]
The target state shown in FIG. 42 (d) is a predetermined state between the first state shown in FIG. 42 (c) and the second state shown in FIG. 42 (e). The state d) is obtained when the liquid crystal light valve 25 is located at a predetermined position (Z coordinate) between the position Z1v and the position Z1h.
[0210]
Accordingly, a predetermined position (Z coordinate) between the position Z1v and the position Z1h (for example, an intermediate position between Z1v and Z1h) is defined as Z1.
[0211]
In the present embodiment, for example, Z1v and Z1h are substituted into the following formula to obtain Z1.
[0212]
Z1 = a.Z1v + (1-a) .Z1h (where 0 <a <1)
The coefficient a in the above equation is set so that the image in the imaging area 611 projected on the screen 2 is in focus when the liquid crystal light valve 25 is positioned at Z1 obtained by the equation (the in-focus state is That is, the state of the image in the processing area 550 is set in advance so as to be the target state shown in FIG. The coefficient a is obtained experimentally prior to the setting, for example.
[0213]
Here, the camera No. in the processing area 550 is displayed. The image in the processing area 550 when the luminance dispersion value for all the pixels of 1 is maximized does not necessarily become the state shown in FIG. 42D due to, for example, the influence of lens aberration. Therefore, the camera No. in the processing area 550 If the position of the liquid crystal light valve 25 in the Z-axis direction when the luminance dispersion value for all the pixels of 1 is maximized is adjusted as described above as Z1, the focus adjustment is performed particularly when the lens aberration is large. Accuracy may be reduced.
[0214]
On the other hand, the position Z1h in the Z-axis direction of the liquid crystal light valve 25 when the dispersion value Vh of the X-axis direction component is maximum and the dispersion value Vv of the Y-axis direction component are maximum regardless of the magnitude of the lens aberration. When the liquid crystal light valve 25 is positioned at a predetermined position between the liquid crystal light valve 25 and the position Z1v in the Z-axis direction, the image in the processing area 550 has the focus shown in FIG. It will be in a consistent state.
[0215]
Therefore, as described above, the position Z1h in the Z-axis direction of the liquid crystal light valve 25 when the dispersion value Vh of the X-axis direction component is maximum, and the liquid crystal light valve 25 when the dispersion value Vv of the Y-axis direction component is maximum. The predetermined position between the Z-axis direction positions Z1v is Z1, and the adjustment described later is performed based on this Z1, so that the accuracy of focus adjustment can be increased.
[0216]
Similarly to the above, the camera No. 2, the maximum value of the variance value Vv of the Y-axis direction component (longitudinal component) and the maximum value of the variance value Vh of the X-axis direction component (lateral component) are respectively obtained for the image captured in 2 (electronic image). From these, the position (Z coordinate) Z2v in the Z-axis direction of the liquid crystal light valve 25 when the image having the maximum variance value Vv of the Y-axis direction component is captured, and the image having the maximum variance value Vh of the X-axis direction component. A position (Z coordinate) Z2h in the Z-axis direction of the liquid crystal light valve 25 at the time of imaging is detected, and a predetermined position (Z coordinate) between the position Z2v and position Z2h (for example, an intermediate position between Z2v and Z2h) ) Is Z2. In this embodiment, for example, Z2v and Z2h are substituted into the following formula to obtain Z2.
[0217]
Z2 = a.Z2v + (1-a) .Z2h (where 0 <a <1)
The coefficient a in the above formula is set in advance as described above.
[0218]
Similarly to the above, the camera No. 3, the maximum value of the variance value Vv of the Y-axis direction component (longitudinal component) and the maximum value of the variance value Vh of the X-axis direction component (lateral component) are respectively obtained for the image captured in 3 (electronic image). From these, the position (Z coordinate) Z3v in the Z-axis direction of the liquid crystal light valve 25 when the image having the maximum variance value Vv of the Y-axis direction component is captured, and the image having the maximum variance value Vh of the X-axis direction component. A position (Z coordinate) Z3h in the Z-axis direction of the liquid crystal light valve 25 at the time of imaging is detected, and a predetermined position (Z coordinate) between the position Z3v and the position Z3h (for example, an intermediate position between Z3v and Z3h) Is Z3. In this embodiment, for example, Z3v and Z3h are substituted into the following equation to obtain Z3.
[0219]
Z3 = a.Z3v + (1-a) .Z3h (where 0 <a <1)
The coefficient a in the above formula is set in advance as described above.
[0220]
Similarly to the above, the camera No. 4, the maximum value of the variance value Vv of the Y-axis direction component (longitudinal component) and the maximum value of the variance value Vh of the X-axis direction component (lateral component) are respectively obtained for the image captured in 4 (electronic image). From these, the position (Z coordinate) Z4v in the Z-axis direction of the liquid crystal light valve 25 when the image having the maximum variance value Vv of the Y-axis direction component is captured, and the image having the maximum variance value Vh of the X-axis direction component. A position (Z coordinate) Z4h in the Z-axis direction of the liquid crystal light valve 25 at the time of imaging is detected, and a predetermined position (Z coordinate) between the position Z4v and the position Z4h (for example, between Z4v and Z4h) ) Is Z4. In this embodiment, for example, Z4v and Z4h are substituted into the following equation to obtain Z4.
[0221]
Z4 = a.Z4v + (1-a) .Z4h (where 0 <a <1)
The coefficient a in the above formula is set in advance as described above.
[0222]
The focus position (Z coordinate) ZP of the liquid crystal light valve 25 in the Z-axis direction is obtained by substituting Z1, Z2, Z3 and Z4 into the following equation (1).
[0223]
[Expression 1]
Figure 0004096437
[0224]
Here, camera no. The X coordinate when the center (center point) of one imaging area 611 is projected onto the liquid crystal light valve 25 with focus adjustment through the optical block 20 is the X1, Y coordinate in the above equation (1). Y1 in the formula.
[0225]
Similarly, camera no. When the center of the image pickup area 621 is projected onto the liquid crystal light valve 25 whose focus has been adjusted via the optical block 20, the X coordinate is X2 in the above equation (1), and the Y coordinate is Y2 in the above equation (1). And
[0226]
Similarly, camera no. 3 when the center of the image pickup area 631 is projected onto the liquid crystal light valve 25 whose focus has been adjusted via the optical block 20 is X3 in the equation (1), and Y3 is Y3 in the equation (1). And
[0227]
Similarly, camera no. The X coordinate when the center of the four imaging regions 641 is projected onto the liquid crystal light valve 25 whose focus is adjusted via the optical block 20 is X4 in the above equation (1), and the Y coordinate is Y4 in the above equation (1). And
[0228]
Note that X1, Y1, X2, Y2, X3, Y3, X4, and Y4 are determined at the corresponding camera positions.
[0229]
The movement amount (angle) Hd of the liquid crystal light valve 25 in the H direction is obtained by substituting the X1, X2, X3 and X4 and the Z1, Z2, Z3 and Z4 into the following equation (2). In addition, the direction of the arrow (H) in FIG. 5 is a positive direction.
[0230]
[Expression 2]
Figure 0004096437
[0231]
Further, by substituting Hd, Y1, Y2, Y3 and Y4, and Z1, Z2, Z3 and Z4 into the following equation (3), the movement amount (angle) Vd of the liquid crystal light valve 25 in the V direction Ask for. In addition, the direction of the arrow (V) in FIG. 5 is a positive direction.
[0232]
[Equation 3]
Figure 0004096437
[0233]
Next, the liquid crystal light valve 25 is rotated by the angle Hd obtained in step S109 in the H direction and by the angle Vd in the V direction by the triaxial table 8 (step S110).
[0234]
Here, when the liquid crystal light valve 25 is moved along the Z axis to the focus position ZP obtained in step S109 by the three-axis table 8, the processing area 550 of the four imaging areas 611 to 641 is included. Each of the image states approaches the target state shown in FIG. 42D (including the case where it matches the target state), that is, the four corners are roughly focused, but this operation is omitted ( The adjustment of the liquid crystal light valve 25 in the Z-axis direction may be performed only in the fine adjustment described later). Needless to say, this operation may be performed in the coarse adjustment.
[0235]
In step S110, the liquid crystal light valve 25 is moved by a predetermined amount in the X-axis direction and the Y-axis direction by the three-axis table 9 as necessary.
[0236]
In this step S110, the rough adjustment is completed.
[0237]
Next, a Z-axis direction moving range of the liquid crystal light valve 25 for obtaining image data in fine adjustment is set (step S111).
[0238]
In step S111, a position separated from the focus position ZP obtained in step S109 by a predetermined amount (predetermined distance) in a direction away from the dichroic prism 21 is an image data acquisition start position (Z A position that is separated from the focus position ZP by a predetermined amount (predetermined distance) in the direction approaching the dichroic prism 21 is set as an image data acquisition end position in fine adjustment in step S118 described later. .
[0239]
Each of the predetermined amounts is set in advance to, for example, a value that is ½ of the distance L3 in the Z-axis direction shown in FIG. 41 or a value that is larger than ½ of the distance L3. This predetermined amount is obtained experimentally, for example.
[0240]
The image data acquisition start position may be set so that the liquid crystal light valve 25 is not focused when the liquid crystal light valve 25 is positioned at the image data acquisition start position. Is located out of focus, and there is a difference between the luminance of the portion corresponding to the pixels of the liquid crystal light valve 25 in the imaging regions 611 to 641 and the luminance of the portion corresponding to the portion between the pixels. It is preferable to set so that
[0241]
The image data acquisition end position may be set so that the liquid crystal light valve 25 is not focused when the liquid crystal light valve 25 is positioned at the image data acquisition end position. Is located out of focus, and there is a difference between the luminance of the portion corresponding to the pixels of the liquid crystal light valve 25 in the imaging regions 611 to 641 and the luminance of the portion corresponding to the portion between the pixels. It is preferable to set so that
[0242]
Next, the liquid crystal light valve 25 is moved along the Z axis to the image data acquisition start position (Z axis direction setting position) in the fine adjustment by the triaxial table 8 (step S112).
[0243]
Next, camera no. 1 and the image data of the imaging area 611 is stored in the memory 4 (step S113).
[0244]
Next, camera no. 2 and the image data of the imaging area 621 is stored in the memory 4 (step S114).
[0245]
Next, camera no. 3 and the image data of the imaging area 631 is stored in the memory 4 (step S115).
[0246]
Next, camera no. 4 and the image data of the imaging area 641 is stored in the memory 4 (step S116).
[0247]
Next, as described above, the dispersion value acquisition process (the subroutine shown in FIGS. 8 and 9) is executed (step S10a). 1 to camera no. For each image (electronic image) captured in step 4, a variance value Vv of the Y-axis direction component (vertical component) and a variance value Vh of the X-axis direction component (lateral component) are acquired.
[0248]
Next, as shown in FIG. 40, the liquid crystal light valve 25 is moved in the Z-axis direction by a certain amount (for example, 10 μm) by the triaxial table 8 (step S117).
[0249]
As described above, the image data acquisition start position in the fine adjustment is set to a predetermined position farther from the dichroic prism 21 than the focus position ZP obtained in step S109. Therefore, in this step S117, the liquid crystal light valve 25 is set. Is moved in a direction approaching the dichroic prism 21 (left side in FIG. 40).
[0250]
Next, it is determined whether or not the liquid crystal light valve 25 has reached the image data acquisition end position in the fine adjustment (step S118).
[0251]
If it is determined in step S118 that the liquid crystal light valve 25 has not reached the image data acquisition end position, the process returns to step S113, and steps S113 to S118 are executed again. As a result, the liquid crystal light valve 25 is moved L1 in the Z-axis direction from the previous position, and the camera No. 1 to camera no. For each of the images captured in step 4, the Y-axis direction component variance value Vv and the X-axis direction component variance value Vh can be acquired.
[0252]
If it is determined in step S118 that the liquid crystal light valve 25 has reached the image data acquisition end position, the dispersion value acquired in step S10a in fine adjustment is set in the same manner as in the case of the coarse adjustment described above. Based on this, a focus position (focusing position) ZP in the Z-axis direction, a movement amount (angle) Hd in the H direction, and a movement amount (angle) Vd in the V direction in fine adjustment are obtained (step S119).
[0253]
Next, the liquid crystal light valve 25 is moved along the Z axis to the focus position ZP obtained in step S119 by the triaxial table 8, and rotated by the angle Hd in the H direction, and rotated by the angle Vd in the V direction. (Step S120).
[0254]
Thereby, in the case where the liquid crystal light valve 25 is moved along the Z axis to the focus position ZP obtained in step S109 in step S110, the image in the processing area 550 of the four imaging areas 611 to 641 is changed. Each state further approaches the target state shown in FIG. 42D (including the case where it matches the target state). That is, the four corners are substantially focused.
[0255]
In step S120, the liquid crystal light valve 25 is moved by a predetermined amount in the X-axis direction and the Y-axis direction by the triaxial table 9 as necessary.
[0256]
In step S120, the fine adjustment is finished, that is, the focus adjustment is finished.
[0257]
In the present invention, coarse adjustment and fine adjustment in focus adjustment may be performed by a method different from the method described above. As a method different from the method described above, for example, a method of performing focus adjustment by obtaining a dispersion value of the entire image, a method of performing focus adjustment by measuring contrast, and the like can be cited.
[0258]
However, one of the coarse adjustment and the fine adjustment in the focus adjustment, in particular, the fine adjustment is preferably performed by the method described above, and both the rough adjustment and the fine adjustment in the focus adjustment are more preferably performed by the method described above.
[0259]
In the embodiment, the number of adjustments in focus adjustment is set to two (rough adjustment and fine adjustment). However, in the present invention, the number of adjustments in focus adjustment is not limited to two, but one time. Or three or more times.
[0260]
However, the number of adjustments in the focus adjustment is preferably 2 times or more, and more preferably about 2 to 4 times.
[0261]
In the focus adjustment, if the adjustment is performed twice or more, the accuracy of the focus adjustment can be improved.
[0262]
Further, when the number of adjustments in the focus adjustment is two or more, the later adjustment, the interval of the position of the liquid crystal light valve 25 in the Z-axis direction at the time of imaging ( It is preferable to reduce the amount of movement when moving to the position at the time of imaging.
[0263]
Thereby, it is possible to improve the accuracy of the focus adjustment while shortening the time required for the focus adjustment.
[0264]
In the present invention, the moving direction of the liquid crystal light valve 25 when acquiring image data may be a direction away from the dichroic prism 21 (right side in FIG. 40). That is, the image data acquisition start position and the image data acquisition end position may be reversed from those in the above embodiment.
[0265]
In the present invention, the movement direction of the liquid crystal light valve 25 when acquiring image data may be different between the coarse adjustment and the fine adjustment.
[0266]
In the embodiment, when selecting the row 570 belonging to the A row and the column 560 belonging to the C column, a predetermined number of lines are selected from the larger integrated value. For example, a predetermined threshold value may be set, and a row or a column that is equal to or higher than the threshold value may be selected.
[0267]
However, it is preferable to select a predetermined number of lines from the larger integrated value as in the above embodiment. In this case, in particular, even if there is illumination unevenness or image unevenness, focus adjustment can be performed with high accuracy.
[0268]
After the focus adjustment is completed, the operation (drive) of the liquid crystal light valve 25 is maintained, the predetermined pixel is turned on, and the above-described position adjustment projection image 141 shown in FIG. 44 is projected on the screen 2 (step S150). .
[0269]
That is, in step S150, as shown in FIG. 1, the light emitted from the illumination devices 71 to 74 and transmitted through the turned-on pixels among the pixels of the liquid crystal light valve 25 is projected onto the projection area 110 on the screen 2. .
[0270]
After step S150, the process proceeds to position adjustment (alignment adjustment). Hereinafter, the position adjustment (alignment adjustment) of the liquid crystal light valve 25 for green will be described as a representative.
[0271]
10 and 13 to 18 are flowcharts showing the control operation of the control means 3 of the positioning device 1 in position adjustment (alignment adjustment). Hereinafter, description will be given based on this flowchart.
[0272]
In the following description of the alignment adjustment, moving the projection area 110 means moving the projection area 110 by moving the liquid crystal light valve 25 in the X-axis direction and the Y-axis direction by the three-axis table 9. . Further, rotating the projection area 110 means that the projection area 110 is rotated by rotating the liquid crystal light valve 25 in the W direction (around the Z axis) with the three-axis table 9.
[0273]
In the following description of alignment adjustment, the horizontal direction in FIGS. 19 to 25 corresponds to the X-axis direction of the liquid crystal light valve 25, and the vertical direction in FIGS. 19 to 25 corresponds to the Y-axis direction of the liquid crystal light valve 25. is doing.
[0274]
Before performing the following position adjustment, four patterns A1, B1, C1 corresponding to the portions including the corners 111a, 111b, 111c, and 111d of the projection area 110 as shown in FIG. And image data (luminance data) of D1 are stored. Furthermore, as shown in FIG. 12, a pattern H1 corresponding to a portion including the side 113a in the Y-axis direction on the left side in FIG. 6 of the projection area 110 and the X-axis direction on the lower side of the projection area 110 in FIG. The image data of the pattern V1 corresponding to the part including the side 114a is stored.
[0275]
Positions 121, 122, 123, and 124 are set in advance in the patterns A1, B1, C1, and D1, respectively. These positions 121, 122, 123, and 124 correspond to the positions of the edges (vertices) 112a, 112b, 112c, and 112d of the projection region 110, respectively. Further, positions 129a and 129b are preset in the patterns H1 and V1, respectively. These positions 129a and 129b are positioned so as to overlap with the corresponding sides 113a and 114a of the projection region 110.
[0276]
In addition, without storing these patterns in the memory 4 in advance, an external storage device (not shown) connected to the positioning device 1 (for example, a floppy disk, a hard disk, a magneto-optical disk, etc.) connected to the positioning device 1 as necessary in the following position adjustment. ) To the memory 4 as appropriate.
[0277]
Prior to describing the following position adjustment, pattern matching (pattern matching method) performed as appropriate during the following position adjustment will be described first.
[0278]
In pattern matching, for example, camera No. There are specific patterns (search patterns) such as patterns A1, B1, C1, D1, H1, and V1 in the image data (data to be searched) captured by 1, 2, 3, 4 and loaded into the memory 4 Search whether or not to do.
[0279]
If such a search pattern does not exist, it is determined that such a search pattern does not exist in the searched data.
[0280]
On the other hand, when such a search pattern exists, it is determined that such a search pattern exists in the searched data. At this time, the coordinates (X coordinate, Y coordinate) of the position (for example, positions 121 to 124, 129a, 129b, etc.) when the predetermined area in the captured image (data to be searched) matches the search pattern are obtained. obtain. If this coordinate (position) is not required in the subsequent processing, such a coordinate need not be obtained.
[0281]
Here, in the pattern matching, “the search pattern exists” does not mean that the pattern that completely matches the search pattern exists in the searched data, but the degree of matching with the search pattern (recognition rate) Means that there is a pattern having a value equal to or greater than a certain value (threshold).
[0282]
This value (threshold value) varies depending on various conditions such as the environment where the positioning device 1 is placed, but is preferably set to 80% or more, more preferably 90% or more. . If the threshold value is set to the above value, pattern matching can be performed with higher accuracy.
[0283]
In addition, when outputting or returning a result indicating that the search pattern exists in the searched data, the degree of coincidence may be returned or output as necessary.
[0284]
As shown in FIG. 10, in the position adjustment (alignment adjustment), first, rough adjustment is performed (S300), and then fine adjustment (S350) is performed.
[0285]
First, the rough adjustment in step S300 will be described.
[0286]
In the coarse adjustment in step S300, the first process (process S30A), the second process (process S30B), the third process (process S30C), the fourth process (process S30D), and the fifth process The processing (processing S30E), the sixth processing (processing S30F), the seventh processing (processing S30G), and the eighth processing (processing S30H) are performed. Hereinafter, each process is demonstrated in detail for every step based on FIGS. 13-16 and 19-24.
[0287]
[Process S30A] The first process includes steps S301 to S303 and a pattern C introduction process (process S90a).
[0288]
By executing Steps S301 to S303, it is possible to detect whether or not the corner 111c of the projection area 110 exists within the imaging area (target area) 631. Further, when the corner 111c does not exist in the imaging region 631, the corner 111c can be introduced into the imaging region 631 by executing the pattern C introduction process (processing S90a).
[0289]
[Step S301] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0290]
[Step S302] Next, pattern matching is performed on the image data stored in the memory 4 in Step S301 using the pattern C1 as a search pattern.
[0291]
[Step S303] Next, as a result of pattern matching, when the pattern C1 exists in the image data stored in the memory 4 in Step S301, that is, as shown in FIG. If the part 111c exists, the second process (process S30B), that is, step S304 is performed, and if it does not exist, the pattern C introduction process (process S90a) is performed.
[0292]
Here, “the corner 111c does not exist in the imaging region 631” means that the result that the corner 111c does not exist is obtained by pattern matching. In the following description, the same can be said when the same determination as in this step is performed based on the result of pattern matching.
[0293]
[Processing S90a] The pattern C introduction process includes steps S901 to S910 as shown in FIG.
[0294]
By executing this pattern C introduction processing, the corner 111c can be placed in or close to the imaging region 631. Furthermore, by executing this process, the relative positional relationship between the projection area 110 and the imaging area 631 can be known.
[0295]
[Step S901] First, pattern matching is performed on the image data stored in the memory 4 in Step S301 using the pattern H1 as a search pattern.
[0296]
[Step S902] Next, as a result of pattern matching, when the pattern H1 is present in the image data stored in the memory 4 in Step S301, that is, as shown in FIG. When the side 113a of the area 110 in the Y-axis direction exists, step S903 is performed, and when it does not exist, step S904 is performed.
[0297]
[Step S903] Next, the projection area 110 is moved (displaced) upward in FIG. The amount of movement at this time is, for example, an amount corresponding to 1/3 of the length n of the imaging region 631 in the Y-axis direction.
[0298]
Accordingly, as shown in FIG. 19B2, the corner 111c of the projection area 110 enters the imaging area 631. Alternatively, for example, when the corner 111c of the projection area 110 is far from the imaging area 631, as in the case where the corner 111c exists at a position separated from the imaging area 631 by n / 3, the corner 111c of the projection area 110 is obtained. Approaches the imaging region 631.
[0299]
Then, it returns to step S301.
[0300]
In this step, the amount of movement of the projection region 110 can be set to an arbitrary value according to various conditions when adjusting the alignment. This can also be said when the same processing as this step is performed in the following steps (for example, step S906, step S909, step S910, etc.).
[0301]
[Step S904] Next, pattern matching is performed on the image data stored in the memory 4 in step S301 using the pattern V1 as a search pattern.
[0302]
[Step S905] Next, as a result of pattern matching, when the pattern V1 is present in the image data stored in the memory 4 in step S301, that is, as shown in FIG. 19 (A3), projection is performed within the imaging region 631. When the side 114a of the area 110 in the X-axis direction exists, step S906 is performed, and when it does not exist, step S907 is performed.
[0303]
[Step S906] Next, the projection area 110 is moved rightward in FIG. The amount of movement at this time is, for example, an amount corresponding to 1/3 of the length m of the imaging region 631 in the X-axis direction.
[0304]
Thereby, as shown in FIG. 19 (B3), the corner 111c of the projection area 110 enters the imaging area 631. Alternatively, for example, when the corner 111c of the projection area 110 is far from the imaging area 631, as in the case where the corner 111c exists at a position away from m / 3 from the imaging area 631, the corner 111c of the projection area 110 is obtained. Approaches the imaging region 631.
[0305]
Then, it returns to step S301.
[0306]
[Step S907] Next, for the image data stored in the memory 4 in Step S301, the brightness of the entire image data, that is, the brightness in the imaging region 631 is obtained.
[0307]
[Step S908] Next, as a result of obtaining the luminance, if the luminance is less than the threshold value (when the brightness in the imaging region 631 is less than the threshold value), that is, as shown in FIG. If none of the corner portion 111c and the sides 113a and 114a of the projection area 110 exists in 631, step S909 is executed. On the other hand, when the luminance is a certain value or more (when the brightness in the imaging region 631 is greater than or equal to the threshold value), that is, when the imaging region 631 is included in the projection region 110 as shown in FIG. Executes step S910.
[0308]
This threshold value is sufficiently higher than the luminance when none of the corners 111c and the sides 113a and 114a of the projection area 110 are present in the imaging area 631, and the imaging area 631 is included in the projection area 110. The brightness is set to be sufficiently lower than the brightness in the case where it is set.
[0309]
[Step S909] Next, the projection area 110 is moved in the lower left direction in FIG. At this time, the amount of movement in the downward direction in FIG. 20 is, for example, an amount corresponding to 1/3 of the length n in the Y-axis direction of the imaging region 631, and the amount of movement in the left direction in FIG. This is an amount corresponding to 1/3 of the length m of the imaging region 631 in the X-axis direction.
[0310]
Thereby, as shown in FIG. 20 (B4), the corner 111c of the projection area 110 enters the imaging area 631. Alternatively, when the corner 111 c of the projection area 110 is separated from the imaging area 631 by a distance corresponding to the movement amount, the corner 111 c of the projection area 110 approaches the imaging area 631.
[0311]
Then, it returns to step S301.
[0312]
[Step S910] Next, the projection area 110 is moved in the upper right direction in FIG. At this time, the movement amount in the upward direction in FIG. 20 is, for example, an amount corresponding to 1/3 of the length n in the Y-axis direction of the imaging region 631, and the movement amount in the right direction in FIG. This is an amount corresponding to 1/3 of the length m of the imaging region 631 in the X-axis direction.
[0313]
Thereby, as shown in FIG. 20 (B5), the corner 111c of the projection area 110 enters the imaging area 631. Alternatively, when the corner 111 c of the projection area 110 is separated from the imaging area 631 by a distance corresponding to the movement amount, the corner 111 c of the projection area 110 approaches the imaging area 631.
[0314]
Then, it returns to step S301.
[0315]
Even when the corner 111c cannot be placed in the imaging region 631 by one pattern C introduction process, as in the case where the corner 111c is greatly separated from the imaging region 631, the pattern C introduction processing is performed as 1 Since the corner 111c can be brought closer to the imaging region 631 each time the execution is performed, the corner 111c can be finally placed in the imaging region 631 by executing the pattern C introduction process a plurality of times.
[0316]
[Process S30B] The second process includes steps S304 and S305.
[0317]
By executing the second process, the corner 111c can be matched with the center 125c of the imaging region 631.
[0318]
[Step S304] First, the X-axis direction of the projection area 110 for moving the edge 112c of the projection area 110 to the center 125c of the imaging area 631 based on the position 123 obtained by the last pattern matching in step S302. And the amount of movement in the Y-axis direction is obtained.
[0319]
As described above, the coordinates of the obtained position 123 correspond to the coordinates of the edge 112c, that is, the coordinates of the position 123 represent the coordinates of the edge 112c. The amount of movement of the projection area 110 can be obtained from the coordinates with the center 125c.
[0320]
[Step S305] Next, the projection area 110 is moved based on the movement amounts of the projection area 110 in the X-axis direction and the Y-axis direction obtained in step S304.
[0321]
Accordingly, as shown in FIG. 19B1, the corner 111c of the projection area 110 matches the center 125c of the imaging area 631.
[0322]
In the third to fifth processes (processes S30C to S30E) described below, alignment is performed based on the imaging area 611 and the imaging area 631. That is, the alignment is performed by placing a weight on the Y-axis direction of the projection region 110, in other words, the Y-axis direction of the liquid crystal light valve 25.
[0323]
[Process S30C] The third process includes steps S306 to S310 and a pattern A introduction process (process S90b).
[0324]
By executing the first process and the second process, the corner 111c of the projection area 110 can be introduced into the imaging area 631, and the corner 111c can be matched with the center 125c of the imaging area 631. .
[0325]
However, even after performing such processing, as shown in FIG. 21A6, when the side 113a is largely inclined with respect to the line connecting the center 125c of the imaging region 631 and the center 125a of the imaging region 611. In some cases, the corner 111a is not within the imaging region 611.
[0326]
Even in such a case, the corner 111a can be introduced into the imaging region 611 by executing the third process.
[0327]
Prior to executing the following step S308, 0 is substituted in advance for the variable I necessary for calculating the amount of movement of the projection region 110 in step S921 described later.
[0328]
[Step S306] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0329]
[Step S307] Next, pattern matching is performed on the image data stored in the memory 4 in step S306 using the pattern C1 as a search pattern.
[0330]
[Step S308] Next, camera no. 1 (camera 61), and the image data of the imaging area 611 is stored in the memory 4.
[0331]
[Step S309] Next, pattern matching is performed on the image data stored in the memory 4 in Step S308 using the pattern A1 as a search pattern.
[0332]
[Step S310] Next, as a result of pattern matching, when the pattern A1 does not exist in the image data stored in the memory 4 in Step S308, that is, as shown in FIG. If the part 111a does not exist, the pattern A introduction process (process S90b) is executed. On the other hand, if the pattern A1 exists, the fourth process (process S30D), that is, step S311 is executed.
[0333]
[Process S90b] The pattern A introduction process includes steps S921 and S922.
[0334]
The corner 111a can be introduced into the imaging region 611 by executing this pattern A introduction process a predetermined number of times.
[0335]
[Step S921] First, the position (coordinates) of the destination edge 112c when moving the projection area 110 in the next step S922 is obtained. This can be obtained, for example, by the following equation. This expression gives the coordinates of the edge 112c corresponding to the value of I. As described above, n is the length of the imaging region 631 in the Y-axis direction, and m is the length of the imaging region 631 in the X-axis direction.
[0336]
X-axis position = IDOU_X1 + (I mod 3) * (m)
(Here, (I mod 3) means finding the remainder when I is divided by 3)
Position in the Y-axis direction = IDOU_Y1 + (I / 3) * (n / 2) (Note that the obtained movement amount is rounded down)
Here, the constants IDOU_X1 and IDOU_Y1 correspond to the coordinates of the movement destination of the edge 112c in the next step S922 when I = 0.
[0337]
These constants IDOU_X1 and IDOU_Y1 are preferably values such that the position of the edge 112c after movement when I = 0 is located at the upper left in FIG. 21 with respect to the center 125c of the imaging region 631. Thereby, the edge 112a can be efficiently introduced into the imaging region 611.
[0338]
[Step S922] Next, the projection area 110 is moved so that the edge 112c comes to the position of the movement destination of the edge 112c obtained in step S921.
[0339]
Thereby, as shown in FIGS. 21B61 to B64 and FIGS. 22B65 to B69, the edge 112a enters the imaging region 611 when I becomes a predetermined value.
[0340]
In FIG. 21, (B61) shows the position of the projection area 110 when I = 0, (B62) shows the position of the projection area 110 when I = 1, and (B63) shows the projection when I = 2. The position of the area 110, (B64) is the position of the projection area 110 when I = 3, (B65) in FIG. 22 is the position of the projection area 110 when I = 4, and (B66) is I = 5. (B67) is the position of the projection area 110 when I = 6, (B68) is the position of the projection area 110 when I = 7, and (B69) is I = The position of the projection area 110 at 8 is shown.
[0341]
In the example illustrated in FIGS. 21 and 22, the edge 112 a enters the imaging region 611 when I = 8.
[0342]
Thereafter, the process returns to step S308. At that time, 1 is added to I.
[0343]
Thus, the edge 112a can be placed in the imaging region 611 by executing the pattern A introduction process (process S90b) a predetermined number of times while changing the value of I.
[0344]
In step S921, the position in the X-axis direction and the position in the Y-axis direction of the edge 112c are obtained from the same variable I. However, variables corresponding to the X-axis and the Y-axis are prepared, respectively. The position in the axial direction and the position in the Y-axis direction may be obtained independently from these prepared variables.
[0345]
In step S921, the position in the X-axis direction and the position in the Y-axis direction of the edge 112c are obtained by calculation. However, the position or movement amount in the X-axis direction and the Y-axis direction corresponding to the value I is determined in advance. Alternatively, it may be prepared as a table, and the projection area 110 may be moved in step S922 based on the table.
[0346]
[Process S30D] The fourth process includes steps S311 and S312.
[0347]
By executing the fourth process, the straight line 126 (target line) connecting the center 125a of the imaging region 611 and the center 125c of the imaging region 631 and the side 113 can be made parallel. That is, the inclination of the side 113 can be eliminated.
[0348]
[Step S311] First, in the pattern A introduction process (process S90b), the coordinates (position) of the edge 112c obtained last in step S921 and the coordinates of the edge 112a obtained by the last pattern matching in step S309 are as follows. Based on the above, the inclination θ1 between the straight line 126 and the side 113a as shown in FIG.
[0349]
If the pattern A introduction process (process S90b) has never been performed, the position 123 obtained by the pattern matching in step S307 becomes the position of the edge 112c.
[0350]
[Step S312] Next, the projection area 110 is rotated based on θ1 obtained in Step S311.
[0351]
Thereby, as shown in FIG. 23 (B71), the straight line 126 and the side 113a can be made parallel.
[0352]
[Process S30E] The fifth process includes Steps S313 to S317.
[0353]
By executing the fifth process, the edges 112a and 112c approach the target position. In addition, the number of pixels in the projection area 110 that falls within the imaging area 611 and the number of pixels in the projection area 110 that fall within the imaging area 631 can be made substantially equal.
[0354]
[Step S313] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0355]
[Step S314] Next, pattern matching is performed on the image data stored in the memory 4 in step S313 using the pattern C1 as a search pattern.
[0356]
[Step S315] Next, the camera No. 1 (camera 61), and the image data of the imaging area 611 is stored in the memory 4.
[0357]
[Step S316] Next, pattern matching is performed on the image data stored in the memory 4 in Step S315 using the pattern A1 as a search pattern.
[0358]
[Step S317] Next, based on the positions of the edge 112a and the edge 112c obtained by the pattern matching in the steps S314 and S316, the straight line 126 and the side 113a are matched and y1 = y2. Next, the projection area 110 is moved.
[0359]
Note that y1 is the width between the upper side 612 of the imaging region 611 in FIG. 23 and the upper side 114b of the projection region 110 in FIG. 23, as shown in FIG. 23 (B72). Further, y2 is a width between the lower side 632 in FIG. 23 of the imaging region 631 and the lower side 114a of the projection region 110 in FIG.
[0360]
Thereby, as shown in FIG. 23 (B72), the edges 112a and 112c approach the target position. Further, the number of pixels of the projection area 110 that falls within the imaging area 611 and the number of pixels of the projection area 110 that fall within the imaging area 631 substantially coincide.
[0361]
The sixth to eighth processes described below are processes similar to the third to fifth processes.
[0362]
In the third to fifth processes, alignment is performed with reference to the imaging region 611 and the imaging region 631. In other words, alignment was performed with weight placed in the Y-axis direction (side 113a) of the projection region 110, in other words, in the Y-axis direction of the liquid crystal light valve 25. On the other hand, in the following sixth to eighth processes, alignment is performed based on the imaging region 631 and the imaging region 641. In other words, alignment is performed with weight placed in the X-axis direction (side 114a) of the projection region 110, in other words, in the X-axis direction of the liquid crystal light valve 25.
[0363]
[Process S30F] The sixth process includes steps S318 to S322 and a pattern D introduction process (process S90c).
[0364]
By executing the third to fifth processes, the corner 111a of the projection area 110 can be introduced into the imaging area 611, the side 113a can be parallel to the straight line 126, and the edge 112a 112c can be brought close to the target position.
[0365]
However, even after such processing is performed, as shown in FIG. 23A8, there is a very small possibility that the corner 111d is not within the imaging region 641.
[0366]
Even in such a case, the corner 111d can be introduced into the imaging region 641 by executing the sixth process.
[0367]
Prior to executing the following step S320, 0 is substituted in advance for the variable I necessary for calculating the amount of movement of the projection region 110 in step S931 described later.
[0368]
[Step S318] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0369]
[Step S319] Next, pattern matching is performed on the image data stored in the memory 4 in step S318 using the pattern C1 as a search pattern.
[0370]
[Step S320] Next, the camera No. 4 (camera 64), and the image data of the imaging area 641 is stored in the memory 4.
[0371]
[Step S321] Next, pattern matching is performed on the image data stored in the memory 4 in Step S320 using the pattern D1 as a search pattern.
[0372]
[Step S322] Next, as a result of pattern matching, if the pattern D1 does not exist in the image data stored in the memory 4 in Step S320, that is, as shown in FIG. If the part 111d does not exist, the pattern D introduction process (process S90c) is executed. On the other hand, if the pattern D1 exists, the seventh process (process S30G), that is, step S323 is executed.
[0373]
[Processing S90c] The pattern D introduction process includes steps S931 and S932.
[0374]
By executing the pattern D introduction process a predetermined number of times, the corner 111d can be introduced into the imaging region 641.
[0375]
[Step S931] First, the position (coordinates) of the destination edge 112c when moving the projection region 110 in the next step S932 is obtained. This can be obtained, for example, by the following equation. This expression gives the coordinates of the edge 112c corresponding to the value of I. As described above, n is the length of the imaging region 631 in the Y-axis direction, and m is the length of the imaging region 631 in the X-axis direction.
[0376]
X-axis position = IDOU_X2 + (I mod 3) * (m)
(Here, (I mod 3) means finding the remainder when I is divided by 3)
Position in the Y-axis direction = IDOU_Y2 + (I / 3) * (n / 3) (Note that the obtained moving amount is rounded down)
Here, the constants IDOU_X2 and IDOU_Y2 correspond to the coordinates of the movement destination of the edge 112c in the next step S932 when I = 0.
[0377]
These constants IDOU_X2 and IDOU_Y2 are preferably values such that the position of the edge 112c after movement when I = 0 is located at the upper left in FIG. 23 rather than the center 125c of the projection region 631. Thereby, the edge 112d can be efficiently introduced into the imaging region 641.
[0378]
[Step S932] Next, the projection area 110 is moved so that the edge 112c comes to the position of the movement destination of the edge 112c obtained in step S931. Note that the process of moving in the Y-axis direction can be omitted (it may be moved only in the X-axis direction).
[0379]
As a result, the edge 112d enters the imaging region 641 when I reaches a predetermined value.
[0380]
Thereafter, the process returns to step S320. At that time, 1 is added to I.
[0381]
As described above, by executing the pattern D introduction process (process S90c) a predetermined number of times while changing the value of I, the edge 112d can be placed in the imaging region 641.
[0382]
In step S931, the position in the X-axis direction and the position in the Y-axis direction of the edge 112c are obtained from the same variable I. However, variables corresponding to the X-axis and the Y-axis are prepared, respectively. The position in the axial direction and the position in the Y-axis direction may be obtained independently from these prepared variables.
[0383]
In step S931, the position of the edge 112c in the X-axis direction and the position in the Y-axis direction are obtained by calculation. Alternatively, it may be prepared as a table, and the projection area 110 may be moved in step 932 based on the table.
[0384]
[Process S30G] The seventh process includes steps S323 and S324.
[0385]
By executing the seventh process, the straight line 127 (target line) connecting the center 125c of the imaging region 631 and the center 125d of the imaging region 641 and the side 114a can be made parallel. That is, the inclination of the side 114a can be eliminated.
[0386]
[Step S323] First, in the pattern D introduction process (process S90c), the coordinates (position) of the edge 112c finally obtained in step S931 and the coordinates of the edge 112d obtained in the last pattern matching in step S321 are as follows. Based on the above, the inclination θ2 between the straight line 127 and the side 114a as shown in FIG.
[0387]
If the pattern D introduction process (process S90c) has never been performed, the position 123 obtained by the pattern matching in step S319 becomes the position of the edge 112c.
[0388]
[Step S324] Next, the projection area 110 is rotated based on θ2 obtained in step S323.
[0389]
Thereby, as shown in FIG. 24 (B91), the straight line 127 and the side 114a can be made parallel.
[0390]
[Process S30H] The eighth process includes steps S325 to S329.
[0390]
By executing the eighth process, the edges 112c and 112d approach the target position. In addition, the number of pixels in the projection area 110 that falls within the imaging area 631 and the number of pixels in the projection area 110 that fall within the imaging area 641 can be made substantially equal.
[0392]
[Step S325] First, camera no. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0393]
[Step S326] Next, pattern matching is performed on the image data stored in the memory 4 in Step S325 using the pattern C1 as a search pattern.
[0394]
[Step S327] Next, the camera No. 4 (camera 64), and the image data of the imaging area 641 is stored in the memory 4.
[0395]
[Step S328] Next, pattern matching is performed on the image data stored in the memory 4 in Step S327 using the pattern D1 as a search pattern.
[0396]
[Step S329] Next, based on the positions of the edge 112c and the edge 112d obtained by the pattern matching in the steps S314 and S316, the straight line 127 and the side 114a are matched and x1 = x2. Next, the projection area 110 is moved.
[0397]
Note that x1 is the width between the left side 633 in FIG. 24 of the imaging region 631 and the left side 113a in FIG. 24 of the projection region 110, as shown in FIG. 24 (B92). Further, x2 is the width between the right side 643 of the imaging region 641 in FIG. 24 and the right side 113b of the projection region 110 in FIG.
[0398]
Thereby, as shown in FIG. 24 (B92), the edges 112c and 112d approach the target position. Further, the number of pixels of the projection area 110 that falls within the imaging area 631 and the number of pixels of the projection area 110 that fall within the imaging area 641 substantially coincide.
[0399]
Thus, the rough adjustment is completed.
[0400]
Hereinafter, the first embodiment of the fine adjustment (position adjustment process) in step S350 will be described.
[0401]
By performing the fine adjustment in the following step S350, the alignment can be adjusted with very high accuracy. Furthermore, even when the projection region 110 is not completely rectangular as shown in FIG. 25 (A13), alignment adjustment can be performed accurately.
[0402]
Prior to explaining the fine adjustment in step S350, the four vertex position measurement process (process S90d) that is appropriately performed during the fine adjustment in step S350 will be described first.
[0403]
[Processing S90d] As shown in FIG. 18, the four-vertex position measurement processing includes steps S941 to S948.
[0404]
By executing the four-vertex position measurement process, the coordinates of the edge 112a, the edge 112b, the edge 112c, and the edge 112d can be obtained.
[0405]
[Step S941] First, camera no. 1 (camera 61), and the image data of the imaging area 611 is stored in the memory 4.
[0406]
[Step S942] Next, pattern matching is performed on the image data stored in the memory 4 in Step S941 using the pattern A1 as a search pattern.
[0407]
[Step S943] Next, camera no. 2 (camera 62), and the image data of the imaging area 621 is stored in the memory 4.
[0408]
[Step S944] Next, pattern matching is performed on the image data stored in the memory 4 in step S943 using the pattern B1 as a search pattern.
[0409]
[Step S945] Next, the camera No. 3 (camera 63), and the image data of the imaging region 631 is stored in the memory 4.
[0410]
[Step S946] Next, pattern matching is performed on the image data stored in the memory 4 in step S945 using the pattern C1 as a search pattern.
[0411]
[Step S947] Next, camera no. 4 (camera 64), and the image data of the imaging area 641 is stored in the memory 4.
[0412]
[Step S948] Next, pattern matching is performed on the image data stored in the memory 4 in step S947 using the pattern D1 as a search pattern.
[0413]
Note that the coordinates of the edge 112a obtained by the above four vertex position measurement process (process S90d) are (gluxg, gluyg), the coordinates of the edge 112b are (gruxg, gruyg), the coordinates of the edge 112c are (gldxg, gldyg), The coordinates of the edge 112d are set to (grdxg, grdyg) (see FIG. 25 (A10)).
[0414]
In the fine adjustment in step S350, a first process (process S35A), a second process (process S35B), and a third process (process S35C) are performed. Hereinafter, each process will be described in detail for each step based on FIGS.
[0415]
[Processing S35A] The first processing includes four vertex position measurement processing (Processing S90d) and Steps S351 to S353.
[0416]
By executing the first process, the inclination of the entire projection area 110, that is, the inclination of the entire liquid crystal light valve 25 is minimized.
[0417]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0418]
[Step S351] Next, θgux, θgdx, θgly, and θgry are obtained based on the coordinates of the edges 112a to 112d obtained by the four vertex position measurement processing.
[0419]
As illustrated in FIG. 25A11, θgux is an angle between the side 114b and a line connecting the center 125a of the imaging region 611 and the center 125b of the imaging region 621. θgdx is an angle between the side 114a and a line connecting the center 125c of the imaging region 631 and the center 125d of the imaging region 641. θgly is an angle between the side 113a and a line connecting the center 125a of the imaging region 611 and the center 125c of the imaging region 631. θgry is an angle between the side 113b and a line connecting the center 125b of the imaging region 621 and the center 125d of the imaging region 641.
[0420]
These θgux, θgdx, θgly, and θgry are the coordinates (gluxg, gluyg), (gruxg, gldyg), (gldxg, gldyg), and (grdxg,) of the edges 112a to 112d obtained in the four-vertex position measurement process (processing S90d). grdyg) and the coordinates of the centers 125a to 125d.
[0421]
[Step S352] Next, based on θgux, θgdx, θgly, and θgry obtained in step S351, a rotation angle θ for rotating the projection region 110 in the next step S353 is obtained.
[0422]
This can be obtained from the following equation. Note that θk is a preset reference angle.
[0423]
θgx = (θgux + θgdx) / 2
θgy = (θgly + θgry) / 2
θg = (θgx + θgy) / 2
θ = θk-θg
[Step S353] Next, the projection area 110 is rotated by the rotation angle θ degrees obtained in step S352.
[0424]
Thereby, as shown in FIG. 25 (B12), the inclination of the projection area 110 in the X-axis direction and the y-axis direction is minimized.
[0425]
[Process S35B] The second process includes a four-vertex position measurement process (Process S90d) and Steps S354 to S356.
[0426]
By executing this second process, the position of the center of the projection area 110 matches the preset reference coordinates. That is, the center position of the projection area 110 can be adjusted by executing the second process.
[0427]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0428]
[Step S354] Next, center coordinates (gxg, gyg) of the projection region 110 are obtained based on the coordinates of the edges 112a to 112d obtained by the four vertex position measurement processing.
[0429]
The coordinates are obtained from, for example, the coordinates (gluxg, gluyg), (gruxg, gryg), (gldxg, gldyg), (grdxg, grdyg) of the edges 112a to 112d obtained in the four-vertex position measurement process (process S90d). The coordinates of the midpoints of the sides 113a, 113b, 114a, and 114b are obtained, and the straight line connecting the midpoint of the side 113a and the midpoint of the side 113b, the midpoint of the side 114a, and the side 114b are obtained from the coordinates of these midpoints. It can be obtained by obtaining the coordinates of the intersection point with the straight line connecting the middle point.
[0430]
That is, the coordinates of the intersection of the straight line connecting the midpoint of the side 113a and the midpoint of the side 113b and the straight line connecting the midpoint of the side 114a and the midpoint of the side 114b are the center coordinates (gxg, gyg).
[0431]
[Step S355] Next, based on the center coordinates (gxg, gyg) of the projection area 110 obtained in step S354, the movement amount when moving the projection area 110 in the next step S356 is obtained.
[0432]
This can be obtained from the following equation. Note that kxg and kyg are preset reference coordinates.
[0433]
X-axis movement amount = kxg-gxg
Y-axis movement amount = kyg-gyg
[Step S356] Next, the projection area 110 is moved based on the X-axis movement amount and the Y-axis movement amount obtained in Step S355.
[0434]
As a result, the center of the imaging region 110 moves to the reference coordinates.
[0435]
[Process S35C] The third process includes a four-vertex position measurement process (Process S90d) and Steps S357 to S359.
[0436]
By executing the third process, the entire liquid crystal light valve 25 can be adjusted to a position where the deviation in the X-axis direction and the Y-axis direction is minimized.
[0437]
[Process S90d] First, the above-described four vertex position measurement process is executed.
[0438]
[Step S357] Next, with respect to the coordinates of the edges 112a to 112d obtained by the four-vertex position measurement process, deviations from reference coordinates (target positions) set in advance for the respective edges 112a to 112d are obtained.
[0439]
Here, the reference coordinates of the edge 112a are (kluxg, kluyg), the reference coordinates of the edge 112b are (kruxg, kruyg), the reference coordinates of the edge 112c are (klddxg, kldyg), and the reference coordinates of the edge 112d are (krdxg, krdyg). And
[0440]
Here, assuming that the deviations of the edges 112a to 112d from the reference coordinates in the X-axis direction are X1 to X4 and the deviations of the edges 112a to 112d from the reference coordinates in the Y-axis direction are Y1 to Y4, respectively, X1 to X4 and Y1. -Y4 can be represented by the following formula, for example.
[0441]
X1 = kluxg-gluxg
X2 = gruxg-kruxg
X3 = kldxg-gldxg
X4 = grdxg-krdxg
Y1 = kluyg-gluyg
Y2 = kruyg-gruyg
Y3 = gldyg-kldyg
Y4 = grdyg-krdyg
[Step S358] Next, based on X1 to X4 and Y1 to Y4 obtained in Step S357, the amount of movement for moving the projection region 110 in the next Step S359 is obtained.
[0442]
The amount of movement in the X-axis direction is obtained by taking the average of X1 to X4 having the first largest absolute value and the second largest absolute value. When the absolute value of the largest value and the second largest value have the same sign, the average of the first absolute value and the third largest absolute value among X1 to X4 is taken. Thus, the amount of movement in the X-axis direction is obtained. Furthermore, when the absolute value of the largest value and the third largest value have the same sign, the average of the first absolute value and the fourth largest absolute value among X1 to X4 is calculated. As a result, the amount of movement in the X-axis direction is obtained.
[0443]
The amount of movement in the Y-axis direction is obtained by taking the average of Y1 to Y4 having the first largest absolute value and the second largest absolute value. When the absolute value of the largest value and the second largest value have the same sign, the average of the first absolute value and the third largest absolute value among Y1 to Y4 is taken. Thus, the amount of movement in the Y-axis direction is obtained. Furthermore, when the absolute value of the largest value and the third largest value have the same sign, the average of the first absolute value and the fourth largest absolute value among Y1 to Y4 is calculated. As a result, the amount of movement in the Y-axis direction is obtained.
[0444]
[Step S359] Next, the projection region 110 is moved based on the amount of movement in the X-axis direction and the amount of movement in the Y-axis direction obtained in Step S358.
[0445]
As a result, of the edges 112a to 112d (corner portions 111a to 111d), the edge (corner portion) farthest from the reference coordinates corresponding to these approaches the reference coordinates.
[0446]
Therefore, for example, as shown in FIG. 25 (A13), the position can be accurately adjusted even when the projection region 110 is not completely rectangular.
[0447]
This completes the fine adjustment (position adjustment processing) in step S350 of the first embodiment.
[0448]
In this fine adjustment, the four vertex position measurement process (process S90d) is performed for each of the first process (process S35A), the second process (process S35B), and the third process (process S35C). However, the four-vertex position measurement process (process S90d) may not be performed for each process. However, it is preferable to execute the four vertex position measurement process (process S90d) for each process as in the first embodiment. Thereby, the precision of alignment adjustment improves more.
[0449]
In this fine adjustment, the four vertex position measurement process (process S90d) is performed, the coordinates of the edges 112a to 112d are obtained, and the first to third processes (process S35A to process S35C) are performed. At least two coordinates among the coordinates 112a to 112d are obtained, and the first process (process S35A), the second process (process S35B), and the third process (process S35C) are performed based on the coordinates. Also good.
[0450]
In the alignment adjustment, the image projected on the screen 2 (projected image), that is, the projected image of the pixel of the light valve is deformed (for example, fog, unevenness, blur, blurring) due to the characteristics of the optical system (lens aberration). Etc.) may occur.
[0451]
In such a case, for example, when pattern matching is performed using patterns A1 to D1 as shown in FIG. 11 as a search pattern, it may be difficult to perform the search accurately.
[0452]
At this time, pattern matching may be performed using patterns A2, B2, C2, and D2 as search patterns as shown in FIG. Each of these patterns A2, B2, C2, and D2 includes portions corresponding to corner portions 111a, 111b, 111c, and 111d when the projected image of the liquid crystal light valve pixel has a deformation of the projected image due to lens aberration. It corresponds to.
[0453]
Furthermore, first, pattern matching is performed using the patterns A1 to D1 as shown in FIG. 11 as search patterns, and when there is no search pattern in the search target data by such pattern matching, as shown in FIG. Pattern matching may be performed again using the patterns A2 to D2 as search patterns.
[0454]
As described above, by setting a plurality of predetermined patterns (patterns corresponding to one corner) used for pattern matching, it is possible to easily cope with a case where the degree of deformation of the projected image due to lens aberration is different. And the alignment accuracy can be improved.
[0455]
In this case, as shown in FIG. 26, in the patterns A2 to D2, positions 121, 122, 123, and 124 are, for example, edges 112a, 112b, and 112c when there is no deformation of the projected image due to lens aberration in each pixel. And 112d.
[0456]
Similarly to the above, for the pattern H1 and the pattern V1 as shown in FIG. 12, a pattern H2 and a pattern V2 corresponding to the pattern H1 and the pattern V1 as shown in FIG. Matching can be performed.
[0457]
The pattern H2 and the pattern V2 correspond to portions including the corresponding sides 113a and 114a when the projected image of the pixel of the liquid crystal light valve has deformation of the projected image due to lens aberration.
[0458]
In this case, as shown in FIG. 27, in patterns H2 and V2, positions 129a and 129b overlap with sides 113a and 114a when, for example, each pixel has no deformation of the projected image due to lens aberration. Position.
[0459]
Hereinafter, a second embodiment of fine adjustment (position adjustment processing) in step S350 will be described.
[0460]
In fine adjustment, the camera No. 1, Camera No. 2, Camera No. 3 and camera no. 4, each image data of the imaging areas 611, 621, 631 and 641 is stored in the memory 4.
[0461]
Next, the camera No. 1, Camera No. 2, Camera No. 3 and camera no. Each image data of the image imaged in 4 is read out, and each specific position 128 shown in FIG. 28A is detected by edge processing (edge processing method) (the X coordinate and Y coordinate of the specific position 128 are obtained). . This edge processing will be described in detail later.
[0462]
Then, as shown in FIG. 28 (b), the liquid crystal light valve 25 is displaced by the three-axis table 9 so that each specific position 128 is closer to the corresponding target position (including the case where they coincide). That is, the liquid crystal light valve 25 is rotated in the W direction and moved in the X-axis direction and the Y-axis direction so that each specific position 128 is closer to the corresponding target position (including a case where they coincide with each other).
[0463]
Next, edge processing will be described. Typically, camera no. The case where the Y coordinate of the specific position of the image imaged by 4 is calculated | required is demonstrated.
[0464]
FIG. 29 is a flowchart showing the control operation of the control means 3 of the positioning device 1 in edge processing. Hereinafter, description will be given based on this flowchart.
[0465]
In the edge processing, first, camera No. 4 (in this embodiment, pixels: 400 rows × 600 columns), and image data of the imaging region 641 is stored in the memory 4 (step S401).
[0466]
The camera No. For example, the image captured at 4, that is, the image stored in the memory 4 is as shown in FIG. 30.
[0467]
As shown in FIG. 30, XY coordinates are assumed. The XY coordinates correspond to the surface of the electronic image. That is, the camera No. The column (first column to 600th column) and row (first row to 400th row) of each pixel of the four pixels are respectively coordinated in the X-axis direction (X coordinate) and Y-axis direction (Y). Corresponds to the coordinate). In this embodiment, the camera No. The coordinates of the pixels in the 4th j-th row (j-th row) and i-th column (i-th column) are (i, j).
[0468]
Next, the luminance in each pixel is integrated in the Y-axis direction, and an integrated value Iy [i] = Σf (i, j) of luminance in the Y-axis direction is obtained (step S402).
[0469]
A graph of the integrated value Iy [i] is shown in FIG. The vertical axis of the graph is the integrated value Iy [i], and the horizontal axis is the X coordinate i of the pixel.
[0470]
Next, a maximum value Iymax and a minimum value Iymin of the integrated value Iy [i] are obtained (step S403).
[0471]
Next, a threshold value Ty is set (step S404).
[0472]
In step S404, the threshold value Ty is obtained by substituting the maximum value Iymax and the minimum value Iymin obtained in step S403 into the following equation.
[0473]
Ty = (Iymax−Iymin) * α + Iymin (where 0 <α <1)
Next, as shown in FIG. 30, the X coordinate Xc of the cross point between the threshold value Ty and the integrated value Iy [i] is obtained (step S405).
[0474]
Next, as shown in FIG. 31, a rectangular area surrounded by four points of coordinates (0, 0), coordinates (Xc, 0), coordinates (Xc, 400), and coordinates (0, 400) is set (step S406).
[0475]
Next, in the set area, the luminance in each pixel is integrated in the X-axis direction, and an integrated value Iax [j] = Σf (i, j) of the luminance in the X-axis direction is obtained (step S407).
[0476]
A graph of the integrated value Iax [j] (first waveform) is shown in FIG. The horizontal axis of the graph is the integrated value Iax [j], and the vertical axis is the Y coordinate j of the pixel. This integrated value Iax [j] is a first waveform that indicates the change in the Y-axis direction of the integrated value of luminance in the X-axis direction.
[0477]
Next, a maximum value Iaxmax and a minimum value Iaxmin of the integrated value Iax [j] are obtained (step S408).
[0478]
Next, a threshold value Tax is set (step S409).
[0479]
In step S409, the threshold value Tax is obtained by substituting the maximum value Iaxmax and the minimum value Iaxmin obtained in step S408 into the following equations.
[0480]
Tax = (Iaxmax−Iaxmin) * α + Iaxmin (where 0 <α <1)
Next, as shown in FIG. 31, the Y coordinate Yac of the cross point between the threshold value Tax and the integrated value Iax [j] is obtained (step S410).
[0481]
Next, as shown in FIG. 31, the Y coordinate Ppy [P] at each peak (positive peak) and the Y coordinate Pmy [q] at each bottom (negative peak) of the graph of the integrated value Iax [j] are obtained. (Step S411).
[0482]
In the case of FIG. 31, the number of positive peaks is 4 and the number of negative peaks is 3. Therefore, the Y coordinates Ppy [1], Ppy [2], Ppy [3] and Ppy at the four positive peaks are used. [4] and Y coordinates Pmy [1], Pmy [2] and Pmy [3] at the three negative peaks are detected, respectively.
[0483]
Next, an average value Ppyavr of the intervals in the vertical axis direction of adjacent positive peaks is obtained from the following equation (step S412).
[0484]
Ppyavr = {Σ (Ppy [p + 1] −Ppy [p])} / (n−1)
(Where n is the number of positive peaks)
Next, as shown in FIG. 31, the Y coordinate Pmpymax at the negative peak where Yac−1.2 * Ppyavr−Pmy [q] is minimum within the range where the Y coordinate is less than Yac−1.2 * Ppyavr is detected. (Step S413).
[0485]
In other words, Pmpymax is Pmy [q] which is smaller than Yac-1.2 * Ppyavr and closest to Yac-1.2 * Ppyavr.
[0486]
Next, the difference value Diax [j] of the integrated value Iax [j] is calculated from the following equation (step S414).
[0487]
Diax [j] = Iax [j + 1] −Iax [j−1]
In other words, the difference value Diax [j] on the j-th row is a value obtained by subtracting the integrated value Iax [j−1] on the j−1-th row from the integrated value Iax [j + 1] on the j + 1-th row.
[0488]
FIG. 32 shows a graph of the difference value Diax [j] and a graph of the integrated value Iax [j]. In the graph of the difference value Diax [j], the horizontal axis represents the difference value Diax [j], and the vertical axis represents the Y coordinate j of the pixel.
[0489]
Next, as shown in FIG. 32, near Pmpymax (indicated by a circle in FIG. 32), a zero cross point (Y coordinate when Diax [j] = 0) is calculated using Diax [j] (zero cross processing is performed). ), And the obtained zero cross point is set as the Y coordinate of the specific position (step S415).
[0490]
That is, in step S415, the camera No. 4, the Y coordinate of the specific position of the image captured is obtained.
[0491]
This completes the edge processing.
[0492]
The camera No. In order to obtain the X coordinate of the specific position of the image captured in step 4, the above-described edge processing for obtaining the Y coordinate of the specific position may be performed in the same manner by changing x to y and y to x.
[0493]
In this case, in the set area, the relationship between the integrated value of the luminance in the Y axis direction obtained by integrating the luminance in each pixel in the Y axis direction and the X coordinate of the pixel (the X axis of the integrated value of the luminance in the Y axis direction). The waveform in the graph (not shown) showing the change in the direction is the second waveform, and the X coordinate of the specific position is obtained based on the second waveform in the same manner as the edge processing for obtaining the Y coordinate of the specific position described above. .
[0494]
FIG. 33 is a diagram illustrating the first waveform and the second waveform.
[0495]
As shown in the figure, in the second embodiment, the positions of the peak and bottom of the first waveform in the fourth Y-axis direction from the lower side in FIG. 33 (the end side of the imaged projection area). Is the Y coordinate of the specific position 128, and the fourth waveform peak and bottom positions in the X-axis direction of the second waveform from the right side in FIG. It is a coordinate.
[0496]
In addition, camera No. 1, Camera No. 2 and camera no. In order to obtain the X coordinate and Y coordinate of the specific position of each image captured in step 3, the above-described process may be performed.
[0497]
This completes the fine adjustment (position adjustment processing) in step S350 of the second embodiment.
[0498]
As can be seen from the edge processing flowchart as described above, in the fine adjustment in step S350 of the second embodiment, the position of the peak or bottom of the first waveform shown in FIG. Preferably, the Y coordinate of the specific position is used, and the peak or bottom position of the second waveform in the X axis direction is the X coordinate of the specific position.
[0499]
Also, the Ny-th position in the Y-axis direction of the peak and bottom of the first waveform (point where the first derivative is 0) is specified from the lower side in FIG. 33 (the end side of the imaged projection area). As the Y coordinate of the position, from the right side in FIG. 33 (the end side of the imaged projection area), the peak and bottom of the second waveform (points where the first derivative is 0) in the Nx-th X-axis direction The position is preferably the X coordinate of the specific position.
[0500]
In this case, Ny and Nx may be different but are preferably equal. By making Ny and Nx equal, the accuracy of position adjustment can be further increased.
[0501]
Ny and Nx are each preferably an even number. That is, it is preferable that the position of the bottom of the first waveform in the Y-axis direction is the Y coordinate of the specific position, and the position of the bottom of the second waveform in the X-axis direction is the X coordinate of the specific position. preferable.
[0502]
When Ny and Nx are even numbers, the Y coordinate and X coordinate of the specific position can be obtained more accurately, thereby improving the accuracy of position adjustment.
[0503]
Ny and Nx are each preferably 2 or more, more preferably 4 or more, and still more preferably about 4-8.
[0504]
When Ny and Nx are 2 or more, the Y coordinate and X coordinate of the specific position can be obtained more accurately, thereby improving the accuracy of position adjustment.
[0505]
Thus, the positioning of the green liquid crystal light valve 25 is completed, and as described above, the liquid crystal light valve 25 is temporarily fixed to the optical block 20 and then permanently fixed.
[0506]
Next, the red liquid crystal light valve 24 and the blue liquid crystal light valve 26 are positioned in the same manner as described above.
[0507]
At this time, when the fine adjustment (position adjustment process) in step S350 is performed in the fine adjustment of the first embodiment, the green liquid crystal light valve 25 and the red liquid crystal are performed as follows. The red liquid crystal light valve 24 and the blue liquid crystal light valve 26 can be positioned so that the images formed by the light valve 24 and the blue liquid crystal light valve 26 overlap each other.
[0508]
First, prior to positioning the liquid crystal light valve 24 for red and the liquid crystal light valve 26 for blue, the four apex position measurement process (process S90d) is performed, and the projection region 110 of the liquid crystal light valve 25 for green is displayed. The coordinates of the edges 112a to 112d are obtained.
[0509]
Based on these coordinates, θk used in step S352, kxg and kyg used in step S355, and edges 112a to 112a used in step S357 in positioning the liquid crystal light valve 24 for red and the liquid crystal light valve 26 for blue. The reference coordinates (kluxg, kluyg), (kruxg, kruyg), (kldxg, kldyg), and (krdxg, krdyg) of 112d are obtained.
[0510]
Based on these values, the red liquid crystal light valve 24 and the blue liquid crystal light valve 26 are positioned.
[0511]
Accordingly, the red liquid crystal light valve 24 and the blue liquid crystal light valve 24, the red liquid crystal light valve 24, and the blue liquid crystal light valve 26 are overlapped with each other so that the images formed by the green liquid crystal light valve 24 and the blue liquid crystal light valve 26 overlap each other. The liquid crystal light valve 26 can be positioned.
[0512]
On the other hand, when the fine adjustment (position adjustment processing) in step S350 is performed by the fine adjustment of the second embodiment, the green liquid crystal light valve 25 and the red liquid crystal light are performed as follows. The red liquid crystal light valve 24 and the blue liquid crystal light valve 26 can be positioned so that the images formed by the bulb 24 and the blue liquid crystal light valve 26 overlap each other.
[0513]
First, prior to positioning the red liquid crystal light valve 24 and the blue liquid crystal light valve 26, the projection areas 110 of the green liquid crystal light valve 25 are respectively imaged by the cameras 61 to 64, and each image data is captured. Store in memory 4.
[0514]
Then, each image data is read from the memory 4, and the X coordinate and Y coordinate of each specific position are obtained by the edge processing described above. The obtained X coordinate and Y coordinate of each specific position are set as the X coordinate and Y coordinate of each target position in fine adjustment of position adjustment, respectively.
[0515]
Accordingly, the red liquid crystal light valve 24 and the blue liquid crystal light valve 24, the red liquid crystal light valve 24, and the blue liquid crystal light valve 26 are overlapped with each other so that the images formed by the green liquid crystal light valve 24 and the blue liquid crystal light valve 26 overlap each other. The liquid crystal light valve 26 can be positioned.
[0516]
When the positioning of the liquid crystal light valve 24 is completed, as described above, the liquid crystal light valve 24 is temporarily fixed to the optical block 20, and is then permanently fixed.
[0517]
Similarly, when the positioning of the liquid crystal light valve 26 is completed, as described above, the liquid crystal light valve 26 is temporarily fixed to the optical block 20 and then permanently fixed.
[0518]
As described above, according to the light valve positioning method of the present invention, each of the liquid crystal light valves 24 to 26 is automatically positioned, so that it is easier, faster and more reliable than the case where it is manually performed. Can be positioned.
[0519]
In addition, positioning can be performed with higher accuracy than when positioning is performed manually.
[0520]
In particular, since the projection area 100 for focus adjustment and the projection area 110 for position adjustment are set and positioning is performed, the cameras 61 to 64 can also be used for focus adjustment and position adjustment.
[0521]
For this reason, the number of cameras can be reduced as compared with the case where positioning is performed using a camera dedicated to focus adjustment and a camera dedicated to position adjustment, whereby the structure of the positioning device 1 can be simplified. In addition, the cost can be reduced.
[0522]
Compared to the case where positioning is performed using a camera dedicated to focus adjustment and a camera dedicated to position adjustment, the positioning device 1 is assembled, particularly when the cameras 61 to 64 are installed (assembled). It can be done easily.
[0523]
In addition, the projection area 100 for focus adjustment and the projection area 110 for position adjustment are set, and these are switched to perform focus adjustment and position adjustment. can do.
[0524]
In focus adjustment, coarse adjustment and fine adjustment are performed, so that the focus adjustment can be performed with high accuracy in a short time.
[0525]
Further, the position in the Z-axis direction of the liquid crystal light valves 24 to 26 when the dispersion value Vh of the X-axis direction component is maximum, and the Z of the liquid crystal light valves 24 to 26 when the dispersion value Vv of the Y-axis direction component is maximum. The position in the axial direction is obtained, and based on these, the positions in the Z-axis direction of the liquid crystal light valves 24 to 26 in the focused state shown in FIG. 42 (d) are obtained. Regardless, the accuracy of focus adjustment can be increased.
[0526]
In addition, the imaging area 611 of the camera 61, the imaging area 621 of the camera 62, the imaging area 631 of the camera 63, and the imaging area 641 of the camera 64 are respectively near the corner 101a of the projection area 100, as shown in FIG. It is located near the portion 101b, near the corner portion 101c, and near the corner portion 101d, and approaches or coincides with the focused state shown in FIG. Thus, the focus is adjusted over almost the entire projection area 100 on the screen 2. That is, high contrast is obtained in almost the entire projection area 100.
[0527]
In the position adjustment, coarse adjustment and fine adjustment are performed, so that the position adjustment can be performed with high accuracy in a short time.
[0528]
In addition, the imaging area 611 of the camera 61, the imaging area 621 of the camera 62, the imaging area 631 of the camera 63, and the imaging area 641 of the camera 64 are respectively shown in FIG. 111b, corner portion 111c, and corner portion 111d are included, and the position is adjusted with respect to all these corner portions, so that the position can be accurately adjusted.
[0529]
Further, by performing rough adjustment, even when the image projected on the screen does not exist in the target area, the corner of the image can be introduced into the target area, and the position can be adjusted efficiently. . Thereby, even when the projection area is located away from the target area, the position adjustment can be easily performed.
[0530]
Further, when performing the fine adjustment of the first embodiment, the position can be accurately adjusted even when the image projected on the screen is not completely rectangular.
[0531]
Further, in the fine adjustment of the position adjustment, when performing the fine adjustment of the second embodiment, the X coordinate and the Y coordinate of the specific position are obtained by the above-described edge processing using the integrated luminance value. The X coordinate and Y coordinate of the specific position can be obtained accurately, and thereby the accuracy of position adjustment can be further improved.
[0532]
According to the display unit and the projection display device of the present invention, the liquid crystal light valves 24, 25, and 26 are accurately positioned by the positioning method described above, so that the contrast (the sharpness of the image) is obtained over the entire area of the image. And a color image having no color shift (pixel shift) can be projected on the screen.
[0533]
Next, another embodiment of the light valve positioning method of the present invention will be described. In addition, description is abbreviate | omitted about a common point with the Example mentioned above, and a main difference is demonstrated.
[0534]
In the embodiment described above, the focus adjustment and position adjustment of the liquid crystal light valves 24 to 26 are performed by operating the liquid crystal light valves 24 to 26, respectively. In this embodiment, the focus adjustment of the liquid crystal light valves 24 to 26 is performed respectively. The light valves 24 to 26 are operated without being operated, and the position adjustment of the liquid crystal light valves 24 to 26 is performed by operating the liquid crystal light valves 24 to 26, respectively.
[0535]
Specifically, in this embodiment, step S101 in the flowchart shown in FIG. 7 is omitted from the above-described embodiment.
[0536]
When the liquid crystal light valves 24 to 26 are not operated, the light emitted to the liquid crystal light valves 24 to 26 passes through the pixels and is projected on the screen 2.
[0537]
Therefore, in this embodiment, for example, an area on the screen 2 corresponding to the effective screen area of the liquid crystal light valve 25 is set as the focus adjustment projection area 100 described above.
[0538]
In this case, when the four illumination devices 71 to 74 are turned on in step S100 of FIG. 7, a projected image 131 for focus adjustment (strictly speaking, illumination light is applied to the projection area 100 on the screen 2). The irradiated part) is projected.
[0539]
On the other hand, the position adjustment projection area 110 is set in the same manner as in the above-described embodiment.
[0540]
This positioning method can provide the same effects as those of the above-described embodiment.
[0541]
The light valve positioning method, display unit, and projection display device of the present invention have been described above based on the illustrated embodiment, but the present invention is not limited to this.
[0542]
For example, in the present invention, the structure of the positioning device to be used is not limited to the illustrated one.
[0543]
In the present invention, the shape of the first projection region and the shape of the second projection region are not limited to squares, but may be polygons such as triangles and pentagons.
[0544]
In the present invention, the position of the predetermined area imaged in the focus adjustment and the position of the predetermined area imaged in the position adjustment are not limited to the above embodiments.
[0545]
In the present invention, the number of cameras, that is, the number of predetermined areas imaged in the focus adjustment and the number of predetermined areas imaged in the position adjustment are not limited to the above embodiments.
[0546]
For example, the predetermined area imaged in the focus adjustment and the position adjustment may be three or less, and may be five or more.
[0547]
However, the predetermined area to be imaged in the focus adjustment and the position adjustment is preferably 3 or more (except when all of them are on the same straight line), and preferably 4 or 5 places (all of which are on the same straight line). Are preferred).
[0548]
By setting three or more predetermined areas to be imaged in focus adjustment and position adjustment, the Z axis direction of the light valve when the focus is in almost the entire area of the first projection area projected on the screen And the current position and posture of the light valve in the Z-axis direction can be detected. Thereby, the focus adjustment can be performed so that the focus is achieved in almost the entire area of the first projection area (high contrast is obtained in the almost entire area of the first projection area).
[0549]
FIGS. 51 and 52 show an example in which three predetermined areas to be imaged in focus adjustment and position adjustment are set, and implementation in the case where four predetermined areas to be imaged in focus adjustment and position adjustment are set. An example is shown in FIG.
[0550]
As shown in FIG. 51, in this embodiment, three cameras (not shown) are installed, and the imaging areas 411, 412 and 413 of these cameras are respectively inside the projection area 100 and the projection area. 110 is set so as to include the boundary 16 with the non-projection region 115.
[0551]
Specifically, the imaging region 411 is set in the vicinity of the side 104a and in the middle of the side 103a and the side 103b and includes an intermediate part of the side 114a.
[0552]
In addition, the imaging region 412 is located near the corner 101a and is set to include the corner 111a.
[0553]
The imaging region 413 is located near the corner 101b and is set to include the corner 111b.
[0554]
In this case, the Y coordinate of the specific position in the imaging area 411 is obtained from the image data of the imaging area 411, and the X coordinate and Y of the specific position in the imaging area 412 are obtained from the image data of the imaging area 412. The coordinates are obtained, and the X coordinate and the Y coordinate of a specific position in the imaging area 413 are obtained from the image data of the imaging area 413.
[0555]
Accordingly, the position is adjusted by displacing the liquid crystal light valve based on these pieces of information.
[0556]
As shown in FIG. 52, in this embodiment, three cameras (not shown) are installed, and the imaging areas 421, 422, and 423 of these cameras are respectively inside the projection area 100 and the projection area. 110 is set so as to include the boundary 16 with the non-projection region 115.
[0557]
Specifically, the imaging region 421 is set to be in the vicinity of the side 104b, in the middle of the side 103a and the side 103b, and to include an intermediate part of the side 114b.
[0558]
In addition, the imaging region 422 is located near the corner portion 101c and is set to include the corner portion 111c.
[0559]
In addition, the imaging region 423 is located near the corner 101d and is set to include the corner 111d.
[0560]
In this case, the Y coordinate of the specific position in the imaging area 421 is obtained from the image data of the imaging area 421, and the X coordinate and Y of the specific position in the imaging area 422 are obtained from the image data of the imaging area 422. The coordinates are obtained, and the X coordinate and the Y coordinate of the specific position in the imaging area 423 are obtained from the image data of the imaging area 423.
[0561]
Accordingly, the position is adjusted by displacing the liquid crystal light valve based on these pieces of information.
[0562]
As shown in FIG. 53, in this embodiment, four cameras (not shown) are installed, and the imaging areas 431, 432, and 433 of these cameras are respectively inside the projection area 100 and the projection area. 110 is set so as to include the boundary 16 with the non-projection region 115.
[0563]
Specifically, the imaging region 431 is set in the vicinity of the corner portion 101a and includes a portion of the side 114b near the corner portion 111a.
[0564]
The imaging region 432 is located near the corner portion 101b and is set to include a portion of the side 114b near the corner portion 111b.
[0565]
In addition, the imaging region 433 is located near the corner 101c and is set to include the corner 111c.
[0566]
The imaging region 434 is set near the corner 101d and includes the corner 111d.
[0567]
In this case, the Y coordinate of the specific position in the imaging area 431 is obtained from the image data of the imaging area 431, and the Y coordinate of the specific position in the imaging area 432 is obtained from the image data of the imaging area 432. The X and Y coordinates of a specific position in the imaging area 433 are obtained from the image data of the imaging area 433, and the X and Y coordinates of the specific position in the imaging area 434 are obtained from the image data of the imaging area 434. Is obtained.
[0568]
Accordingly, the position is adjusted by displacing the liquid crystal light valve based on these pieces of information.
[0569]
In addition, for example, the imaging region may be set in the vicinity of the side 103a and in the middle of the side 104a and the side 104b so as to include an intermediate part of the side 113a. In this case, the X coordinate of a specific position in the imaging area is obtained from the image data of the imaging area.
[0570]
Further, for example, the imaging region may be set in the vicinity of the side 103b and in the middle of the side 104a and the side 104b so as to include an intermediate part of the side 113b. In this case, the X coordinate of a specific position in the imaging area is obtained from the image data of the imaging area.
[0571]
In the embodiment, the first focus adjustment (coarse focus adjustment), the second focus adjustment (fine focus adjustment), the first position adjustment (position coarse adjustment), and the second position adjustment (position The light valves are positioned in the order of fine adjustment), but the present invention is not limited to this order. For example, the first focus adjustment (coarse adjustment of focus), the first position adjustment (position adjustment) The light valve may be positioned in the order of coarse adjustment), second focus adjustment (focus fine adjustment), and second position adjustment (position fine adjustment).
[0572]
In the embodiment, the light valve is configured by a liquid crystal light valve. However, the present invention is not limited to this, and may be configured by a light valve using, for example, a DMD (Digital Micromirror Device). . In the case of a light valve using a DMD, a predetermined pattern (bright / dark pattern) is formed by the DMD, and the pattern is projected onto a screen for positioning.
[0573]
In the fine adjustment in step S350 of the first embodiment, in the four-vertex position measurement process (process S90d), edge processing is performed to detect a specific position, and based on the specific position detected in the edge process, The first process (process S35A), the second process (process S35B), and the third process (process S35C) may be performed.
[0574]
【The invention's effect】
As described above, according to the light valve positioning method of the present invention, positioning can be performed easily, quickly, reliably and accurately.
[0575]
In particular, since positioning is performed using a common (same) camera for focus adjustment and position adjustment, the number of cameras is smaller than when positioning is performed using a camera dedicated to focus adjustment and a camera dedicated to position adjustment. The structure of the positioning device can be simplified.
[0576]
In addition, as compared with the case where positioning is performed using a camera dedicated to focus adjustment and a camera dedicated to position adjustment, assembly of the positioning device, particularly positioning of the camera when the camera is installed can be easily performed.
[0577]
In addition, since the first projection area and the second projection area are set, and these are switched to perform the focus adjustment and the position adjustment, the versatility is wide and the apparatus can be easily adapted to many models.
[0578]
In addition, since the focus adjustment is performed with coarse adjustment and fine adjustment, the focus adjustment can be performed with high accuracy in a short time. In the position adjustment, the coarse adjustment and fine adjustment are performed with a short time. Position adjustment can be performed with high accuracy.
[0579]
According to the display unit and the projection display device of the present invention, since the three light valves corresponding to red, green and blue are accurately positioned, a color image with high contrast and no color shift is displayed on the screen. Can be projected.
[Brief description of the drawings]
FIG. 1 is a side view schematically showing a configuration example of a positioning device used in a light valve positioning method of the present invention.
2 is a block diagram showing a circuit configuration of the positioning device shown in FIG. 1. FIG.
FIG. 3 is a cross-sectional view showing an optical head part (each liquid crystal light valve and a part of an optical system) of the projection display device according to the present invention.
FIG. 4 is an exploded perspective view showing a dichroic prism, a liquid crystal light valve corresponding to green, and a support member according to the present invention.
5 is a view schematically showing a liquid crystal light valve held by a chuck of the positioning device shown in FIG.
FIG. 6 is a diagram schematically showing projection areas on a screen by a liquid crystal light valve and an imaging area of each camera according to the present invention.
FIG. 7 is a flowchart showing the control operation of the control means of the positioning device at the time of focus adjustment in the present invention.
FIG. 8 is a flowchart showing the control operation of the control means of the positioning device at the time of focus adjustment in the present invention.
FIG. 9 is a flowchart showing a control operation of the control means of the positioning device at the time of focus adjustment in the present invention.
FIG. 10 is a flowchart showing a control operation of the control means of the positioning device at the time of position adjustment (alignment adjustment) in the present invention.
FIG. 11 is a diagram schematically showing four patterns in the present invention.
FIG. 12 is a diagram schematically showing two patterns in the present invention.
FIG. 13 is a flowchart showing the control operation of the control means of the positioning device during rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 14 is a flowchart showing the control operation of the control means of the positioning device during rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 15 is a flowchart showing the control operation of the control means of the positioning device at the time of coarse adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 16 is a flowchart showing the control operation of the control means of the positioning device at the time of coarse adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 17 is a flowchart showing the control operation of the control means of the positioning device during fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 18 is a flowchart showing a control operation of the control means of the positioning device at the time of fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 19 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) according to the present invention.
FIG. 20 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 21 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention;
FIG. 22 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 23 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 24 is a diagram for explaining rough adjustment in position adjustment (alignment adjustment) in the present invention.
FIG. 25 is a diagram for explaining fine adjustment of the first embodiment in position adjustment (alignment adjustment) in the present invention.
FIG. 26 is a diagram schematically showing another four patterns in the present invention.
FIG. 27 is a diagram schematically showing two other patterns in the present invention.
FIG. 28 is a diagram for explaining fine adjustment according to the second embodiment in position adjustment (alignment adjustment) in the present invention;
FIG. 29 is a flowchart showing the control operation of the control means of the positioning device in edge processing according to the present invention.
FIG. 30 is a diagram for explaining edge processing in the present invention;
FIG. 31 is a diagram for explaining edge processing in the present invention;
FIG. 32 is a diagram for explaining edge processing in the present invention;
FIG. 33 is a diagram showing a first waveform and a second waveform in the present invention.
FIG. 34 is a diagram schematically showing an imaging region and a processing region in the present invention.
FIG. 35 is a diagram schematically showing a part of a processing region in the present invention.
FIG. 36 is a diagram showing a part of a processing region and a graph of luminance integrated values in the Y-axis direction corresponding to the part in the present invention.
FIG. 37 is a diagram showing a part of a processing region and a graph of luminance integrated values in the Y-axis direction corresponding to the part in the present invention.
FIG. 38 is a diagram showing a part of a processing area and a graph of luminance integrated values in the X-axis direction corresponding to the part in the present invention.
FIG. 39 is a diagram showing a part of a processing region and a graph of luminance integrated values in the X-axis direction corresponding to the part in the present invention.
FIG. 40 is a schematic diagram for explaining movement of the liquid crystal light valve during focus adjustment in the present invention.
FIG. 41 is a graph showing the relationship between dispersion values Vh and Vv for an image captured by a camera according to the present invention and the position of the liquid crystal light valve in the Z-axis direction when the dispersion values Vh and Vv are acquired.
FIG. 42 is a diagram schematically showing an image in the processing area when the position of the liquid crystal light valve in the Z-axis direction according to the present invention is changed.
FIG. 43 is a diagram schematically showing a configuration example of a projected image for focus adjustment in the present invention.
FIG. 44 is a diagram schematically illustrating a configuration example of a position adjustment projection image according to the present invention.
FIG. 45 is a diagram schematically illustrating a configuration example of a focus adjustment projection area and a position adjustment projection area in the present invention.
FIG. 46 is a diagram schematically illustrating a configuration example of a projection area for focus adjustment and a projection area for position adjustment in the present invention.
FIG. 47 is a diagram schematically illustrating a configuration example of a projection area for focus adjustment and a projection area for position adjustment in the present invention.
FIG. 48 is a diagram schematically showing a configuration example of a focus adjustment projection area and a position adjustment projection area in the present invention.
FIG. 49 is a diagram schematically illustrating a configuration example of a focus adjustment projection area and a position adjustment projection area in the present invention.
FIG. 50 is a diagram schematically illustrating a configuration example of a focus adjustment projection area and a position adjustment projection area in the present invention.
FIG. 51 is a diagram schematically showing projection areas on a screen by a liquid crystal light valve and imaging areas (three places) of each camera according to the present invention.
FIG. 52 is a diagram schematically showing projection areas on a screen by a liquid crystal light valve and imaging areas (three places) of each camera according to the present invention.
FIG. 53 is a diagram schematically showing projection areas on a screen by a liquid crystal light valve according to the present invention and imaging areas (four places) of each camera.
FIG. 54 is a diagram schematically showing an optical system of a conventional projection display apparatus.
[Explanation of symbols]
1 Positioning device
2 screens
3 Control means
4 memory
550 processing area
551 pixel section
552 gap
553 Y-axis direction gap
554 X-axis direction gap
555 Common gap
560 columns
570 lines
61-64 cameras
611, 621 Imaging area
612 side
631, 641 Imaging area
632, 633 sides
643 sides
71-74 Lighting device
8 3-axis table
81 3-axis table drive mechanism
9 3-axis table
91 3-axis table drive mechanism
11 Chuck
12 Support members
20 Optical block
21 Dichroic Prism
211, 212 Dichroic mirror surface
213-215
216 Output surface
22 Projection lens
23 Support
24-26 Liquid crystal light valve
251 Frame member
252 Through hole
253 Notch
27 Support member
28 Fixed plate
281 opening
282 screw holes
29 Fixed plate
291 opening
292 Through hole
293 protrusion
31 screws
32 wedges
33 Adhesive
411 to 413 Imaging area
421 to 423 Imaging area
431 to 434 Imaging area
100 projection area
101a, 101b Corner
101c, 101d corner
103a, 103b side
104a, 104b side
110 Projection area
111a, 111b corner
111c, 111d corner
112a, 112b edge
112c, 112d edge
113a, 113b side
114a, 114b side
115 Non-projection area
116 border
121-124 positions
125a, 125b center
125c, 125d center
126, 127 straight lines
128 specific position
129a, 129b position
131, 141 projected image
300 Projection display
301 Light source
302, 303 Integrator lens
304, 306, 309 Mirror
305, 307, 308 Dichroic mirror
310-314 Condensing lens
315 Dichroic Prism
316-318 Liquid crystal light valve
319 Projection lens
320 screens
S100 to S120 steps
S10a processing
S150 step
S201 to S232 steps
S300 Coarse adjustment
S30A-S30H treatment
Steps S301 to S329
S350 Fine adjustment
Steps S351 to S359
Steps S401 to S415
S90a-S90d processing
Steps S901 to S910
Steps S921 and S922
Steps S931 and S932
Steps S941 to S948

Claims (4)

ライトバルブにより形成された略四角形の画像を投射光学系により投影する投射型表示装置の前記ライトバルブの位置決めを行う位置決め方法であって、
投影できる画像領域と同一のフォーカス調整用画像をスクリーンに投影し、該フォーカス調整用画像の内部の角部4箇所をそれぞれ4台のカメラで撮像し、電子画像を得て、該電子画像のフォーカス状態が目的の状態に近づくように、前記ライトバルブを変位させるフォーカス調整を行い、
投影できる画像領域に包含され、前記フォーカス調整用画像より小さい位置調整用画像を前記スクリーンに投影し、該位置調整用画像のエッジの角部4箇所を前記4台のカメラで撮像し、電子画像を得て、該電子画像の特定位置が目的の状態に近づくように、前記ライトバルブを変位させる位置調整を行うことを特徴とするライトバルブの位置決め方法。
A positioning method for positioning the light valve of a projection display device that projects a substantially square image formed by a light valve by a projection optical system,
The same focus adjustment image as the image area that can be projected is projected onto the screen, and four corners inside the focus adjustment image are captured by four cameras, respectively, to obtain an electronic image, and the focus of the electronic image is obtained. Perform focus adjustment to displace the light valve so that the state approaches the target state,
An image for position adjustment that is included in an image area that can be projected and is smaller than the image for focus adjustment is projected onto the screen, and four corners of the edge of the image for position adjustment are captured by the four cameras, and an electronic image And adjusting the position of the light valve so that the specific position of the electronic image approaches the target state.
前記4台のカメラは、それぞれ固定されており、前記4台のカメラの各カメラが前記フォーカス調整の際に撮像する領域と、前記4台のカメラの各カメラが前記位置調整の際に撮像する領域とは、前記各カメラ毎に同一の領域であることを特徴とする請求項1に記載のライトバルブの位置決め方法。  The four cameras are fixed, and each of the four cameras captures an image when the focus adjustment is performed, and each of the four cameras captures an image when the position adjustment is performed. 2. The light valve positioning method according to claim 1, wherein the region is the same region for each of the cameras. 前記フォーカス調整を複数回行い、前記位置調整を複数回行うことを特徴とする請求項1または2に記載のライトバルブの位置決め方法。  The light valve positioning method according to claim 1, wherein the focus adjustment is performed a plurality of times, and the position adjustment is performed a plurality of times. 前記投射型装置は、赤色、緑色および青色に対応した3つのライトバルブを有しおり、前記3つのライトバルブのそれぞれについて、前記位置決めを行う請求項1ないし3のいずれかに記載のライトバルブの位置決め方法。  The positioning of the light valve according to any one of claims 1 to 3, wherein the projection type device has three light valves corresponding to red, green, and blue, and performs the positioning for each of the three light valves. Method.
JP03003699A 1999-02-08 1999-02-08 Light valve positioning method Expired - Fee Related JP4096437B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03003699A JP4096437B2 (en) 1999-02-08 1999-02-08 Light valve positioning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03003699A JP4096437B2 (en) 1999-02-08 1999-02-08 Light valve positioning method

Publications (2)

Publication Number Publication Date
JP2000227634A JP2000227634A (en) 2000-08-15
JP4096437B2 true JP4096437B2 (en) 2008-06-04

Family

ID=12292609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03003699A Expired - Fee Related JP4096437B2 (en) 1999-02-08 1999-02-08 Light valve positioning method

Country Status (1)

Country Link
JP (1) JP4096437B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1311274C (en) * 2001-02-27 2007-04-18 精工爱普生株式会社 Device and method for positional adjustment of light mobulator
JP5213018B2 (en) * 2007-11-30 2013-06-19 Necディスプレイソリューションズ株式会社 Rear projector and image projection position adjustment method
JP5621189B2 (en) * 2008-06-30 2014-11-05 日本電気株式会社 LCD panel focus positioning method
JP5471830B2 (en) * 2010-05-25 2014-04-16 セイコーエプソン株式会社 Light modulation device position adjustment method, light modulation device position adjustment amount calculation device, and projector
CN111182282B (en) * 2019-12-30 2022-03-29 成都极米科技股份有限公司 Method and device for detecting projection focusing area and projector
CN111292655B (en) * 2020-03-29 2024-06-07 深圳市金研微科技有限公司 Projection system applied to subway rail transit platform and installation method

Also Published As

Publication number Publication date
JP2000227634A (en) 2000-08-15

Similar Documents

Publication Publication Date Title
KR20080097340A (en) Laser processing device
US20080292304A1 (en) Projection Type Image Display Apparatus And Projection Type Image Display System
JP4096437B2 (en) Light valve positioning method
US5640243A (en) Position detection method
JP3646716B2 (en) Position adjustment device for light modulation device and method for position adjustment of light modulation device
TW533333B (en) Manufacturing method for optical device, the optical device manufactured by the method, and the projector having the same
JP4096436B2 (en) Light valve positioning method
JP3794190B2 (en) Light valve positioning method
JP3804301B2 (en) Light valve positioning method
JP2006293387A (en) Positioning apparatus of light valve
JP3849325B2 (en) Light valve positioning method
JP2020525828A (en) Image improvement for registration through mixing of incoherent illumination
JPS63289406A (en) Three-dimensional configuration measuring instrument
JP2000134560A (en) Method for positioning light valve, display unit and projection type display device
KR100496083B1 (en) Position-control device for light modulation device, position-controlling method for light modulation device, and initial-position controlling jig
JP2010141245A (en) Maskless exposure apparatus and substrate observation method
US8885051B2 (en) Camera calibration method and camera calibration apparatus
JP6879484B2 (en) Image acquisition device, exposure device, and image acquisition method
CN110032047A (en) A kind of two-sided method for platemaking and halftone process equipment
JP3326444B2 (en) Positioning method and pattern joining accuracy measuring method
JPH08181062A (en) Positioning device and positioning method
JPH01274283A (en) Pattern reader
JP2010102100A (en) Device for manufacturing optical device, position adjusting method, and position adjusting program
JPH10162145A (en) Arithmetic unit for calculating correction data of center coordinate data of registered pattern in pattern matching method, and laser plotting device using it
JP2017032649A (en) Projection type display device and projection type display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060405

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080303

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110321

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120321

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120321

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130321

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140321

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees