JP2018085553A - プロジェクターシステム - Google Patents
プロジェクターシステム Download PDFInfo
- Publication number
- JP2018085553A JP2018085553A JP2016225730A JP2016225730A JP2018085553A JP 2018085553 A JP2018085553 A JP 2018085553A JP 2016225730 A JP2016225730 A JP 2016225730A JP 2016225730 A JP2016225730 A JP 2016225730A JP 2018085553 A JP2018085553 A JP 2018085553A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- projector
- imaging unit
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 53
- 238000003384 imaging method Methods 0.000 claims description 173
- 230000002452 interceptive effect Effects 0.000 abstract description 18
- 238000012986 modification Methods 0.000 description 28
- 230000004048 modification Effects 0.000 description 28
- 238000000034 method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000000052 comparative effect Effects 0.000 description 10
- 239000004973 liquid crystal related substance Substances 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000009434 installation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 208000034530 PLAA-associated neurodevelopmental disease Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
【課題】インタラクティブなプロジェクターを実現するに際して、投射画面上における検出対象についての位置検出精度が高いプロジェクターシステムを提供すること。【解決手段】撮像部50において魚眼レンズ30を適用することで、広い検出範囲を撮像可能としつつ、魚眼レンズ30を用いることで撮像した投影領域の画像が歪んでも、矩形のセンサー部としての撮像素子40を傾けていることで、被照射領域(投影領域)PLaの画像を撮像素子40のエリア内一杯に広げ、各位置を大きく映し出す。【選択図】図3
Description
本発明は、投射画面上にある指等の指示体を検出してこれを投射画像の内容に反映させることで書き込みができるいわゆるインタラクティブなプロジェクターを実現するためのプロジェクターシステムに関する。
インタラクティブなプロジェクターとして、例えば投射画面(スクリーン)のほぼ全体に、赤外光の層を形成するように射出させる光出射装置を、プロジェクターの投射機構とは別個に設け、当該光出射装置からの赤外光が、指示体の先端(例えば、指先)で反射され、この反射光を撮像部等の位置検知装置で検出することをもって指示体による指示操作を検出し、インタラクティブ機能を達成するものも知られている(例えば特許文献1参照。)。
また、インタラクティブなプロジェクターとして、例えば投射画面上を指し示すポインティングデバイスから射出される赤外光を撮像装置で検出するとともに当該赤外光の投射画面上での発光位置を特定することで上記のようなインタラクティブ機能を達成するものが知られている(例えば特許文献2参照。)。
しかしながら、インタラクティブなプロジェクターの構成では、利用者が投射画面(スクリーン)に近づいて位置を指し示して使用しても、利用者の影がスクリーンに映りにくいように斜め投射(近接投射)としていることが多い。このため、広画角の撮像装置が求められる。この場合、検出範囲のうち特に周辺側では、検出箇所の画像が歪められて小さくなってしまい、誤検出や不検出を生じてしまう、すなわち位置検出の精度が低下する可能性が高くなる。この場合、インタラクティブなプロジェクターでは、例えば描画位置が指示体としてのペンのペン先とずれてしまい、意図した位置にきちんと画が描けない、といったことが生じてしまうことになる。
本発明は、インタラクティブなプロジェクターを実現するに際して、投射画面上における検出対象についての位置検出精度が高いプロジェクターシステムを提供することを目的とする。
上記目的を達成するため、本発明に係るプロジェクターシステムは、画像光を斜方投射するプロジェクター本体部と、魚眼レンズと魚眼レンズを介して受光する矩形のセンサー部とを有してプロジェクター本体部からの画像光の投影領域を撮像する撮像部とを備え、矩形のセンサー部は、プロジェクター本体部からの画像光によって投影領域に形成される矩形の投射画像に対して傾いている。
上記プロジェクターシステムでは、撮像部において魚眼レンズを適用することで、広い検出範囲を撮像可能としつつ、魚眼レンズを用いることで撮像した投影領域の画像が歪んでも、矩形のセンサー部を傾けていることで、投影領域を撮像した画像を矩形のセンサー部のエリア内一杯に広げた際に、撮像された投影領域の各位置をより大きく映し出すことができるので、位置検出精度を向上させることができる。
本発明の具体的な側面によれば、撮像部は、魚眼レンズとして等距離射影方式のレンズを有する。この場合、等距離射影方式を採用することで、斜方投射による近接した投影領域を撮像部によって撮像するに際して、十分に広画角なものにできる。
本発明の別の側面によれば、撮像部は、魚眼レンズとして立体射影方式のレンズを有する。この場合、立体射影方式を採用することで、画像の周辺部における歪みを抑えつつ広画角化を図ることができる。
本発明のさらに別の側面によれば、撮像部は、赤外光波長帯域の光を、画像光の波長帯域以外の波長帯域の検出光として検出する。この場合、赤外光波長帯域の光を利用して画像光以外の光を検出光として検出させることができる。
本発明のさらに別の側面によれば、撮像部は、プロジェクター本体部からの画像光の投影領域を含む立体的領域を撮像して立体的領域に存する指示体を検出可能にする。この場合、投影領域のみならず投影領域を含む立体的領域まで撮像可能となる。
本発明のさらに別の側面によれば、撮像部は、2以上のカメラを含む。この場合、例えば視差情報が取得可能となる。
本発明のさらに別の側面によれば、撮像部は、2以上のカメラとして、プロジェクター本体部からの画像光の射出方向に交差する方向に離間して設けられる一対のカメラを有し、当該一対のカメラにそれぞれ設けた矩形のセンサー部は、異なる向きに傾いている。この場合、当該一対のカメラを構成する各カメラにおいて、設置位置に応じて投影領域をより大きく映し出すことができる。
本発明のさらに別の側面によれば、撮像部は、0°〜15°の範囲内のあおり角で傾いている。この場合、撮像部の広画角化を抑制できる。
本発明のさらに別の側面によれば、撮像部で取得した画像光の情報に基づく画像投射位置と、撮像部により検出された位置とを特定し、特定した位置関係に基づく画像投影の制御を行うプロジェクター制御部をさらに備える。この場合、プロジェクター制御部によって、画像投射位置と撮像部により検出された位置とを対応づけて、例えば検出された位置の動きを投射画面上に書き込むといったインタラクティブなプロジェクターの動作が可能になる。なお、プロジェクター制御部については、例えばプロジェクター本体部に組み込まれる場合のほか、プロジェクター本体部に接続されるPCがプロジェクター制御部として機能する等種々の態様が考えられる。
本発明のさらに別の側面によれば、プロジェクター本体部は、撮像部により検出された位置の情報を反映した画像投射を行う。この場合、検出された位置の情報を反映させたインタラクティブな画像投射が可能になる。
〔第1実施形態〕
以下、図面を参照して、本発明の第1実施形態に係るプロジェクターシステムについて説明する。
以下、図面を参照して、本発明の第1実施形態に係るプロジェクターシステムについて説明する。
図1等に示すプロジェクターシステム500は、画像光である投射光PLを投射(斜方投射)して画像投射を行うプロジェクター100で構成されている。なお、投射光PLの被照射領域PLaは、例えばスクリーンSC上に形成される。被照射領域PLaは、プロジェクター100からの投射光(画像光)PLの投影領域に相当する。また、図示を省略するが、プロジェクターシステム500は、プロジェクター100のほか、例えばPC等が接続されることで構成され、必要に応じて当該PCが各種処理をすることで被照射領域PLaでの表示画面上への書込みを受け付けるインタラクティブな状況での画像動作を可能にしている。プロジェクターシステム500のうち、プロジェクター100は、スクリーンSCの斜め上方に設置され、斜め下方のスクリーンSCに向けて近接投射をする短焦点タイプ(ここでは、いわゆる超短焦点近接投射となっている。)のプロジェクターであり、画像投射を行うための本体部分であるプロジェクター本体部100pと、撮像部50とで構成されている。
プロジェクター本体部100pは、スクリーンSCに向けて可視光波長帯域の光を合成して構成される画像光である投射光PLを投射して投影画像(カラー画像)の形成を行う。プロジェクターシステム500において、インタラクティブな画像投射を可能にするためには、投射画面上における指示体の位置を特定するための位置合わせ(キャリブレーション)がなされていることが前提となる。このキャリブレーションについては、図8を参照して後述する。
プロジェクター本体部100pは、詳細な図示を省略するが、光源や光変調装置、投射光学系等を備え、スクリーンSCに対する画像投影を行う。このため、例えば図2に示すように、プロジェクター本体部100pは、投射光学系を含む画像投影部90と、プロジェクター制御部CTとを有し、プロジェクター制御部CTにより画像投射等の各種動作制御がなされている。また、特に、プロジェクター制御部CTは、撮像部50からの情報を撮像部50の通信部82を介して受け付け可能とし、撮像部50からの情報を加味して投射させる画像の内容を修正することで画面上に書込みができるものとなっている、すなわちインタラクティブな画像投射を可能としている。
プロジェクター本体部100pを構成する光学系については、種々の態様が可能であるが、例えば光源等については、種々の構成のものが適用可能であり、例えばレーザー光源やLED光源、さらに有機EL(O−LED)を利用することも可能である。特に、有機EL素子等の自発光型の光源を適用した場合、光源が光変調の役割も兼ねた映像装置として構成できる。なお、光源(バックライト)と光変調とを個別の構成とする場合、光変調装置については、例えば透過型の液晶パネルとすることができる。
撮像部50は、プロジェクター本体部100pにより投射された投射画像を撮像して画像情報を取得するセンサー装置である。本実施形態では、特に、撮像部50は、プロジェクター本体部100pの側方(左側)に配置されている。撮像部50(もしくは撮像部50を構成するカメラ)は、例えば撮像レンズのほか、受光素子(撮像素子)すなわち受光用のセンサー、や通信部82(図2参照)による他の装置への送信等を含む各種制御を行う制御装置といったものを備えている。特に、本実施形態では、撮像レンズとして、いわゆる魚眼レンズを備えている。
以下、図3を参照して、撮像部50の構成や撮像範囲に関して一例を説明する。図示のように、本実施形態においては、撮像部50は、撮像レンズとしての魚眼レンズ30と、受光用のセンサーである撮像素子40とを有している。すなわち、撮像対象である被照射領域PLa上の投射画像を、魚眼レンズ30を介して取り込みつつ撮像素子40上に結像させている。なお、撮像素子40は、矩形のセンサー部である。本実施形態では、魚眼レンズ30として、次式で規定されるいわゆるfθレンズを用いた等距離射影方式を採用する。
y=f・θ
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
この場合、撮像画像において、特に周辺側で歪み(圧縮)が発生するものの、広画角にできる、すなわち撮像範囲を広げて十分広い検出範囲を確保できる。さらに、本実施形態では、矩形のセンサー部である撮像素子40は、被照射領域PLa上に映し出される矩形の投射画像(投射画面)に対して傾くように配置されている。なお、撮像素子40の傾きについて詳しくは図6A等を参照して後述する。
y=f・θ
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
この場合、撮像画像において、特に周辺側で歪み(圧縮)が発生するものの、広画角にできる、すなわち撮像範囲を広げて十分広い検出範囲を確保できる。さらに、本実施形態では、矩形のセンサー部である撮像素子40は、被照射領域PLa上に映し出される矩形の投射画像(投射画面)に対して傾くように配置されている。なお、撮像素子40の傾きについて詳しくは図6A等を参照して後述する。
また、ここで、撮像部50(撮像部50を構成するカメラ)の光軸AXは、プロジェクター本体部100pの被照射面であるスクリーンSCに対して垂直ではなく、下方に少し傾いている。すなわち、撮像部50は、あおりを付けた状態で撮像を行っている。この場合、適度にあおり角度を増加させることで、あおり角がない(0°)の場合に比べて撮像に必要となる最大画角を小さくできる。ここでは、あおり角αは、0°〜15°とする。例えば、撮像部50が十分広画角なものであれば、あおり角がない状態であってもよい。なお、ここでは、一例として、あおり角α=10°とする。
図1等に戻って、プロジェクター本体部100pにおいて、プロジェクター制御部CT(図2参照)は、撮像部50での撮像により取得した画像情報に含まれる検出された指示体(後述する赤外光を発生するペンや利用者の指先等)の位置情報を反映させた画像を画像投影部90(図2参照)により投影させる。なお、撮像部50は、プロジェクター100の投影画像位置を把握するための構成として、その役割を果たすため、例えばプロジェクター本体部100pによる画像投影における投射角度や投射距離等に対応した角度等にカメラのレンズが向いているように配置されている。すなわち、プロジェクター100の設置環境が変わって投射距離等が変化してもプロジェクター本体部100pと撮像部50との位置関係に変化が生じないあるいは生じても画像の補正等が可能な程度にわずかなものとなるようにしている。
また、プロジェクター本体部100pは、撮像部50により取得された画像情報に基づいて、プロジェクター本体部100pを構成する画像形成部(光変調における画素マトリクス)の画素と撮像部50に内蔵される撮像素子(受光用のセンサー)の画素との位置関係を対応付けるキャリブレーションを可能にしている。
なお、撮像部50は、プロジェクター100を構成する一部として組み込まれるものとすることもできるが、例えば、撮像部50は、プロジェクター100とは別体の撮像装置として存在するものとしてもよい。
ここで、図1を参照して、以上のような構成のプロジェクター100によるインタラクティブな状況での画像投射を簡単に説明する。まず、スクリーンSC上あるいはその近傍において、上記のような投射光PLのほかに、利用者HUが保持するペン70の先端部TPから赤外光(すなわち投射光PLの波長帯域以外の波長帯域)ILが射出される。赤外光ILの一部が撮像部50において検出光DLとして検出されることで、利用者HUによる画面上の指示位置を特定するものとなっている。例えば、ペン70の先端部TPがスクリーンSCに触れると赤外光ILが光ったり点滅周波数が変わったりする。これをカメラで構成される撮像部50によって検出することで、スクリーンSC上での指示位置が認識されたり、描画する線の種類等が決定されたりする。なお、発光する指示体としてのペン70の点灯形状等については、種々の態様が考えられるが、ここでは、一例として、発光位置を示す先端部TPの発光点の大きさが直径5mm程度の円形状であるものとする。この場合、位置検出装置としての撮像部50は、被照射領域PLa上における直径5mmの円の位置を特定可能な程度の精度で位置検出が可能な画像情報の取得ができるようになっている必要がある。
以下、図4等を参照して、一例のプロジェクターによる画像投影についての具体的一構成例(具体的仕様)について説明する。まず、図4A及び4Bを参照して、プロジェクター100の超短焦点近接投射の度合について説明する。図4Aに示すように、プロジェクターにおけるスローレシオは、例えば図示の投射距離f1と、被照射領域PLaの横サイズHSとでf1/HSで表される。ここでの一例では、スローレシオは、約0.27とする。具体的には、投射距離f1は441mmであるものとし、横サイズHSの値を規定する被照射領域PLaのサイズは、70インチ(アスペクト比16:10)とする(すなわち、プロジェクター100は、70インチの画像を形成する)。なお、図4Bに示すように、この場合において、被照射領域PLaの周辺側の各点への投射光PLの投射角度を示している。この一例では、以上のような具体的仕様により超短焦点近接投射を行っている。
図5は、上記具体的一例の画像投射における撮像部50の位置と撮像範囲の寸法について示す図である。図5では、被照射領域PLaと撮像部50を構成するカメラのカメラ位置Paとの関係を示している。図5のうち、左側は、正面側から見た位置関係についての寸法を示す図であり、右側は、側面(横)側から見た位置関係についての寸法を示す図である。ここでは、図5に示すように、カメラ位置Paは、被照射領域PLaの左上方であり、例えば水平方向については、投射光PLの投射位置から左側に30cmほど離間している。この場合、カメラ位置Paからは、被照射領域PLaの右下側の位置SPが、撮像において最も周辺側となる。すなわち、当該箇所におけるペン70等の発光位置の検出が確実に行えるものとする必要があることになる。
以上に示す具体的一構成例のように、超短焦点近接投射であって、特に魚眼レンズによって撮像部における画角を確保する場合、検出箇所の画像が歪められて小さくなりすぎたり、これに伴って誤検出や不検出を生じてしまったりする、すなわち位置検出の精度が低下するおそれがある。これを抑制すべく、本実施形態では、矩形のセンサー部である撮像素子40を被照射領域PLaにおける矩形の投射画像(投射画面)に対して傾けた配置としていることで、位置検出精度を向上させ、かかる事態を回避している。
以下、図6A等を参照して、本実施形態におけるプロジェクター100の各部の投射画像に対する位置について説明することで、特に撮像素子40の傾斜配置について説明する。ここで、図6A〜6Cは、本実施形態におけるプロジェクター100の各部と投射画像との位置関係や、撮像部50により撮像されたセンサー上での画像の様子、さらには、撮像部50により撮像された撮像素子(センサー)40上のうちの画像の一部を例示するものである。これに対して、図7A〜7Cは、一比較例の図であり、本実施形態の図6A〜6Cに対応する図である。図6Aとこれに対応する図7Aとを比較すると明らかなように、本実施形態では、矩形の撮像素子40を矩形の被照射領域PLaとして示される投射画像(投射画面)に対して傾斜配置させているのに対して、図7A〜7Cに示す一比較例では、撮像素子40を傾斜させていない点が異なっている。
以下、図6A等に戻って、本実施形態に係る一例についてより詳しく説明する。図6Aは、既述のように、プロジェクター100を構成する各部と被照射領域PLaで示される投射画像(投射画面)との位置関係を概念的に示す正面図である。プロジェクター100は、図示のように、また、既述のように、被照射領域PLaに矩形の投射画面を形成するプロジェクター本体部100pと、プロジェクター本体部100pにより被照射領域PLaに形成された投射画像(投射画面)を撮像する撮像部50とを有している。そして、撮像部50は、プロジェクター本体部100pの左側(より詳しくは、図5におけるカメラ位置Paに相当する位置を光軸の位置とする位置)に配置されている。また、撮像部50は、魚眼レンズ30と魚眼レンズ30を介して受光する矩形のセンサー部である撮像素子40とを有している。ここでは、図示において、プロジェクター本体部100pの中央から投射光が射出されて正面にプロジェクター本体部100p対して左右対称な矩形の被照射領域PLaに投射画像(投射画面)が形成されているものとする。これに対して、図示のように、撮像部50における矩形の撮像素子40は、被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して傾いたものとなっている。言い換えると、撮像素子40の周辺を縁取りした矩形枠40fとし、被照射領域PLaを縁取りした(すなわち投射画像(投射画面)を縁取りした)矩形枠PLfとし、これらを比較すると、矩形枠PLfの各辺が水平方向及び垂直方向(X方向及びY方向)に沿って延びているのに対して、矩形枠40fの各辺は、水平方向及び垂直方向から傾斜した方向に沿って延びている。いわば、矩形枠PLfを基準とした場合に、矩形枠40fは、矩形枠PLfに対して所定の角度右回転させた状態となるように傾斜(あるいはZ軸回転)している。ここで、図5を参照して説明したように、撮像部50(カメラ位置Pa)は、図中プロジェクター本体部100pの左側に位置している。したがって、被照射領域PLa全体において精度の高い位置検出を行うためには、被照射領域PLaのうち撮像部50から最も遠い箇所となる右下側の位置SP(以下、評価ポイントとも呼ぶ。)における位置検出の精度が最も問題となると考えられる。本実施形態では、上記のように、撮像素子40を所定の角度だけ傾けることで、評価ポイントである位置SPを含めた被照射領域PLa全体を撮像素子40のセンサーエリア内に収めつつできるだけ大きく映し出すことを可能にし、精度の高い位置検出を可能としている。
図6Bは、上述した位置(図5のカメラ位置Paに相当)にある撮像部50(カメラ)によって撮像された画像、すなわち撮像部50に内蔵された受光用のセンサーである撮像素子40上での画像PIの様子を示す図である。なお、ここでは、撮影された映像は、上下左右が反転しているため、スクリーンSCの右下の映像は、センサー上の画像において左上に来ている。したがって、図示の画像PIにおいて、スクリーンSC上の被照射領域PLaに対応する映像画像PLiのうち左上の隅にある画像点SPiが、図6Aの位置(評価ポイント)SPに対応する。すなわち、映像画像PLiの領域のうち画像点SPi及びその近辺が、最も歪み、指示体の検出が最も困難になる箇所であると考えられる。
ここで、前提として、スクリーンSC上の被照射領域PLaの全体を撮像可能とするためには、撮像素子40において、映像画像PLiが、センサー上のエリアSEのうち有効撮像範囲であるアクティブエリアAE内に収まっているようにする必要がある。なお、ここでの一例では、アクティブエリアAEのサイズを、4.48mm×3.2mmとする。
また、ここで、図示のように、元々矩形領域であった被照射領域PLaを映した映像画像PLiは、魚眼レンズ30を歪めて撮像されたものとなっている。このため、図示のように、映像画像PLiの形状は矩形ではなく歪んでいる。さらに、撮像部50は、プロジェクター100の中央から左側に外れた位置に配置されている。このため、映像画像PLiの形状は、左右対称でもない。このような形状の画像(画像部分)を、仮に撮像素子40を傾けることなく取り込もうとすると、例えば比較例の図7Bに示すとおり、最も長い曲線部分LL1が矩形の横(水平)方向の範囲内に収まるように、映像画像PLiの画像全体を小さくしなければいけない。これに対して、本実施形態では、映像画像PLiの形状に応じた所定の角度だけ撮像素子40を傾けていることで、図6Bに示すように例えば最も長い曲線部分LL1を斜め方向に収めればよいことになる。したがって、図6Bの撮像素子40が図7Bの撮像素子40と同じ大きさ(例えば4.48mm×3.2mm)であった場合には、図6Bの撮像素子40のほうが、より大きく映像画像PLiを映し出せる、延いては画像点SPi及びその近辺をより大きく映し出せることになる。ただし、既述のように、図6Bの撮像素子40においても、映像画像PLiの全体をアクティブエリアAE内に収める必要があることには変わりがない。すなわち、映像画像PLiについて、曲線部分LL1のみならず、他の曲線部分や被照射領域PLaの四隅に対応する点等がアクティブエリアAE内に収まっている必要がある。上記具体的一構成例の場合では、映像画像PLiを収めつつ全体を最も大きく映し出すための撮像素子40の傾斜角度は、18.2°であった。また、この時の撮像部50(カメラ)の焦点距離fは、f=2.31であった。
図6Cは、図6Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像GGを示している。このため、図示のように、画像GGは、円を歪めた楕円状となっている。上記具体的一構成例の場合、撮像素子40上での画像GGの面積は、14.1μm2であった。
図7A〜7Cは、既述の通り、本実施形態の比較例であり、撮像素子40を傾けていない場合(撮像素子40の傾斜角度が0°の場合)についての例示である。なお、具体的一構成例(具体的仕様)としては、本実施形態において示した場合と同様であるものとする。すなわち、撮像部50が、本実施形態の場合と同等の魚眼レンズ30(等距離射影方式)及び撮像素子40(アクティブエリアAEが4.48mm×3.2mm)で構成されるものとする。ただし、撮像素子40の焦点距離fについては、映像画像PLiの全体をアクティブエリアAE内に収める必要があるという観点から異なるものとなる。図7Aに示す構成の比較例では、図7Bに示す画像PIの撮像において、撮像部50(カメラ)の焦点距離fは、f=2.18であった。つまり、図6Bに示す場合よりも焦点距離fが小さく、映像画像PLiが小さいことが分かる。また、図7Cに示す撮像素子40上での画像GGの面積は、12.6μm2であった。すなわち、本実施形態と比較して、映像画像PLi(画像点SPi)が小さくなっていることが分かる。この場合、特に画像点SPiやその近辺での誤検出、不検出の可能性が高まる。これに対して、本実施形態では、撮像素子40を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像PLiの各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。
なお、以上のような撮像素子40の配置に関して、例えば図6Aを例示として考察した事項について、プロジェクター本体部100pとの関係で捉えることもできる。例えばプロジェクター本体部100pが、図示のように、矩形の液晶パネルLCが中央に配置されているものとし、さらに、この液晶パネルLCにおいて光変調された変調光を正面から投射することで投射光を形成するものであるとする。この場合、矩形の液晶パネルLCに対して撮像素子40が所定の角度傾いていることになる。なお、以上は一例であり、光路中においてミラー等が配置され撮像素子40や液晶パネルLCの位置が上記と異なっているような場合や、プロジェクター本体部100pが液晶パネル以外の方式で画像投射を行う場合であっても、形成される投射画像と撮像素子との関係において上記と同様の構成とすることができる。
以下、図8を参照して、インタラクティブな画像投射を可能にするための前提となる位置合わせの処理であるキャリブレーションについて説明する。図8は、プロジェクター本体部100pによる画像投影のうち、特に、上述のようなキャリブレーションの処理を行うために、キャリブレーション時のパターン画像を投影する様子を示している。本実施形態では、まず、プロジェクター本体部100pによる画像投射(投影)によってスクリーンSC上に映し出される映像の範囲を示すパターン画像PTを、ここでは画像光である投射光PLに含まれる可視光波長帯域の成分のうち緑色波長帯域の光で構成されるパターン画像光GLによって投影するものとする。撮像部50において、パターン画像光GLの一部の成分を受光することで、パターン画像PTに関する画像情報が取得され、この情報に基づき画像投射位置の特定がなされる。具体的には、まず、撮像部50は、撮像したパターン画像PTの画像情報をプロジェクター本体部100pに対して送信する。次に、プロジェクター本体部100pは、撮像部50で取得したパターン画像PTの情報と、光変調における画素マトリクスの情報との対応付けを行う。すなわち、撮像部50で撮像されたパターン画像PTの受光用のセンサー上での各位置とプロジェクター本体部100pの光変調における画素マトリクス状の各位置すなわち投影された画像上の位置とを対応付ける。対応付けは、例えば、ピクセル単位で行うものとしてもよい(例えば対応するテーブルを作成するものとしてもよい)が、例えば対応付ける関数を定めることで、対応付けの処理を可能にするものとしてもよい。
以上のように、プロジェクター本体部100pは、撮像部50で取得したパターン画像PTの情報に基づく画像投射位置と、光変調の画素の位置とを対応付けることで、キャリブレーション(位置合わせ)を行っている。キャリブレーション後は、キャリブレーションでの対応付けに基づいて、撮像部50で検出されたペン70の発光位置等の指示体による指示位置の特定が可能となり、これを反映したインタラクティブな画像投射が可能となる。
以下、図9を参照して本実施形態の一変形例について説明する。本変形例では、撮像素子40を傾ける向き以外については、上記一例と同様であるので、全体の説明については、省略する。また、図9A〜9Cは、図6A〜6Cに対応する図である。すなわち、図9A〜9Cは、本変形例におけるプロジェクター100の各部と投射画像との位置関係や、撮像部50により撮像されたセンサー上での画像の様子、さらには、撮像部50により撮像された撮像素子(センサー)40上のうちの画像の一部を例示するものである。
上記一例では、図6A等に示すように、撮像部50における矩形の撮像素子40を被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度(18.2°)だけ、右回転させた状態となるように傾斜させていた。これに対して、本変形例では、図9A等に示すように、撮像素子40を所定の角度左回転させた状態となるように傾斜させている。
図9Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子40の傾斜角度は、上記具体的一構成例の場合では、27.0°であった。また、この時の撮像部50(カメラ)の焦点距離fは、f=2.32であった。
図9Cは、図9Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像GGを示している。このため、図示のように、画像GGは、円を歪めた楕円状となっている。上記具体的一構成例の場合、撮像素子40上での画像GGの面積は、14.2μm2であった。
上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fや画像GGの面積からすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。ただし、構成例(仕様)が変わる場合には、傾ける方向によって差が生じる場合もあり得るので、このような場合にはより適したほうを選択すればよい。
以上のように、本変形例においても、撮像素子40を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像PLiの各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。
以上のように、本実施形態に係るプロジェクターシステム500では、撮像部50において魚眼レンズ30を適用することで、広い検出範囲を撮像可能としつつ、魚眼レンズ30を用いることで撮像した投影領域の画像が歪んでも、矩形のセンサー部としての撮像素子40を傾けていることで、被照射領域(投影領域)PLaの画像を撮像素子40のエリア内一杯に広げることができる、すなわち各位置を大きく映し出すことができる。これにより、誤検出や不検出を抑制し、位置検出精度を向上させることができる。
〔第2実施形態〕
以下、図10等を参照して、第1実施形態を変形した第2実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部において採用する魚眼レンズの射影条件を除いて、第1実施形態と同様の構成であるので、プロジェクターシステム全体についての詳細な説明を省略する。具体的一構成例(具体的仕様)についても、第1実施形態において示した場合と同様であるものとする。
以下、図10等を参照して、第1実施形態を変形した第2実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部において採用する魚眼レンズの射影条件を除いて、第1実施形態と同様の構成であるので、プロジェクターシステム全体についての詳細な説明を省略する。具体的一構成例(具体的仕様)についても、第1実施形態において示した場合と同様であるものとする。
図10A〜10Cは、本実施形態におけるプロジェクターの各部と投射画像との位置関係や、撮像部により撮像されたセンサー上での画像の様子、さらには、撮像部により撮像された撮像素子(センサー)上のうちの画像の一部を例示するものである。すなわち、図10A〜10Cは、第1実施形態における図6A〜6Cに対応する図である。
本実施形態では、プロジェクター200のうち、撮像部150における魚眼レンズ130として、次式で規定される立体射影方式を採用する。
y=2f・tan(θ/2)
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
この場合、第1実施形態で適用した等距離射影方式に比べて、撮像画像において、特に周辺側で歪み(圧縮)の発生を抑制しつつ、広画角化を図ることができる。すなわち撮像範囲を広げて十分広い検出範囲を確保できる。
y=2f・tan(θ/2)
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
この場合、第1実施形態で適用した等距離射影方式に比べて、撮像画像において、特に周辺側で歪み(圧縮)の発生を抑制しつつ、広画角化を図ることができる。すなわち撮像範囲を広げて十分広い検出範囲を確保できる。
図10A等に示すように、本実施形態では、撮像素子140を被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。
また、図10Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子140の傾斜角度は、上記具体的一構成例の場合では、17.8°であった。また、この時の撮像部150(カメラ)の焦点距離fは、f=2.08であった。
ここで、撮像素子140を傾けていない場合(撮像素子140の傾斜角度が0°の場合)と比較する。例えば、既述のように、本実施形態における焦点距離fは、f=2.08であった。これに対して、撮像素子140を傾けていない場合における焦点距離fは、f=1.98であった。また、第1実施形態と同様に、図10Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像の面積は、18.4μm2であった。これに対して、撮像素子140を傾けていない場合では、対応する画像の面積は、16.6μm2であった。すなわち、本実施形態では撮像素子140を傾けていない場合と比較して、映像画像PLi(画像点SPi)が大きくなり、本実施形態の方が位置検出精度が高くできるといえる。
以下、図11を参照して本実施形態の一変形例について説明する。本変形例では、図11Aに示すように、撮像素子140を所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。
本変形例において、図11Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子140の傾斜角度は、上記具体的一構成例の場合では、26.4°であった。また、この時の撮像部150(カメラ)の焦点距離fは、f=2.08であった。
さらに、図11Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像の面積は、18.4μm2であった。
つまり、本実施形態における上記具体的一構成例の場合では、傾ける方向による差は見られなかった。
以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。
〔第3実施形態〕
以下、図12等を参照して、第1実施形態等を変形した第3実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部として複数(2以上)のカメラを搭載しており、指示体による指示位置の検出において、当該指示体を立体的形状として捉えるものとなっている(ペンによる赤外光の発光等を要せずにインタラクティブが実現可能である)点において、第1実施形態等の場合と異なっている。ただし、キャリブレーションについては、複数のカメラにおいて個々に行うことを除いては、第1実施形態の場合と同様であるので説明を省略する。また、以下において、第1実施形態等と同符号のものについては、機能等が同じであり、説明を省略する。
以下、図12等を参照して、第1実施形態等を変形した第3実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部として複数(2以上)のカメラを搭載しており、指示体による指示位置の検出において、当該指示体を立体的形状として捉えるものとなっている(ペンによる赤外光の発光等を要せずにインタラクティブが実現可能である)点において、第1実施形態等の場合と異なっている。ただし、キャリブレーションについては、複数のカメラにおいて個々に行うことを除いては、第1実施形態の場合と同様であるので説明を省略する。また、以下において、第1実施形態等と同符号のものについては、機能等が同じであり、説明を省略する。
以下、図12等を参照して、本実施形態のプロジェクターシステム600について説明する。プロジェクターシステム600は、画像光である投射光PLを投射(斜方投射)して超短焦点近接投射による画像投射を行うプロジェクター300で構成されている。なお、プロジェクター300のほか、例えばPC等が接続され得ること等については、第1実施形態等の場合と同様とする。プロジェクター100は、プロジェクター本体部100pと、撮像部250とで構成されている。
撮像部250は、離間して配置された2つ(複数)のカメラ250a,250bで構成されている。カメラ250a,250bは、同一規格の一対構成となっており、プロジェクター本体部100pによる投射光PLの投射位置に対して投射光PLの投射方向に交差する方向に対称な位置に配置されている。すなわち、カメラ250a,250bは、プロジェクター本体部100pのうち画像光である投射光PLの射出方向に交差する方向に離間して設けられる一対のカメラである。なお、各カメラ250a,250bは、第1実施形態に示した撮像部50(図1等参照)を構成するカメラと同様の構造を有している。すなわち、魚眼レンズ230a,230b(図13等参照)と矩形のセンサー部である撮像素子240a,240b(図13等参照)とをそれぞれ有しており、各撮像素子240a,240bは、投射画像(投射画面)に対して傾いている。以上のような複数のカメラ250a,250b(ステレオカメラ)を有することで、プロジェクター300は、視差情報(或いはステレオ画像)を取得可能となっている。すなわち、立体視によるより高度な位置検出が可能となっている。プロジェクター制御部CT(図2参照)は、カメラ250a,250bでの撮像により取得した画像情報に基づく視差情報により検出された指示体(図例のような利用者の指先等)OBの位置情報を反映させた画像を画像投影部90(図2参照)により投影させる。
以下、図13等を参照して、撮像部250を構成する各カメラ250a,250bの撮像範囲に関して説明する。なお、既述のように、カメラ250a,250bは、魚眼レンズ230a,230bと、撮像素子240a,240bとをそれぞれ有する。図13では、カメラ250aとカメラ250bとの対称性により1つのカメラのみを図示するとともに説明し、他方については説明を省略する。なお、図示のように、本実施形態においても、カメラ250b(又はカメラ250a)の光軸AXは、プロジェクター本体部100pの被照射面であるスクリーンSCに対して垂直ではなく、下方に少し傾いている。すなわち、撮像部50を構成する各カメラ250a,250bは、必要に応じて、あおりを付けた状態で撮像を行っている。なお、ここでは、一例として、あおり角α=10°とする。
本実施形態では、検出対象である指示体(指先)OBを2つのカメラ250a,250bによって視差を利用した立体的な検出を可能としている。すなわち、スクリーンSCをタッチする利用者の指手を撮像して奥行きのある立体的形状として捉えるための情報を得る必要がある。このため、スクリーンSC上の投影領域である被照射領域PLaに加え、被照射領域PLaを含む立体的領域を含むように撮像を行っている。本実施形態では、一例として、図14に示すように、スクリーンSCから垂直方向(奥行き方向)について、距離dだけ離れた範囲までを撮像範囲たる立体的領域CDとする。ここでは、指の先端から手首くらいまでを撮像できるように、距離dを160mm(16cm)とする。この場合、図14に示すように、立体的領域CDは、被照射領域PLaを底面とし、距離dを厚みとする直方体状の領域となる。したがって、撮像部250(カメラ250a,250b)の撮影範囲は、被照射領域PLaのみとした場合に比べてさらに広がり、特に広画角化する必要がある。
図15は、上記具体的一例の画像投射における撮像部250を構成するカメラ250bの位置と撮像範囲の寸法について示す図である。なお、図15は、第1実施形態における図5に対応する図である。撮像部250のうちもう1つのカメラ250aについては、左右の位置を逆転させたものとなるだけで同様の考察が可能であるため、図示及び説明を省略する。図15のうち、左側は、正面側から見た位置関係についての寸法を示す図であり、右側は、側面(横)側から見た位置関係についての寸法を示す図である。カメラ250bのカメラ位置Paは、被照射領域PLaの左上方であり、例えば水平方向については、投射光PLの投射位置から左側に30cmほど離間している。
なお、図示のように、検出範囲である立体的領域CDの上端面の領域を検出領域DD1とすると、これに対応するスクリーンSC上の領域は、破線で示す領域DLaとなる。すなわち、撮像部50は、検出領域DD1での検出を可能とするためには、スクリーンSC上で換算して領域DLaとなるような範囲についてまで撮像可能となっている必要がある。また、距離dの値が大きくなる(検出領域DD1が被照射領域PLaから遠くなる)につれて、領域DLaは急激に大きくなる。本構成では、超短焦点近接投射を行っているためである。以上のように、距離dの値が大きくなるほど、撮像部50を広画角化させる必要性が生じる。
図16A及び16Bは、本実施形態におけるプロジェクター300の各部と投射画像との位置関係や、撮像部250(カメラ250a,250b)により撮像されたセンサー上での画像の様子を例示するものである。すなわち、図16A及び16Bは、第1実施形態における図6A及び6B等に対応する図である。
本実施形態では、プロジェクター300のうち、撮像部250における魚眼レンズ230a,230bとして、次式で規定される等距離射影方式を採用する。
y=f・θ
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
y=f・θ
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
なお、図16A等では、左右の対称性から、撮像部250のうちカメラ250bのみ表示しており、カメラ250aについては省略している。なお、カメラ250aとカメラ250bとの配置に関しては、図17を参照して後述する。
図16A等に示すように、本実施形態では、撮像素子240bを被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。
ここで、図16Bに示す画像PIにおいて、映像画像DDiは、図15の検出領域DD1に対応する画像である。本実施形態の場合、既述のように、図15等に示す立体的領域CDについて検出を行うことを要する。したがって、立体的領域CDを検出可能な範囲とするためには、カメラ250bは、映像画像PLiのみならず映像画像DDiまでが、アクティブエリアAE内に収まるようにする必要がある。このような条件下において、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子240bの傾斜角度は、上記具体的一構成例の場合では、20.9°であった。また、この時のカメラ250bの焦点距離fは、f=2.03であった。
なお、詳細は省略するが、本実施形態に対する比較例として撮像素子240bを傾けていない場合(撮像素子240bの傾斜角度が0°の場合)についての検証結果と比べて、本実施形態の方が優れていることが分かっている。なお、本実施形態のように、撮像素子を傾けることにより、傾けていない場合に比べて、像が大きくできるので位置精度を高くできる。
以下、図17を参照して、カメラ250aとカメラ250bとの配置のうち、特に撮像素子240aと撮像素子240bとの関係について説明する。既述のように、カメラ250aとカメラ250bとは、プロジェクター本体部100pを中央にして左右対称に配置されている。左右の対称性から、撮像素子240aにおける映像画像PLi,DDiは、図16Bに示す撮像素子240bのものとは左右反転したものとすることが望ましい。つまり、図17に示すように、撮像素子240aと撮像素子240bとでの傾斜角度についても左右反転させておくことが望ましい。具体的には、上記では、撮像素子240bを所定の角度(20.9°)だけ右回転させた状態となるように傾斜させているのに対応して、撮像素子240aを所定の角度(20.9°)だけ左回転させた状態となるように傾斜させておくべきであると考えられる。以上のように、一対のカメラ250a,250bにそれぞれ設けた撮像素子240a,240bは、異なる向きに同じ大きさの角度で傾いている。これにより、各カメラ250a,250bにおいて、設置位置に応じて被照射領域PLaをより大きく映し出すことができる。
以下、図18を参照して本実施形態の一変形例について説明する。本変形例では、図18Aに示すように、撮像素子240bを所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。
本変形例においては、図18Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子240bの傾斜角度は、上記具体的一構成例の場合では、30.1°であった。また、この時のカメラ250bの焦点距離fは、f=2.06であった。
上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fからすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。
なお、図19は、本変形例におけるカメラ250aとカメラ250bとの配置のうち、撮像素子240aと撮像素子240bとの関係について示す図である。本変形例においても、左右の対称性により、撮像素子240aと撮像素子240bとでの傾斜角度についても左右反転させておくことが望ましいと考えられる。すなわち、撮像素子240a,240bを、異なる向きに同じ大きさの角度で傾けることにより、各カメラ250a,250bにおいて、設置位置に応じて被照射領域PLaをより大きく映し出すことができる。
以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。
〔第4実施形態〕
以下、図20等を参照して、第3実施形態を変形した第4実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部において採用する魚眼レンズの射影条件を除いて、第3実施形態と同様の構成であるので、プロジェクターシステム全体についての詳細な説明を省略する。特に、撮像部を構成する一対のカメラについて一方を省略している。具体的一構成例(具体的仕様)についても、第3実施形態において示した場合と同様であるものとする。
以下、図20等を参照して、第3実施形態を変形した第4実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部において採用する魚眼レンズの射影条件を除いて、第3実施形態と同様の構成であるので、プロジェクターシステム全体についての詳細な説明を省略する。特に、撮像部を構成する一対のカメラについて一方を省略している。具体的一構成例(具体的仕様)についても、第3実施形態において示した場合と同様であるものとする。
図20A及び20Bは、本実施形態におけるプロジェクターの各部と投射画像との位置関係や、撮像部により撮像されたセンサー上での画像の様子、さらには、撮像部により撮像された撮像素子(センサー)上のうちの画像の一部を例示するものである。すなわち、図20A及び20Bは、第3実施形態における図16A及び16Bに対応する図である。
本実施形態では、プロジェクター400のうち、撮像部350における魚眼レンズ330bとして、次式で規定される立体射影方式を採用する。
y=2f・tan(θ/2)
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
y=2f・tan(θ/2)
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
なお、図20A等では、左右の対称性から、撮像部350のうちカメラ350bのみ表示しており、もう一方のカメラについては図示を省略している。
図20A等に示すように、本実施形態では、撮像素子340bを被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。
また、図20Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子340bの傾斜角度は、上記具体的一構成例の場合では、20.7°であった。また、この時のカメラ350bの焦点距離fは、f=1.78であった。
また、上記のほか、特に、立体射影方式とした場合、指示体OBの角度(姿勢)が変化しても各位置での幅(指幅)が変わらず一定値を取っていることが分かっている。
なお、詳細は省略するが、本実施形態に対する比較例として撮像素子340bを傾けていない場合(撮像素子340bの傾斜角度が0°の場合)についての検証結果と比べて、本実施形態の方が優れていることが分かっている。なお、本実施形態のように、撮像素子を傾けることにより、傾けていない場合に比べて、像が大きくできるので位置精度を高くできる。
以下、図21を参照して本実施形態の一変形例について説明する。本変形例では、図21Aに示すように、撮像素子340bを所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。
本変形例においては、図21Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子340bの傾斜角度は、上記具体的一構成例の場合では、29.7°であった。また、この時のカメラ350bの焦点距離fは、f=1.79であった。
上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fからすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。
以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。
〔その他〕
この発明は、上記の各実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
この発明は、上記の各実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
上記では、具体的一構成例(具体的仕様)に即して説明しているが、これはあくまで一例であり、構成例については種々の多様な場合が考えられる。
例えば、上記では、70インチの被照射領域(投影領域)を形成するものとしているが、70インチ以上(例えば70インチ〜120インチ程度)とすることが考えられる。また、近接投射に関して、スローレシオを約0.27としているが、例えば0.27以下とする構成にしてもよい。
例えば、上記では、プロジェクター100におけるカメラ位置は、水平方向について投射光PLの投射位置から左側に30cmほど離間しているものとしているが、カメラ位置についても種々の場合が考えられ、これに応じて撮像素子の傾斜角度も異なる。また、プロジェクターにおける投射距離を異なる値とすることも考えられる。
また、上記のうち例えば第3実施形態では、立体的領域CDの奥行き方向について、距離dを160mm(16cm)としているが、16cm以上とすることも考えられる。
また、上記のうち例えば第3実施形態では、撮像部250を構成する一対のカメラ250a,250bから取得された画像情報に基づく視差情報によって指示体を立体的形状として捉えることができる。この際、各カメラ250a,250bからの画像情報は、キャリブレーションでの対応付けに基づいてそれぞれ画像処理が施されるものとなる。この画像処理については、各カメラ250a,250bからの画像情報ごとに個別に行うものとしてもよいが、一対のカメラ250a,250bは、左右の対称性を有していることを利用して、一方の処理方法を、左右反転させて他方に転用するものとしてもよい。また、この場合、2つの画像処理を一括して行うものとしてもよい。
また、上記では、プロジェクター制御部CTや、プロジェクター100に接続可能なPC等において各種処理をなすものとして記載しているが、担わせる処理については、種々の態様が可能であり、例えば、撮像部50で取得した投射光PLの情報に基づく画像投射位置と、撮像部50により検出された検出光DLに基づく位置とを特定する等の処理をPC側で行うようにするといったことが考えられる。言い換えると、プロジェクター制御部CTにおける上記画像投射位置や指示体による指示位置を特定し、特定した位置関係に基づく画像投影の制御の一部又は全部をPC等の外部接続機器で行う(PC等がプロジェクター制御部を構成する)ものとしてもよい。また、逆に、PC等を接続せず、例えば、プロジェクター制御部CTにおいて全ての処理を担わせる構成(PCレス)とすることも可能である。
また、上記では、キャリブレーションにおいて、パターン画像PTを緑色波長帯域の光で構成されるパターン画像光GLによって投影するものとしているが、パターン画像PTの投影については、緑色波長帯域の光に限らず、他の波長帯域の光を利用することも考えられる。
また、上記では、プロジェクター本体部100pを構成する光源や光変調装置、投射光学系等については、図示や詳細な説明を省略しているが、種々の態様が適用可能であり、例えば光源に関しては、上記のほか、例えば高圧水銀ランプ等を利用し、3色の光源に分離して適用することも可能である。光変調装置については、上記のほか、例えば光変調装置についても液晶パネルにカラーフィルターを利用したものや、反射型液晶パネル、デジタル・マイクロミラー・デバイス等により構成するといった種々の態様が考えられる。
なお、等距離射影と立体射影とを比較すると、一般的には、立体射影の方が性能は良くなるが、設計や製造が難しくコストも高くなる傾向にあると考えられる。したがって、ペン先の発光点等を位置検出するような比較的検出精度を必要としない方式では等距離射影を採用し、指等の指示体の形状を検出することにより位置検出をする比較的検出精度が必要な方式では立体射影を採用する、といったことも考えらえる。
30…魚眼レンズ、40…撮像素子(センサー部)、40f…矩形枠、50…撮像部、70…ペン、82…通信部、90…画像投影部、100…プロジェクター、100p…プロジェクター本体部、130…魚眼レンズ、140…撮像素子(センサー部)、150…撮像部、200…プロジェクター、230a,230b…魚眼レンズ、240a,240b…撮像素子(センサー部)、250…撮像部、250a,250b…カメラ、300…プロジェクター、330b…魚眼レンズ、340b…撮像素子(センサー部)、350…撮像部、350a,350b…カメラ、400…プロジェクター、500…プロジェクターシステム、600…プロジェクターシステム、AE…アクティブエリア、AX…光軸、CD…立体的領域、CT…プロジェクター制御部、d…距離、DD1…検出領域、DDi…映像画像、DL…検出光、DLa…領域、f…焦点距離、f1…投射距離、GG…画像、GL…パターン画像光、HS…横サイズ、HU…利用者、IL…赤外光、LC…液晶パネル、LL1…曲線部分、Pa…カメラ位置、PI…画像、PL…投射光、PLa…被照射領域(投影領域)、PLf…矩形枠、PLi…映像画像、PT…パターン画像、SC…スクリーン、SE…エリア、SP…位置、SPi…画像点、TP…先端部、α…あおり角
Claims (10)
- 画像光を斜方投射するプロジェクター本体部と、
魚眼レンズと前記魚眼レンズを介して受光する矩形のセンサー部とを有して前記プロジェクター本体部からの画像光の投影領域を撮像する撮像部と
を備え、
前記矩形のセンサー部は、前記プロジェクター本体部からの画像光によって前記投影領域に形成される矩形の投射画像に対して傾いている、プロジェクターシステム。 - 前記撮像部は、前記魚眼レンズとして等距離射影方式のレンズを有する、請求項1に記載のプロジェクターシステム。
- 前記撮像部は、前記魚眼レンズとして立体射影方式のレンズを有する、請求項1に記載のプロジェクターシステム。
- 前記撮像部は、赤外光波長帯域の光を、画像光の波長帯域以外の波長帯域の検出光として検出する、請求項1〜3のいずれか一項に記載のプロジェクターシステム。
- 前記撮像部は、前記プロジェクター本体部からの画像光の投影領域を含む立体的領域を撮像して前記立体的領域に存する指示体を検出可能にする、請求項1〜3のいずれか一項に記載のプロジェクターシステム。
- 前記撮像部は、2以上のカメラを含む、請求項1〜5のいずれか一項に記載のプロジェクターシステム。
- 前記撮像部は、前記2以上のカメラとして、前記プロジェクター本体部からの画像光の射出方向に交差する方向に離間して設けられる一対のカメラを有し、当該一対のカメラにそれぞれ設けた前記矩形のセンサー部は、異なる向きに傾いている、請求項1〜6のいずれか一項に記載のプロジェクターシステム。
- 前記撮像部は、0°〜15°の範囲内のあおり角で傾いている、請求項1〜7のいずれか一項に記載のプロジェクターシステム。
- 前記撮像部で取得した画像光の情報に基づく画像投射位置と、前記撮像部により検出された位置とを特定し、特定した位置関係に基づく画像投影の制御を行うプロジェクター制御部をさらに備える、請求項1〜8のいずれか一項に記載のプロジェクターシステム。
- 前記プロジェクター本体部は、前記撮像部により検出された位置の情報を反映した画像投射を行う、請求項1〜9のいずれか一項に記載のプロジェクターシステム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016225730A JP2018085553A (ja) | 2016-11-21 | 2016-11-21 | プロジェクターシステム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016225730A JP2018085553A (ja) | 2016-11-21 | 2016-11-21 | プロジェクターシステム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018085553A true JP2018085553A (ja) | 2018-05-31 |
Family
ID=62238637
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016225730A Pending JP2018085553A (ja) | 2016-11-21 | 2016-11-21 | プロジェクターシステム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018085553A (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020112711A (ja) * | 2019-01-15 | 2020-07-27 | セイコーエプソン株式会社 | プロジェクターの制御方法、プロジェクターおよび投写システム |
| JPWO2021005711A1 (ja) * | 2019-07-09 | 2021-01-14 | ||
| JP2021128330A (ja) * | 2020-02-10 | 2021-09-02 | 株式会社リコー | 投影装置及び操作検出装置 |
-
2016
- 2016-11-21 JP JP2016225730A patent/JP2018085553A/ja active Pending
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020112711A (ja) * | 2019-01-15 | 2020-07-27 | セイコーエプソン株式会社 | プロジェクターの制御方法、プロジェクターおよび投写システム |
| US11109007B2 (en) | 2019-01-15 | 2021-08-31 | Seiko Epson Corporation | Method for controlling projector, projector, and projection system |
| JPWO2021005711A1 (ja) * | 2019-07-09 | 2021-01-14 | ||
| WO2021005711A1 (ja) * | 2019-07-09 | 2021-01-14 | マクセル株式会社 | 投射型映像表示装置 |
| JP7177936B2 (ja) | 2019-07-09 | 2022-11-24 | マクセル株式会社 | 投射型映像表示装置 |
| US12044900B2 (en) | 2019-07-09 | 2024-07-23 | Maxell, Ltd. | Projection type video display device |
| JP2021128330A (ja) * | 2020-02-10 | 2021-09-02 | 株式会社リコー | 投影装置及び操作検出装置 |
| JP7547992B2 (ja) | 2020-02-10 | 2024-09-10 | 株式会社リコー | 投影装置及び操作検出装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105706028B (zh) | 投影型影像显示装置 | |
| CN204496155U (zh) | 反射体及位置检测装置 | |
| KR102463712B1 (ko) | 가상 터치 인식 장치 및 그의 인식 오류 보정 방법 | |
| CN104793809B (zh) | 位置检测装置及位置检测方法 | |
| TW201741693A (zh) | 投影裝置 | |
| US20110115904A1 (en) | Object-detecting system | |
| US20110084938A1 (en) | Touch detection apparatus and touch point detection method | |
| WO2018092627A1 (ja) | プロジェクターシステム | |
| US8982101B2 (en) | Optical touch system and optical touch-position detection method | |
| JP6822234B2 (ja) | プロジェクターシステム | |
| US20110199337A1 (en) | Object-detecting system and method by use of non-coincident fields of light | |
| JP2013148802A (ja) | プロジェクタ | |
| JP2018085553A (ja) | プロジェクターシステム | |
| TWI564773B (zh) | 光學觸控系統及其光學觸控裝置 | |
| US20110193969A1 (en) | Object-detecting system and method by use of non-coincident fields of light | |
| US20140306934A1 (en) | Optical touch panel system, optical apparatus and positioning method thereof | |
| JP6314177B2 (ja) | 投射型映像表示装置 | |
| JP2012053603A (ja) | 情報表示システム | |
| JP6098386B2 (ja) | プロジェクタ | |
| JP2017129767A (ja) | 反射体、光出射装置の調整方法、及び検出システム | |
| TWI543046B (zh) | 光學觸控系統 | |
| US20130099092A1 (en) | Device and method for determining position of object | |
| US9335158B2 (en) | Projector and projector system | |
| US9189106B2 (en) | Optical touch panel system and positioning method thereof | |
| WO2017038025A1 (en) | Imaging apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180907 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181120 |