JP2018085553A - Projector system - Google Patents
Projector system Download PDFInfo
- Publication number
- JP2018085553A JP2018085553A JP2016225730A JP2016225730A JP2018085553A JP 2018085553 A JP2018085553 A JP 2018085553A JP 2016225730 A JP2016225730 A JP 2016225730A JP 2016225730 A JP2016225730 A JP 2016225730A JP 2018085553 A JP2018085553 A JP 2018085553A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- projector
- imaging unit
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は、投射画面上にある指等の指示体を検出してこれを投射画像の内容に反映させることで書き込みができるいわゆるインタラクティブなプロジェクターを実現するためのプロジェクターシステムに関する。 The present invention relates to a projector system for realizing a so-called interactive projector capable of writing by detecting an indicator such as a finger on a projection screen and reflecting it on the content of a projection image.
インタラクティブなプロジェクターとして、例えば投射画面(スクリーン)のほぼ全体に、赤外光の層を形成するように射出させる光出射装置を、プロジェクターの投射機構とは別個に設け、当該光出射装置からの赤外光が、指示体の先端(例えば、指先)で反射され、この反射光を撮像部等の位置検知装置で検出することをもって指示体による指示操作を検出し、インタラクティブ機能を達成するものも知られている(例えば特許文献1参照。)。 As an interactive projector, for example, a light emitting device that emits an infrared light layer on almost the entire projection screen (screen) is provided separately from the projection mechanism of the projector, and red light from the light emitting device is provided. Also known is that external light is reflected at the tip (eg, fingertip) of the indicator, and the reflected light is detected by a position detection device such as an imaging unit to detect an instruction operation by the indicator and achieve an interactive function. (For example, refer to Patent Document 1).
また、インタラクティブなプロジェクターとして、例えば投射画面上を指し示すポインティングデバイスから射出される赤外光を撮像装置で検出するとともに当該赤外光の投射画面上での発光位置を特定することで上記のようなインタラクティブ機能を達成するものが知られている(例えば特許文献2参照。)。 Further, as an interactive projector, for example, infrared light emitted from a pointing device pointing on the projection screen is detected by the imaging device and the light emission position of the infrared light on the projection screen is specified as described above. One that achieves an interactive function is known (see, for example, Patent Document 2).
しかしながら、インタラクティブなプロジェクターの構成では、利用者が投射画面(スクリーン)に近づいて位置を指し示して使用しても、利用者の影がスクリーンに映りにくいように斜め投射(近接投射)としていることが多い。このため、広画角の撮像装置が求められる。この場合、検出範囲のうち特に周辺側では、検出箇所の画像が歪められて小さくなってしまい、誤検出や不検出を生じてしまう、すなわち位置検出の精度が低下する可能性が高くなる。この場合、インタラクティブなプロジェクターでは、例えば描画位置が指示体としてのペンのペン先とずれてしまい、意図した位置にきちんと画が描けない、といったことが生じてしまうことになる。 However, in an interactive projector configuration, even if the user approaches the projection screen (screen) and indicates the position, the projector may be obliquely projected (proximity projection) so that the user's shadow is not easily reflected on the screen. Many. For this reason, an imaging device with a wide angle of view is required. In this case, particularly in the peripheral side of the detection range, the image of the detection location is distorted and becomes small, and erroneous detection or non-detection occurs, that is, there is a high possibility that the position detection accuracy decreases. In this case, in an interactive projector, for example, the drawing position may deviate from the pen tip of the pen as the indicator, and the image cannot be drawn properly at the intended position.
本発明は、インタラクティブなプロジェクターを実現するに際して、投射画面上における検出対象についての位置検出精度が高いプロジェクターシステムを提供することを目的とする。 An object of the present invention is to provide a projector system having high position detection accuracy for a detection target on a projection screen when an interactive projector is realized.
上記目的を達成するため、本発明に係るプロジェクターシステムは、画像光を斜方投射するプロジェクター本体部と、魚眼レンズと魚眼レンズを介して受光する矩形のセンサー部とを有してプロジェクター本体部からの画像光の投影領域を撮像する撮像部とを備え、矩形のセンサー部は、プロジェクター本体部からの画像光によって投影領域に形成される矩形の投射画像に対して傾いている。 In order to achieve the above object, a projector system according to the present invention includes a projector main body that projects image light obliquely, and a fisheye lens and a rectangular sensor that receives light via the fisheye lens. The rectangular sensor unit is inclined with respect to the rectangular projection image formed in the projection region by the image light from the projector main body unit.
上記プロジェクターシステムでは、撮像部において魚眼レンズを適用することで、広い検出範囲を撮像可能としつつ、魚眼レンズを用いることで撮像した投影領域の画像が歪んでも、矩形のセンサー部を傾けていることで、投影領域を撮像した画像を矩形のセンサー部のエリア内一杯に広げた際に、撮像された投影領域の各位置をより大きく映し出すことができるので、位置検出精度を向上させることができる。 In the projector system, by applying a fisheye lens in the imaging unit, it is possible to image a wide detection range, and even if the image of the projection area captured by using the fisheye lens is distorted, the rectangular sensor unit is inclined, When the image obtained by capturing the projection area is fully expanded within the area of the rectangular sensor unit, each position of the imaged projection area can be displayed larger, so that the position detection accuracy can be improved.
本発明の具体的な側面によれば、撮像部は、魚眼レンズとして等距離射影方式のレンズを有する。この場合、等距離射影方式を採用することで、斜方投射による近接した投影領域を撮像部によって撮像するに際して、十分に広画角なものにできる。 According to a specific aspect of the present invention, the imaging unit includes an equidistant projection type lens as a fisheye lens. In this case, by adopting the equidistant projection method, it is possible to obtain a sufficiently wide angle of view when the close projection area by oblique projection is imaged by the imaging unit.
本発明の別の側面によれば、撮像部は、魚眼レンズとして立体射影方式のレンズを有する。この場合、立体射影方式を採用することで、画像の周辺部における歪みを抑えつつ広画角化を図ることができる。 According to another aspect of the present invention, the imaging unit includes a stereoscopic projection type lens as a fisheye lens. In this case, by adopting the stereoscopic projection method, it is possible to achieve a wide angle of view while suppressing distortion at the peripheral part of the image.
本発明のさらに別の側面によれば、撮像部は、赤外光波長帯域の光を、画像光の波長帯域以外の波長帯域の検出光として検出する。この場合、赤外光波長帯域の光を利用して画像光以外の光を検出光として検出させることができる。 According to still another aspect of the present invention, the imaging unit detects light in the infrared light wavelength band as detection light in a wavelength band other than the wavelength band of the image light. In this case, light other than image light can be detected as detection light by using light in the infrared wavelength band.
本発明のさらに別の側面によれば、撮像部は、プロジェクター本体部からの画像光の投影領域を含む立体的領域を撮像して立体的領域に存する指示体を検出可能にする。この場合、投影領域のみならず投影領域を含む立体的領域まで撮像可能となる。 According to still another aspect of the present invention, the imaging unit images a stereoscopic area including a projection area of image light from the projector main body, and enables detection of an indicator existing in the stereoscopic area. In this case, not only the projection area but also a three-dimensional area including the projection area can be imaged.
本発明のさらに別の側面によれば、撮像部は、2以上のカメラを含む。この場合、例えば視差情報が取得可能となる。 According to still another aspect of the present invention, the imaging unit includes two or more cameras. In this case, for example, parallax information can be acquired.
本発明のさらに別の側面によれば、撮像部は、2以上のカメラとして、プロジェクター本体部からの画像光の射出方向に交差する方向に離間して設けられる一対のカメラを有し、当該一対のカメラにそれぞれ設けた矩形のセンサー部は、異なる向きに傾いている。この場合、当該一対のカメラを構成する各カメラにおいて、設置位置に応じて投影領域をより大きく映し出すことができる。 According to still another aspect of the present invention, the imaging unit includes, as two or more cameras, a pair of cameras that are provided apart from each other in a direction that intersects an emission direction of the image light from the projector main body unit. The rectangular sensor portions provided on the cameras are inclined in different directions. In this case, in each camera constituting the pair of cameras, it is possible to project a larger projection area according to the installation position.
本発明のさらに別の側面によれば、撮像部は、0°〜15°の範囲内のあおり角で傾いている。この場合、撮像部の広画角化を抑制できる。 According to still another aspect of the present invention, the imaging unit is inclined at a tilt angle within a range of 0 ° to 15 °. In this case, the wide angle of view of the imaging unit can be suppressed.
本発明のさらに別の側面によれば、撮像部で取得した画像光の情報に基づく画像投射位置と、撮像部により検出された位置とを特定し、特定した位置関係に基づく画像投影の制御を行うプロジェクター制御部をさらに備える。この場合、プロジェクター制御部によって、画像投射位置と撮像部により検出された位置とを対応づけて、例えば検出された位置の動きを投射画面上に書き込むといったインタラクティブなプロジェクターの動作が可能になる。なお、プロジェクター制御部については、例えばプロジェクター本体部に組み込まれる場合のほか、プロジェクター本体部に接続されるPCがプロジェクター制御部として機能する等種々の態様が考えられる。 According to still another aspect of the present invention, an image projection position based on image light information acquired by the imaging unit and a position detected by the imaging unit are identified, and image projection control based on the identified positional relationship is performed. A projector control unit is further provided. In this case, the projector control unit can associate the image projection position with the position detected by the imaging unit, and can perform an interactive projector operation such as writing the movement of the detected position on the projection screen, for example. As for the projector control unit, various modes such as a case where the PC connected to the projector main unit functions as the projector control unit in addition to the case where the projector control unit is incorporated in the projector main unit are conceivable.
本発明のさらに別の側面によれば、プロジェクター本体部は、撮像部により検出された位置の情報を反映した画像投射を行う。この場合、検出された位置の情報を反映させたインタラクティブな画像投射が可能になる。 According to still another aspect of the present invention, the projector main body performs image projection that reflects information on a position detected by the imaging unit. In this case, interactive image projection reflecting information on the detected position is possible.
〔第1実施形態〕
以下、図面を参照して、本発明の第1実施形態に係るプロジェクターシステムについて説明する。
[First Embodiment]
Hereinafter, a projector system according to a first embodiment of the invention will be described with reference to the drawings.
図1等に示すプロジェクターシステム500は、画像光である投射光PLを投射(斜方投射)して画像投射を行うプロジェクター100で構成されている。なお、投射光PLの被照射領域PLaは、例えばスクリーンSC上に形成される。被照射領域PLaは、プロジェクター100からの投射光(画像光)PLの投影領域に相当する。また、図示を省略するが、プロジェクターシステム500は、プロジェクター100のほか、例えばPC等が接続されることで構成され、必要に応じて当該PCが各種処理をすることで被照射領域PLaでの表示画面上への書込みを受け付けるインタラクティブな状況での画像動作を可能にしている。プロジェクターシステム500のうち、プロジェクター100は、スクリーンSCの斜め上方に設置され、斜め下方のスクリーンSCに向けて近接投射をする短焦点タイプ(ここでは、いわゆる超短焦点近接投射となっている。)のプロジェクターであり、画像投射を行うための本体部分であるプロジェクター本体部100pと、撮像部50とで構成されている。
A
プロジェクター本体部100pは、スクリーンSCに向けて可視光波長帯域の光を合成して構成される画像光である投射光PLを投射して投影画像(カラー画像)の形成を行う。プロジェクターシステム500において、インタラクティブな画像投射を可能にするためには、投射画面上における指示体の位置を特定するための位置合わせ(キャリブレーション)がなされていることが前提となる。このキャリブレーションについては、図8を参照して後述する。
The
プロジェクター本体部100pは、詳細な図示を省略するが、光源や光変調装置、投射光学系等を備え、スクリーンSCに対する画像投影を行う。このため、例えば図2に示すように、プロジェクター本体部100pは、投射光学系を含む画像投影部90と、プロジェクター制御部CTとを有し、プロジェクター制御部CTにより画像投射等の各種動作制御がなされている。また、特に、プロジェクター制御部CTは、撮像部50からの情報を撮像部50の通信部82を介して受け付け可能とし、撮像部50からの情報を加味して投射させる画像の内容を修正することで画面上に書込みができるものとなっている、すなわちインタラクティブな画像投射を可能としている。
Although not shown in detail, the projector
プロジェクター本体部100pを構成する光学系については、種々の態様が可能であるが、例えば光源等については、種々の構成のものが適用可能であり、例えばレーザー光源やLED光源、さらに有機EL(O−LED)を利用することも可能である。特に、有機EL素子等の自発光型の光源を適用した場合、光源が光変調の役割も兼ねた映像装置として構成できる。なお、光源(バックライト)と光変調とを個別の構成とする場合、光変調装置については、例えば透過型の液晶パネルとすることができる。
Various forms are possible for the optical system constituting the projector
撮像部50は、プロジェクター本体部100pにより投射された投射画像を撮像して画像情報を取得するセンサー装置である。本実施形態では、特に、撮像部50は、プロジェクター本体部100pの側方(左側)に配置されている。撮像部50(もしくは撮像部50を構成するカメラ)は、例えば撮像レンズのほか、受光素子(撮像素子)すなわち受光用のセンサー、や通信部82(図2参照)による他の装置への送信等を含む各種制御を行う制御装置といったものを備えている。特に、本実施形態では、撮像レンズとして、いわゆる魚眼レンズを備えている。
The
以下、図3を参照して、撮像部50の構成や撮像範囲に関して一例を説明する。図示のように、本実施形態においては、撮像部50は、撮像レンズとしての魚眼レンズ30と、受光用のセンサーである撮像素子40とを有している。すなわち、撮像対象である被照射領域PLa上の投射画像を、魚眼レンズ30を介して取り込みつつ撮像素子40上に結像させている。なお、撮像素子40は、矩形のセンサー部である。本実施形態では、魚眼レンズ30として、次式で規定されるいわゆるfθレンズを用いた等距離射影方式を採用する。
y=f・θ
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
この場合、撮像画像において、特に周辺側で歪み(圧縮)が発生するものの、広画角にできる、すなわち撮像範囲を広げて十分広い検出範囲を確保できる。さらに、本実施形態では、矩形のセンサー部である撮像素子40は、被照射領域PLa上に映し出される矩形の投射画像(投射画面)に対して傾くように配置されている。なお、撮像素子40の傾きについて詳しくは図6A等を参照して後述する。
Hereinafter, an example of the configuration and imaging range of the
y = f · θ
Here, the focal length is f, the half field angle (or simply the field angle) is θ, and the image height is y.
In this case, in the captured image, although distortion (compression) occurs particularly on the peripheral side, it is possible to obtain a wide angle of view. Further, in the present embodiment, the
また、ここで、撮像部50(撮像部50を構成するカメラ)の光軸AXは、プロジェクター本体部100pの被照射面であるスクリーンSCに対して垂直ではなく、下方に少し傾いている。すなわち、撮像部50は、あおりを付けた状態で撮像を行っている。この場合、適度にあおり角度を増加させることで、あおり角がない(0°)の場合に比べて撮像に必要となる最大画角を小さくできる。ここでは、あおり角αは、0°〜15°とする。例えば、撮像部50が十分広画角なものであれば、あおり角がない状態であってもよい。なお、ここでは、一例として、あおり角α=10°とする。
Here, the optical axis AX of the imaging unit 50 (camera constituting the imaging unit 50) is not perpendicular to the screen SC, which is the irradiated surface of the projector
図1等に戻って、プロジェクター本体部100pにおいて、プロジェクター制御部CT(図2参照)は、撮像部50での撮像により取得した画像情報に含まれる検出された指示体(後述する赤外光を発生するペンや利用者の指先等)の位置情報を反映させた画像を画像投影部90(図2参照)により投影させる。なお、撮像部50は、プロジェクター100の投影画像位置を把握するための構成として、その役割を果たすため、例えばプロジェクター本体部100pによる画像投影における投射角度や投射距離等に対応した角度等にカメラのレンズが向いているように配置されている。すなわち、プロジェクター100の設置環境が変わって投射距離等が変化してもプロジェクター本体部100pと撮像部50との位置関係に変化が生じないあるいは生じても画像の補正等が可能な程度にわずかなものとなるようにしている。
Returning to FIG. 1 and the like, in the projector
また、プロジェクター本体部100pは、撮像部50により取得された画像情報に基づいて、プロジェクター本体部100pを構成する画像形成部(光変調における画素マトリクス)の画素と撮像部50に内蔵される撮像素子(受光用のセンサー)の画素との位置関係を対応付けるキャリブレーションを可能にしている。
In addition, the projector
なお、撮像部50は、プロジェクター100を構成する一部として組み込まれるものとすることもできるが、例えば、撮像部50は、プロジェクター100とは別体の撮像装置として存在するものとしてもよい。
Note that the
ここで、図1を参照して、以上のような構成のプロジェクター100によるインタラクティブな状況での画像投射を簡単に説明する。まず、スクリーンSC上あるいはその近傍において、上記のような投射光PLのほかに、利用者HUが保持するペン70の先端部TPから赤外光(すなわち投射光PLの波長帯域以外の波長帯域)ILが射出される。赤外光ILの一部が撮像部50において検出光DLとして検出されることで、利用者HUによる画面上の指示位置を特定するものとなっている。例えば、ペン70の先端部TPがスクリーンSCに触れると赤外光ILが光ったり点滅周波数が変わったりする。これをカメラで構成される撮像部50によって検出することで、スクリーンSC上での指示位置が認識されたり、描画する線の種類等が決定されたりする。なお、発光する指示体としてのペン70の点灯形状等については、種々の態様が考えられるが、ここでは、一例として、発光位置を示す先端部TPの発光点の大きさが直径5mm程度の円形状であるものとする。この場合、位置検出装置としての撮像部50は、被照射領域PLa上における直径5mmの円の位置を特定可能な程度の精度で位置検出が可能な画像情報の取得ができるようになっている必要がある。
Here, with reference to FIG. 1, image projection in an interactive situation by the
以下、図4等を参照して、一例のプロジェクターによる画像投影についての具体的一構成例(具体的仕様)について説明する。まず、図4A及び4Bを参照して、プロジェクター100の超短焦点近接投射の度合について説明する。図4Aに示すように、プロジェクターにおけるスローレシオは、例えば図示の投射距離f1と、被照射領域PLaの横サイズHSとでf1/HSで表される。ここでの一例では、スローレシオは、約0.27とする。具体的には、投射距離f1は441mmであるものとし、横サイズHSの値を規定する被照射領域PLaのサイズは、70インチ(アスペクト比16:10)とする(すなわち、プロジェクター100は、70インチの画像を形成する)。なお、図4Bに示すように、この場合において、被照射領域PLaの周辺側の各点への投射光PLの投射角度を示している。この一例では、以上のような具体的仕様により超短焦点近接投射を行っている。
Hereinafter, a specific configuration example (specific specification) for image projection by an example projector will be described with reference to FIG. 4 and the like. First, with reference to FIGS. 4A and 4B, the degree of ultra-short focus proximity projection of the
図5は、上記具体的一例の画像投射における撮像部50の位置と撮像範囲の寸法について示す図である。図5では、被照射領域PLaと撮像部50を構成するカメラのカメラ位置Paとの関係を示している。図5のうち、左側は、正面側から見た位置関係についての寸法を示す図であり、右側は、側面(横)側から見た位置関係についての寸法を示す図である。ここでは、図5に示すように、カメラ位置Paは、被照射領域PLaの左上方であり、例えば水平方向については、投射光PLの投射位置から左側に30cmほど離間している。この場合、カメラ位置Paからは、被照射領域PLaの右下側の位置SPが、撮像において最も周辺側となる。すなわち、当該箇所におけるペン70等の発光位置の検出が確実に行えるものとする必要があることになる。
FIG. 5 is a diagram illustrating the position of the
以上に示す具体的一構成例のように、超短焦点近接投射であって、特に魚眼レンズによって撮像部における画角を確保する場合、検出箇所の画像が歪められて小さくなりすぎたり、これに伴って誤検出や不検出を生じてしまったりする、すなわち位置検出の精度が低下するおそれがある。これを抑制すべく、本実施形態では、矩形のセンサー部である撮像素子40を被照射領域PLaにおける矩形の投射画像(投射画面)に対して傾けた配置としていることで、位置検出精度を向上させ、かかる事態を回避している。
As in the specific configuration example shown above, in the case of ultra-short focus proximity projection, and particularly when the angle of view in the imaging unit is secured by a fisheye lens, the image of the detection location is distorted and becomes too small, or accompanying this May cause erroneous detection or non-detection, that is, the accuracy of position detection may be reduced. In order to suppress this, in the present embodiment, the position of the
以下、図6A等を参照して、本実施形態におけるプロジェクター100の各部の投射画像に対する位置について説明することで、特に撮像素子40の傾斜配置について説明する。ここで、図6A〜6Cは、本実施形態におけるプロジェクター100の各部と投射画像との位置関係や、撮像部50により撮像されたセンサー上での画像の様子、さらには、撮像部50により撮像された撮像素子(センサー)40上のうちの画像の一部を例示するものである。これに対して、図7A〜7Cは、一比較例の図であり、本実施形態の図6A〜6Cに対応する図である。図6Aとこれに対応する図7Aとを比較すると明らかなように、本実施形態では、矩形の撮像素子40を矩形の被照射領域PLaとして示される投射画像(投射画面)に対して傾斜配置させているのに対して、図7A〜7Cに示す一比較例では、撮像素子40を傾斜させていない点が異なっている。
Hereinafter, with reference to FIG. 6A and the like, the position of each unit of the
以下、図6A等に戻って、本実施形態に係る一例についてより詳しく説明する。図6Aは、既述のように、プロジェクター100を構成する各部と被照射領域PLaで示される投射画像(投射画面)との位置関係を概念的に示す正面図である。プロジェクター100は、図示のように、また、既述のように、被照射領域PLaに矩形の投射画面を形成するプロジェクター本体部100pと、プロジェクター本体部100pにより被照射領域PLaに形成された投射画像(投射画面)を撮像する撮像部50とを有している。そして、撮像部50は、プロジェクター本体部100pの左側(より詳しくは、図5におけるカメラ位置Paに相当する位置を光軸の位置とする位置)に配置されている。また、撮像部50は、魚眼レンズ30と魚眼レンズ30を介して受光する矩形のセンサー部である撮像素子40とを有している。ここでは、図示において、プロジェクター本体部100pの中央から投射光が射出されて正面にプロジェクター本体部100p対して左右対称な矩形の被照射領域PLaに投射画像(投射画面)が形成されているものとする。これに対して、図示のように、撮像部50における矩形の撮像素子40は、被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して傾いたものとなっている。言い換えると、撮像素子40の周辺を縁取りした矩形枠40fとし、被照射領域PLaを縁取りした(すなわち投射画像(投射画面)を縁取りした)矩形枠PLfとし、これらを比較すると、矩形枠PLfの各辺が水平方向及び垂直方向(X方向及びY方向)に沿って延びているのに対して、矩形枠40fの各辺は、水平方向及び垂直方向から傾斜した方向に沿って延びている。いわば、矩形枠PLfを基準とした場合に、矩形枠40fは、矩形枠PLfに対して所定の角度右回転させた状態となるように傾斜(あるいはZ軸回転)している。ここで、図5を参照して説明したように、撮像部50(カメラ位置Pa)は、図中プロジェクター本体部100pの左側に位置している。したがって、被照射領域PLa全体において精度の高い位置検出を行うためには、被照射領域PLaのうち撮像部50から最も遠い箇所となる右下側の位置SP(以下、評価ポイントとも呼ぶ。)における位置検出の精度が最も問題となると考えられる。本実施形態では、上記のように、撮像素子40を所定の角度だけ傾けることで、評価ポイントである位置SPを含めた被照射領域PLa全体を撮像素子40のセンサーエリア内に収めつつできるだけ大きく映し出すことを可能にし、精度の高い位置検出を可能としている。
Hereinafter, returning to FIG. 6A and the like, an example according to the present embodiment will be described in more detail. FIG. 6A is a front view conceptually showing the positional relationship between each part of the
図6Bは、上述した位置(図5のカメラ位置Paに相当)にある撮像部50(カメラ)によって撮像された画像、すなわち撮像部50に内蔵された受光用のセンサーである撮像素子40上での画像PIの様子を示す図である。なお、ここでは、撮影された映像は、上下左右が反転しているため、スクリーンSCの右下の映像は、センサー上の画像において左上に来ている。したがって、図示の画像PIにおいて、スクリーンSC上の被照射領域PLaに対応する映像画像PLiのうち左上の隅にある画像点SPiが、図6Aの位置(評価ポイント)SPに対応する。すなわち、映像画像PLiの領域のうち画像点SPi及びその近辺が、最も歪み、指示体の検出が最も困難になる箇所であると考えられる。
FIG. 6B shows an image taken by the imaging unit 50 (camera) at the above-described position (corresponding to the camera position Pa in FIG. 5), that is, on the
ここで、前提として、スクリーンSC上の被照射領域PLaの全体を撮像可能とするためには、撮像素子40において、映像画像PLiが、センサー上のエリアSEのうち有効撮像範囲であるアクティブエリアAE内に収まっているようにする必要がある。なお、ここでの一例では、アクティブエリアAEのサイズを、4.48mm×3.2mmとする。
Here, as a premise, in order to be able to image the entire irradiated area PLa on the screen SC, in the
また、ここで、図示のように、元々矩形領域であった被照射領域PLaを映した映像画像PLiは、魚眼レンズ30を歪めて撮像されたものとなっている。このため、図示のように、映像画像PLiの形状は矩形ではなく歪んでいる。さらに、撮像部50は、プロジェクター100の中央から左側に外れた位置に配置されている。このため、映像画像PLiの形状は、左右対称でもない。このような形状の画像(画像部分)を、仮に撮像素子40を傾けることなく取り込もうとすると、例えば比較例の図7Bに示すとおり、最も長い曲線部分LL1が矩形の横(水平)方向の範囲内に収まるように、映像画像PLiの画像全体を小さくしなければいけない。これに対して、本実施形態では、映像画像PLiの形状に応じた所定の角度だけ撮像素子40を傾けていることで、図6Bに示すように例えば最も長い曲線部分LL1を斜め方向に収めればよいことになる。したがって、図6Bの撮像素子40が図7Bの撮像素子40と同じ大きさ(例えば4.48mm×3.2mm)であった場合には、図6Bの撮像素子40のほうが、より大きく映像画像PLiを映し出せる、延いては画像点SPi及びその近辺をより大きく映し出せることになる。ただし、既述のように、図6Bの撮像素子40においても、映像画像PLiの全体をアクティブエリアAE内に収める必要があることには変わりがない。すなわち、映像画像PLiについて、曲線部分LL1のみならず、他の曲線部分や被照射領域PLaの四隅に対応する点等がアクティブエリアAE内に収まっている必要がある。上記具体的一構成例の場合では、映像画像PLiを収めつつ全体を最も大きく映し出すための撮像素子40の傾斜角度は、18.2°であった。また、この時の撮像部50(カメラ)の焦点距離fは、f=2.31であった。
Further, as shown in the figure, the video image PLi that reflects the irradiated area PLa that was originally a rectangular area is obtained by distorting the fish-
図6Cは、図6Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像GGを示している。このため、図示のように、画像GGは、円を歪めた楕円状となっている。上記具体的一構成例の場合、撮像素子40上での画像GGの面積は、14.1μm2であった。
FIG. 6C shows an image GG displayed at the image point SPi corresponding to the position SP when a circle having a diameter of 5 mm assumed to be a light emitting point is projected at the position (evaluation point) SP in FIG. 6A. . For this reason, as illustrated, the image GG has an elliptical shape in which a circle is distorted. In the case of the above specific configuration example, the area of the image GG on the
図7A〜7Cは、既述の通り、本実施形態の比較例であり、撮像素子40を傾けていない場合(撮像素子40の傾斜角度が0°の場合)についての例示である。なお、具体的一構成例(具体的仕様)としては、本実施形態において示した場合と同様であるものとする。すなわち、撮像部50が、本実施形態の場合と同等の魚眼レンズ30(等距離射影方式)及び撮像素子40(アクティブエリアAEが4.48mm×3.2mm)で構成されるものとする。ただし、撮像素子40の焦点距離fについては、映像画像PLiの全体をアクティブエリアAE内に収める必要があるという観点から異なるものとなる。図7Aに示す構成の比較例では、図7Bに示す画像PIの撮像において、撮像部50(カメラ)の焦点距離fは、f=2.18であった。つまり、図6Bに示す場合よりも焦点距離fが小さく、映像画像PLiが小さいことが分かる。また、図7Cに示す撮像素子40上での画像GGの面積は、12.6μm2であった。すなわち、本実施形態と比較して、映像画像PLi(画像点SPi)が小さくなっていることが分かる。この場合、特に画像点SPiやその近辺での誤検出、不検出の可能性が高まる。これに対して、本実施形態では、撮像素子40を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像PLiの各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。
7A to 7C are comparative examples of the present embodiment, as described above, and are examples of the case where the
なお、以上のような撮像素子40の配置に関して、例えば図6Aを例示として考察した事項について、プロジェクター本体部100pとの関係で捉えることもできる。例えばプロジェクター本体部100pが、図示のように、矩形の液晶パネルLCが中央に配置されているものとし、さらに、この液晶パネルLCにおいて光変調された変調光を正面から投射することで投射光を形成するものであるとする。この場合、矩形の液晶パネルLCに対して撮像素子40が所定の角度傾いていることになる。なお、以上は一例であり、光路中においてミラー等が配置され撮像素子40や液晶パネルLCの位置が上記と異なっているような場合や、プロジェクター本体部100pが液晶パネル以外の方式で画像投射を行う場合であっても、形成される投射画像と撮像素子との関係において上記と同様の構成とすることができる。
In addition, regarding the arrangement of the
以下、図8を参照して、インタラクティブな画像投射を可能にするための前提となる位置合わせの処理であるキャリブレーションについて説明する。図8は、プロジェクター本体部100pによる画像投影のうち、特に、上述のようなキャリブレーションの処理を行うために、キャリブレーション時のパターン画像を投影する様子を示している。本実施形態では、まず、プロジェクター本体部100pによる画像投射(投影)によってスクリーンSC上に映し出される映像の範囲を示すパターン画像PTを、ここでは画像光である投射光PLに含まれる可視光波長帯域の成分のうち緑色波長帯域の光で構成されるパターン画像光GLによって投影するものとする。撮像部50において、パターン画像光GLの一部の成分を受光することで、パターン画像PTに関する画像情報が取得され、この情報に基づき画像投射位置の特定がなされる。具体的には、まず、撮像部50は、撮像したパターン画像PTの画像情報をプロジェクター本体部100pに対して送信する。次に、プロジェクター本体部100pは、撮像部50で取得したパターン画像PTの情報と、光変調における画素マトリクスの情報との対応付けを行う。すなわち、撮像部50で撮像されたパターン画像PTの受光用のセンサー上での各位置とプロジェクター本体部100pの光変調における画素マトリクス状の各位置すなわち投影された画像上の位置とを対応付ける。対応付けは、例えば、ピクセル単位で行うものとしてもよい(例えば対応するテーブルを作成するものとしてもよい)が、例えば対応付ける関数を定めることで、対応付けの処理を可能にするものとしてもよい。
Hereinafter, with reference to FIG. 8, a description will be given of calibration, which is an alignment process that is a prerequisite for enabling interactive image projection. FIG. 8 shows how the pattern image at the time of calibration is projected in order to perform the above-described calibration processing among the image projections by the projector
以上のように、プロジェクター本体部100pは、撮像部50で取得したパターン画像PTの情報に基づく画像投射位置と、光変調の画素の位置とを対応付けることで、キャリブレーション(位置合わせ)を行っている。キャリブレーション後は、キャリブレーションでの対応付けに基づいて、撮像部50で検出されたペン70の発光位置等の指示体による指示位置の特定が可能となり、これを反映したインタラクティブな画像投射が可能となる。
As described above, the projector
以下、図9を参照して本実施形態の一変形例について説明する。本変形例では、撮像素子40を傾ける向き以外については、上記一例と同様であるので、全体の説明については、省略する。また、図9A〜9Cは、図6A〜6Cに対応する図である。すなわち、図9A〜9Cは、本変形例におけるプロジェクター100の各部と投射画像との位置関係や、撮像部50により撮像されたセンサー上での画像の様子、さらには、撮像部50により撮像された撮像素子(センサー)40上のうちの画像の一部を例示するものである。
Hereinafter, a modification of the present embodiment will be described with reference to FIG. This modification is the same as the above example except for the direction in which the
上記一例では、図6A等に示すように、撮像部50における矩形の撮像素子40を被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度(18.2°)だけ、右回転させた状態となるように傾斜させていた。これに対して、本変形例では、図9A等に示すように、撮像素子40を所定の角度左回転させた状態となるように傾斜させている。
In the above example, as shown in FIG. 6A and the like, the
図9Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子40の傾斜角度は、上記具体的一構成例の場合では、27.0°であった。また、この時の撮像部50(カメラ)の焦点距離fは、f=2.32であった。
As shown in FIG. 9B, the tilt angle of the
図9Cは、図9Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像GGを示している。このため、図示のように、画像GGは、円を歪めた楕円状となっている。上記具体的一構成例の場合、撮像素子40上での画像GGの面積は、14.2μm2であった。
FIG. 9C shows an image GG displayed at the image point SPi corresponding to the position SP when a circle having a diameter of 5 mm assumed to be a light emitting point is projected at the position (evaluation point) SP in FIG. 9A. . For this reason, as illustrated, the image GG has an elliptical shape in which a circle is distorted. In the case of the above specific configuration example, the area of the image GG on the
上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fや画像GGの面積からすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。ただし、構成例(仕様)が変わる場合には、傾ける方向によって差が生じる場合もあり得るので、このような場合にはより適したほうを選択すればよい。 In the case of the above specific configuration example, the size of the video image PLi is slightly better in the case of left rotation in terms of the focal length f and the area of the image GG in the above example and the present modification, but is almost unchanged. The performance was almost equivalent. In other words, there was not much difference depending on the direction of tilt. However, when the configuration example (specification) changes, a difference may occur depending on the tilting direction. In such a case, a more suitable one may be selected.
以上のように、本変形例においても、撮像素子40を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像PLiの各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。
As described above, also in this modification, it is possible to project each position of the video image PLi corresponding to the projection region (projection image) larger by tilting the
以上のように、本実施形態に係るプロジェクターシステム500では、撮像部50において魚眼レンズ30を適用することで、広い検出範囲を撮像可能としつつ、魚眼レンズ30を用いることで撮像した投影領域の画像が歪んでも、矩形のセンサー部としての撮像素子40を傾けていることで、被照射領域(投影領域)PLaの画像を撮像素子40のエリア内一杯に広げることができる、すなわち各位置を大きく映し出すことができる。これにより、誤検出や不検出を抑制し、位置検出精度を向上させることができる。
As described above, in the
〔第2実施形態〕
以下、図10等を参照して、第1実施形態を変形した第2実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部において採用する魚眼レンズの射影条件を除いて、第1実施形態と同様の構成であるので、プロジェクターシステム全体についての詳細な説明を省略する。具体的一構成例(具体的仕様)についても、第1実施形態において示した場合と同様であるものとする。
[Second Embodiment]
Hereinafter, a second embodiment obtained by modifying the first embodiment will be described with reference to FIG. Note that the projector system according to the present embodiment has the same configuration as that of the first embodiment except for the projection conditions of the fisheye lens employed in the imaging unit, and thus detailed description of the entire projector system is omitted. A specific configuration example (specific specification) is also the same as that shown in the first embodiment.
図10A〜10Cは、本実施形態におけるプロジェクターの各部と投射画像との位置関係や、撮像部により撮像されたセンサー上での画像の様子、さらには、撮像部により撮像された撮像素子(センサー)上のうちの画像の一部を例示するものである。すなわち、図10A〜10Cは、第1実施形態における図6A〜6Cに対応する図である。 10A to 10C show the positional relationship between each part of the projector and the projection image, the state of the image on the sensor imaged by the imaging unit, and the image sensor (sensor) imaged by the imaging unit. A part of the upper image is illustrated. That is, FIGS. 10A to 10C are diagrams corresponding to FIGS. 6A to 6C in the first embodiment.
本実施形態では、プロジェクター200のうち、撮像部150における魚眼レンズ130として、次式で規定される立体射影方式を採用する。
y=2f・tan(θ/2)
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
この場合、第1実施形態で適用した等距離射影方式に比べて、撮像画像において、特に周辺側で歪み(圧縮)の発生を抑制しつつ、広画角化を図ることができる。すなわち撮像範囲を広げて十分広い検出範囲を確保できる。
In the present embodiment, as the fish-
y = 2f · tan (θ / 2)
Here, the focal length is f, the half field angle (or simply the field angle) is θ, and the image height is y.
In this case, compared to the equidistant projection method applied in the first embodiment, it is possible to increase the angle of view while suppressing the occurrence of distortion (compression) in the captured image, particularly on the peripheral side. That is, a sufficiently wide detection range can be secured by expanding the imaging range.
図10A等に示すように、本実施形態では、撮像素子140を被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。
As shown in FIG. 10A and the like, in the present embodiment, the
また、図10Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子140の傾斜角度は、上記具体的一構成例の場合では、17.8°であった。また、この時の撮像部150(カメラ)の焦点距離fは、f=2.08であった。
Further, as shown in FIG. 10B, the inclination angle of the
ここで、撮像素子140を傾けていない場合(撮像素子140の傾斜角度が0°の場合)と比較する。例えば、既述のように、本実施形態における焦点距離fは、f=2.08であった。これに対して、撮像素子140を傾けていない場合における焦点距離fは、f=1.98であった。また、第1実施形態と同様に、図10Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像の面積は、18.4μm2であった。これに対して、撮像素子140を傾けていない場合では、対応する画像の面積は、16.6μm2であった。すなわち、本実施形態では撮像素子140を傾けていない場合と比較して、映像画像PLi(画像点SPi)が大きくなり、本実施形態の方が位置検出精度が高くできるといえる。
Here, it is compared with the case where the
以下、図11を参照して本実施形態の一変形例について説明する。本変形例では、図11Aに示すように、撮像素子140を所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。
Hereinafter, a modification of the present embodiment will be described with reference to FIG. As shown in FIG. 11A, the present modification is different from the above example in that the
本変形例において、図11Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子140の傾斜角度は、上記具体的一構成例の場合では、26.4°であった。また、この時の撮像部150(カメラ)の焦点距離fは、f=2.08であった。
In the present modification, as shown in FIG. 11B, the inclination angle of the
さらに、図11Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像の面積は、18.4μm2であった。 Furthermore, when a circle having a diameter of 5 mm assumed to be a light emitting point is projected at the position (evaluation point) SP in FIG. 11A, the area of the image displayed at the image point SPi corresponding to the position SP is 18.4 μm. 2 .
つまり、本実施形態における上記具体的一構成例の場合では、傾ける方向による差は見られなかった。 That is, in the case of the specific configuration example in the present embodiment, no difference depending on the tilting direction was observed.
以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。 As described above, also in the present embodiment, by tilting the image sensor with respect to the rectangular projection image, each position of the video image corresponding to the projection region (projection image) can be displayed larger, The position detection accuracy can be improved.
〔第3実施形態〕
以下、図12等を参照して、第1実施形態等を変形した第3実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部として複数(2以上)のカメラを搭載しており、指示体による指示位置の検出において、当該指示体を立体的形状として捉えるものとなっている(ペンによる赤外光の発光等を要せずにインタラクティブが実現可能である)点において、第1実施形態等の場合と異なっている。ただし、キャリブレーションについては、複数のカメラにおいて個々に行うことを除いては、第1実施形態の場合と同様であるので説明を省略する。また、以下において、第1実施形態等と同符号のものについては、機能等が同じであり、説明を省略する。
[Third Embodiment]
Hereinafter, a third embodiment obtained by modifying the first embodiment will be described with reference to FIG. Note that the projector system according to the present embodiment includes a plurality of (two or more) cameras as the imaging unit, and captures the indicator as a three-dimensional shape in detection of the indication position by the indicator. This is different from the first embodiment or the like in that (interactive can be realized without requiring infrared light emission by a pen). However, since the calibration is the same as that in the first embodiment except that it is individually performed in a plurality of cameras, description thereof is omitted. In the following description, the same reference numerals as those in the first embodiment and the like have the same functions and the description thereof is omitted.
以下、図12等を参照して、本実施形態のプロジェクターシステム600について説明する。プロジェクターシステム600は、画像光である投射光PLを投射(斜方投射)して超短焦点近接投射による画像投射を行うプロジェクター300で構成されている。なお、プロジェクター300のほか、例えばPC等が接続され得ること等については、第1実施形態等の場合と同様とする。プロジェクター100は、プロジェクター本体部100pと、撮像部250とで構成されている。
Hereinafter, the
撮像部250は、離間して配置された2つ(複数)のカメラ250a,250bで構成されている。カメラ250a,250bは、同一規格の一対構成となっており、プロジェクター本体部100pによる投射光PLの投射位置に対して投射光PLの投射方向に交差する方向に対称な位置に配置されている。すなわち、カメラ250a,250bは、プロジェクター本体部100pのうち画像光である投射光PLの射出方向に交差する方向に離間して設けられる一対のカメラである。なお、各カメラ250a,250bは、第1実施形態に示した撮像部50(図1等参照)を構成するカメラと同様の構造を有している。すなわち、魚眼レンズ230a,230b(図13等参照)と矩形のセンサー部である撮像素子240a,240b(図13等参照)とをそれぞれ有しており、各撮像素子240a,240bは、投射画像(投射画面)に対して傾いている。以上のような複数のカメラ250a,250b(ステレオカメラ)を有することで、プロジェクター300は、視差情報(或いはステレオ画像)を取得可能となっている。すなわち、立体視によるより高度な位置検出が可能となっている。プロジェクター制御部CT(図2参照)は、カメラ250a,250bでの撮像により取得した画像情報に基づく視差情報により検出された指示体(図例のような利用者の指先等)OBの位置情報を反映させた画像を画像投影部90(図2参照)により投影させる。
The
以下、図13等を参照して、撮像部250を構成する各カメラ250a,250bの撮像範囲に関して説明する。なお、既述のように、カメラ250a,250bは、魚眼レンズ230a,230bと、撮像素子240a,240bとをそれぞれ有する。図13では、カメラ250aとカメラ250bとの対称性により1つのカメラのみを図示するとともに説明し、他方については説明を省略する。なお、図示のように、本実施形態においても、カメラ250b(又はカメラ250a)の光軸AXは、プロジェクター本体部100pの被照射面であるスクリーンSCに対して垂直ではなく、下方に少し傾いている。すなわち、撮像部50を構成する各カメラ250a,250bは、必要に応じて、あおりを付けた状態で撮像を行っている。なお、ここでは、一例として、あおり角α=10°とする。
Hereinafter, the imaging ranges of the
本実施形態では、検出対象である指示体(指先)OBを2つのカメラ250a,250bによって視差を利用した立体的な検出を可能としている。すなわち、スクリーンSCをタッチする利用者の指手を撮像して奥行きのある立体的形状として捉えるための情報を得る必要がある。このため、スクリーンSC上の投影領域である被照射領域PLaに加え、被照射領域PLaを含む立体的領域を含むように撮像を行っている。本実施形態では、一例として、図14に示すように、スクリーンSCから垂直方向(奥行き方向)について、距離dだけ離れた範囲までを撮像範囲たる立体的領域CDとする。ここでは、指の先端から手首くらいまでを撮像できるように、距離dを160mm(16cm)とする。この場合、図14に示すように、立体的領域CDは、被照射領域PLaを底面とし、距離dを厚みとする直方体状の領域となる。したがって、撮像部250(カメラ250a,250b)の撮影範囲は、被照射領域PLaのみとした場合に比べてさらに広がり、特に広画角化する必要がある。
In the present embodiment, the indicator (fingertip) OB, which is a detection target, can be detected three-dimensionally using parallax by the two
図15は、上記具体的一例の画像投射における撮像部250を構成するカメラ250bの位置と撮像範囲の寸法について示す図である。なお、図15は、第1実施形態における図5に対応する図である。撮像部250のうちもう1つのカメラ250aについては、左右の位置を逆転させたものとなるだけで同様の考察が可能であるため、図示及び説明を省略する。図15のうち、左側は、正面側から見た位置関係についての寸法を示す図であり、右側は、側面(横)側から見た位置関係についての寸法を示す図である。カメラ250bのカメラ位置Paは、被照射領域PLaの左上方であり、例えば水平方向については、投射光PLの投射位置から左側に30cmほど離間している。
FIG. 15 is a diagram illustrating the position of the
なお、図示のように、検出範囲である立体的領域CDの上端面の領域を検出領域DD1とすると、これに対応するスクリーンSC上の領域は、破線で示す領域DLaとなる。すなわち、撮像部50は、検出領域DD1での検出を可能とするためには、スクリーンSC上で換算して領域DLaとなるような範囲についてまで撮像可能となっている必要がある。また、距離dの値が大きくなる(検出領域DD1が被照射領域PLaから遠くなる)につれて、領域DLaは急激に大きくなる。本構成では、超短焦点近接投射を行っているためである。以上のように、距離dの値が大きくなるほど、撮像部50を広画角化させる必要性が生じる。
As shown in the figure, when the region on the upper end surface of the three-dimensional region CD, which is the detection range, is a detection region DD1, the region on the screen SC corresponding to this is a region DLa indicated by a broken line. That is, in order to enable detection in the detection area DD1, the
図16A及び16Bは、本実施形態におけるプロジェクター300の各部と投射画像との位置関係や、撮像部250(カメラ250a,250b)により撮像されたセンサー上での画像の様子を例示するものである。すなわち、図16A及び16Bは、第1実施形態における図6A及び6B等に対応する図である。
16A and 16B exemplify the positional relationship between each part of the
本実施形態では、プロジェクター300のうち、撮像部250における魚眼レンズ230a,230bとして、次式で規定される等距離射影方式を採用する。
y=f・θ
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
In the present embodiment, as the
y = f · θ
Here, the focal length is f, the half field angle (or simply the field angle) is θ, and the image height is y.
なお、図16A等では、左右の対称性から、撮像部250のうちカメラ250bのみ表示しており、カメラ250aについては省略している。なお、カメラ250aとカメラ250bとの配置に関しては、図17を参照して後述する。
In FIG. 16A and the like, only the
図16A等に示すように、本実施形態では、撮像素子240bを被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。
As shown in FIG. 16A and the like, in this embodiment, the
ここで、図16Bに示す画像PIにおいて、映像画像DDiは、図15の検出領域DD1に対応する画像である。本実施形態の場合、既述のように、図15等に示す立体的領域CDについて検出を行うことを要する。したがって、立体的領域CDを検出可能な範囲とするためには、カメラ250bは、映像画像PLiのみならず映像画像DDiまでが、アクティブエリアAE内に収まるようにする必要がある。このような条件下において、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子240bの傾斜角度は、上記具体的一構成例の場合では、20.9°であった。また、この時のカメラ250bの焦点距離fは、f=2.03であった。
Here, in the image PI shown in FIG. 16B, the video image DDi is an image corresponding to the detection region DD1 in FIG. In the present embodiment, as described above, it is necessary to detect the three-dimensional area CD shown in FIG. Therefore, in order to make the stereoscopic area CD a detectable range, the
なお、詳細は省略するが、本実施形態に対する比較例として撮像素子240bを傾けていない場合(撮像素子240bの傾斜角度が0°の場合)についての検証結果と比べて、本実施形態の方が優れていることが分かっている。なお、本実施形態のように、撮像素子を傾けることにより、傾けていない場合に比べて、像が大きくできるので位置精度を高くできる。
Although details are omitted, as compared with the verification result when the
以下、図17を参照して、カメラ250aとカメラ250bとの配置のうち、特に撮像素子240aと撮像素子240bとの関係について説明する。既述のように、カメラ250aとカメラ250bとは、プロジェクター本体部100pを中央にして左右対称に配置されている。左右の対称性から、撮像素子240aにおける映像画像PLi,DDiは、図16Bに示す撮像素子240bのものとは左右反転したものとすることが望ましい。つまり、図17に示すように、撮像素子240aと撮像素子240bとでの傾斜角度についても左右反転させておくことが望ましい。具体的には、上記では、撮像素子240bを所定の角度(20.9°)だけ右回転させた状態となるように傾斜させているのに対応して、撮像素子240aを所定の角度(20.9°)だけ左回転させた状態となるように傾斜させておくべきであると考えられる。以上のように、一対のカメラ250a,250bにそれぞれ設けた撮像素子240a,240bは、異なる向きに同じ大きさの角度で傾いている。これにより、各カメラ250a,250bにおいて、設置位置に応じて被照射領域PLaをより大きく映し出すことができる。
Hereinafter, among the arrangements of the
以下、図18を参照して本実施形態の一変形例について説明する。本変形例では、図18Aに示すように、撮像素子240bを所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。
Hereinafter, a modification of the present embodiment will be described with reference to FIG. As shown in FIG. 18A, the present modification is different from the above example in that the
本変形例においては、図18Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子240bの傾斜角度は、上記具体的一構成例の場合では、30.1°であった。また、この時のカメラ250bの焦点距離fは、f=2.06であった。
In this modification, as shown in FIG. 18B, the tilt angle of the
上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fからすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。 In the case of the above specific configuration example, the size of the video image PLi in the above example and the present modification is slightly better in the case of left rotation in terms of the focal length f, but is almost unchanged and substantially the same. It was performance. In other words, there was not much difference depending on the direction of tilt.
なお、図19は、本変形例におけるカメラ250aとカメラ250bとの配置のうち、撮像素子240aと撮像素子240bとの関係について示す図である。本変形例においても、左右の対称性により、撮像素子240aと撮像素子240bとでの傾斜角度についても左右反転させておくことが望ましいと考えられる。すなわち、撮像素子240a,240bを、異なる向きに同じ大きさの角度で傾けることにより、各カメラ250a,250bにおいて、設置位置に応じて被照射領域PLaをより大きく映し出すことができる。
FIG. 19 is a diagram illustrating a relationship between the
以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。 As described above, also in the present embodiment, by tilting the image sensor with respect to the rectangular projection image, each position of the video image corresponding to the projection region (projection image) can be displayed larger, The position detection accuracy can be improved.
〔第4実施形態〕
以下、図20等を参照して、第3実施形態を変形した第4実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部において採用する魚眼レンズの射影条件を除いて、第3実施形態と同様の構成であるので、プロジェクターシステム全体についての詳細な説明を省略する。特に、撮像部を構成する一対のカメラについて一方を省略している。具体的一構成例(具体的仕様)についても、第3実施形態において示した場合と同様であるものとする。
[Fourth Embodiment]
Hereinafter, with reference to FIG. 20 etc., 4th Embodiment which deform | transformed 3rd Embodiment is described. Note that the projector system according to the present embodiment has the same configuration as that of the third embodiment except for the projection condition of the fisheye lens employed in the imaging unit, and thus a detailed description of the entire projector system is omitted. In particular, one of the pair of cameras constituting the imaging unit is omitted. A specific configuration example (specific specification) is also the same as that shown in the third embodiment.
図20A及び20Bは、本実施形態におけるプロジェクターの各部と投射画像との位置関係や、撮像部により撮像されたセンサー上での画像の様子、さらには、撮像部により撮像された撮像素子(センサー)上のうちの画像の一部を例示するものである。すなわち、図20A及び20Bは、第3実施形態における図16A及び16Bに対応する図である。 20A and 20B show the positional relationship between each part of the projector and the projected image, the state of the image on the sensor imaged by the imaging unit, and the image sensor (sensor) imaged by the imaging unit. A part of the upper image is illustrated. That is, FIGS. 20A and 20B correspond to FIGS. 16A and 16B in the third embodiment.
本実施形態では、プロジェクター400のうち、撮像部350における魚眼レンズ330bとして、次式で規定される立体射影方式を採用する。
y=2f・tan(θ/2)
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
In the present embodiment, as the fish-
y = 2f · tan (θ / 2)
Here, the focal length is f, the half field angle (or simply the field angle) is θ, and the image height is y.
なお、図20A等では、左右の対称性から、撮像部350のうちカメラ350bのみ表示しており、もう一方のカメラについては図示を省略している。
In FIG. 20A and the like, only the
図20A等に示すように、本実施形態では、撮像素子340bを被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。
As shown in FIG. 20A and the like, in this embodiment, the
また、図20Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子340bの傾斜角度は、上記具体的一構成例の場合では、20.7°であった。また、この時のカメラ350bの焦点距離fは、f=1.78であった。
Further, as shown in FIG. 20B, the inclination angle of the
また、上記のほか、特に、立体射影方式とした場合、指示体OBの角度(姿勢)が変化しても各位置での幅(指幅)が変わらず一定値を取っていることが分かっている。 In addition to the above, especially in the case of the three-dimensional projection method, it can be seen that the width (finger width) at each position does not change even if the angle (posture) of the indicator OB changes and takes a constant value. Yes.
なお、詳細は省略するが、本実施形態に対する比較例として撮像素子340bを傾けていない場合(撮像素子340bの傾斜角度が0°の場合)についての検証結果と比べて、本実施形態の方が優れていることが分かっている。なお、本実施形態のように、撮像素子を傾けることにより、傾けていない場合に比べて、像が大きくできるので位置精度を高くできる。
Although details are omitted, as compared with the verification result when the
以下、図21を参照して本実施形態の一変形例について説明する。本変形例では、図21Aに示すように、撮像素子340bを所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。
Hereinafter, a modification of the present embodiment will be described with reference to FIG. As shown in FIG. 21A, the present modification is different from the above example in that the
本変形例においては、図21Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子340bの傾斜角度は、上記具体的一構成例の場合では、29.7°であった。また、この時のカメラ350bの焦点距離fは、f=1.79であった。
In this modification, as shown in FIG. 21B, the inclination angle of the
上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fからすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。 In the case of the above specific configuration example, the size of the video image PLi in the above example and the present modification is slightly better in the case of left rotation in terms of the focal length f, but is almost unchanged and substantially the same. It was performance. In other words, there was not much difference depending on the direction of tilt.
以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。 As described above, also in the present embodiment, by tilting the image sensor with respect to the rectangular projection image, each position of the video image corresponding to the projection region (projection image) can be displayed larger, The position detection accuracy can be improved.
〔その他〕
この発明は、上記の各実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
[Others]
The present invention is not limited to the above embodiments, and can be implemented in various modes without departing from the scope of the invention.
上記では、具体的一構成例(具体的仕様)に即して説明しているが、これはあくまで一例であり、構成例については種々の多様な場合が考えられる。 In the above description, a specific configuration example (specific specification) is described. However, this is merely an example, and various various cases can be considered for the configuration example.
例えば、上記では、70インチの被照射領域(投影領域)を形成するものとしているが、70インチ以上(例えば70インチ〜120インチ程度)とすることが考えられる。また、近接投射に関して、スローレシオを約0.27としているが、例えば0.27以下とする構成にしてもよい。 For example, in the above, an irradiation area (projection area) of 70 inches is formed, but it is conceivable that the irradiation area is 70 inches or more (for example, about 70 inches to 120 inches). Further, regarding the proximity projection, the slow ratio is set to about 0.27, but may be configured to be 0.27 or less, for example.
例えば、上記では、プロジェクター100におけるカメラ位置は、水平方向について投射光PLの投射位置から左側に30cmほど離間しているものとしているが、カメラ位置についても種々の場合が考えられ、これに応じて撮像素子の傾斜角度も異なる。また、プロジェクターにおける投射距離を異なる値とすることも考えられる。
For example, in the above description, it is assumed that the camera position in the
また、上記のうち例えば第3実施形態では、立体的領域CDの奥行き方向について、距離dを160mm(16cm)としているが、16cm以上とすることも考えられる。 Further, among the above, for example, in the third embodiment, the distance d is set to 160 mm (16 cm) in the depth direction of the three-dimensional area CD, but it may be set to 16 cm or more.
また、上記のうち例えば第3実施形態では、撮像部250を構成する一対のカメラ250a,250bから取得された画像情報に基づく視差情報によって指示体を立体的形状として捉えることができる。この際、各カメラ250a,250bからの画像情報は、キャリブレーションでの対応付けに基づいてそれぞれ画像処理が施されるものとなる。この画像処理については、各カメラ250a,250bからの画像情報ごとに個別に行うものとしてもよいが、一対のカメラ250a,250bは、左右の対称性を有していることを利用して、一方の処理方法を、左右反転させて他方に転用するものとしてもよい。また、この場合、2つの画像処理を一括して行うものとしてもよい。
In the third embodiment, for example, the indicator can be regarded as a three-dimensional shape based on the parallax information based on the image information acquired from the pair of
また、上記では、プロジェクター制御部CTや、プロジェクター100に接続可能なPC等において各種処理をなすものとして記載しているが、担わせる処理については、種々の態様が可能であり、例えば、撮像部50で取得した投射光PLの情報に基づく画像投射位置と、撮像部50により検出された検出光DLに基づく位置とを特定する等の処理をPC側で行うようにするといったことが考えられる。言い換えると、プロジェクター制御部CTにおける上記画像投射位置や指示体による指示位置を特定し、特定した位置関係に基づく画像投影の制御の一部又は全部をPC等の外部接続機器で行う(PC等がプロジェクター制御部を構成する)ものとしてもよい。また、逆に、PC等を接続せず、例えば、プロジェクター制御部CTにおいて全ての処理を担わせる構成(PCレス)とすることも可能である。
In the above description, the projector control unit CT and the PC that can be connected to the
また、上記では、キャリブレーションにおいて、パターン画像PTを緑色波長帯域の光で構成されるパターン画像光GLによって投影するものとしているが、パターン画像PTの投影については、緑色波長帯域の光に限らず、他の波長帯域の光を利用することも考えられる。 In the above description, in the calibration, the pattern image PT is projected by the pattern image light GL composed of light in the green wavelength band. However, the projection of the pattern image PT is not limited to light in the green wavelength band. It is also conceivable to use light in other wavelength bands.
また、上記では、プロジェクター本体部100pを構成する光源や光変調装置、投射光学系等については、図示や詳細な説明を省略しているが、種々の態様が適用可能であり、例えば光源に関しては、上記のほか、例えば高圧水銀ランプ等を利用し、3色の光源に分離して適用することも可能である。光変調装置については、上記のほか、例えば光変調装置についても液晶パネルにカラーフィルターを利用したものや、反射型液晶パネル、デジタル・マイクロミラー・デバイス等により構成するといった種々の態様が考えられる。
In the above description, illustration and detailed description of the light source, the light modulation device, the projection optical system, and the like constituting the projector
なお、等距離射影と立体射影とを比較すると、一般的には、立体射影の方が性能は良くなるが、設計や製造が難しくコストも高くなる傾向にあると考えられる。したがって、ペン先の発光点等を位置検出するような比較的検出精度を必要としない方式では等距離射影を採用し、指等の指示体の形状を検出することにより位置検出をする比較的検出精度が必要な方式では立体射影を採用する、といったことも考えらえる。 In addition, when comparing equidistant projection and stereoscopic projection, it is generally considered that stereoscopic projection has better performance, but is difficult to design and manufacture and tends to increase cost. Therefore, a method that does not require a relatively high detection accuracy, such as detecting the position of the light emitting point of the pen tip, employs equidistant projection, and detects the position by detecting the shape of a pointer such as a finger. It is conceivable that a method that requires accuracy adopts a stereoscopic projection.
30…魚眼レンズ、40…撮像素子(センサー部)、40f…矩形枠、50…撮像部、70…ペン、82…通信部、90…画像投影部、100…プロジェクター、100p…プロジェクター本体部、130…魚眼レンズ、140…撮像素子(センサー部)、150…撮像部、200…プロジェクター、230a,230b…魚眼レンズ、240a,240b…撮像素子(センサー部)、250…撮像部、250a,250b…カメラ、300…プロジェクター、330b…魚眼レンズ、340b…撮像素子(センサー部)、350…撮像部、350a,350b…カメラ、400…プロジェクター、500…プロジェクターシステム、600…プロジェクターシステム、AE…アクティブエリア、AX…光軸、CD…立体的領域、CT…プロジェクター制御部、d…距離、DD1…検出領域、DDi…映像画像、DL…検出光、DLa…領域、f…焦点距離、f1…投射距離、GG…画像、GL…パターン画像光、HS…横サイズ、HU…利用者、IL…赤外光、LC…液晶パネル、LL1…曲線部分、Pa…カメラ位置、PI…画像、PL…投射光、PLa…被照射領域(投影領域)、PLf…矩形枠、PLi…映像画像、PT…パターン画像、SC…スクリーン、SE…エリア、SP…位置、SPi…画像点、TP…先端部、α…あおり角
DESCRIPTION OF
Claims (10)
魚眼レンズと前記魚眼レンズを介して受光する矩形のセンサー部とを有して前記プロジェクター本体部からの画像光の投影領域を撮像する撮像部と
を備え、
前記矩形のセンサー部は、前記プロジェクター本体部からの画像光によって前記投影領域に形成される矩形の投射画像に対して傾いている、プロジェクターシステム。 A projector main body that projects image light obliquely;
An imaging unit that has a fisheye lens and a rectangular sensor unit that receives light through the fisheye lens, and that captures a projection area of image light from the projector body unit;
The rectangular sensor unit is tilted with respect to a rectangular projection image formed in the projection area by image light from the projector main body unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016225730A JP2018085553A (en) | 2016-11-21 | 2016-11-21 | Projector system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016225730A JP2018085553A (en) | 2016-11-21 | 2016-11-21 | Projector system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018085553A true JP2018085553A (en) | 2018-05-31 |
Family
ID=62238637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016225730A Pending JP2018085553A (en) | 2016-11-21 | 2016-11-21 | Projector system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018085553A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020112711A (en) * | 2019-01-15 | 2020-07-27 | セイコーエプソン株式会社 | Method for controlling projector, projector, and projection system |
WO2021005711A1 (en) * | 2019-07-09 | 2021-01-14 | マクセル株式会社 | Projection type video display device |
JP7547992B2 (en) | 2020-02-10 | 2024-09-10 | 株式会社リコー | Projection device and operation detection device |
-
2016
- 2016-11-21 JP JP2016225730A patent/JP2018085553A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020112711A (en) * | 2019-01-15 | 2020-07-27 | セイコーエプソン株式会社 | Method for controlling projector, projector, and projection system |
US11109007B2 (en) | 2019-01-15 | 2021-08-31 | Seiko Epson Corporation | Method for controlling projector, projector, and projection system |
WO2021005711A1 (en) * | 2019-07-09 | 2021-01-14 | マクセル株式会社 | Projection type video display device |
JPWO2021005711A1 (en) * | 2019-07-09 | 2021-01-14 | ||
JP7177936B2 (en) | 2019-07-09 | 2022-11-24 | マクセル株式会社 | Projection type image display device |
US12044900B2 (en) | 2019-07-09 | 2024-07-23 | Maxell, Ltd. | Projection type video display device |
JP7547992B2 (en) | 2020-02-10 | 2024-09-10 | 株式会社リコー | Projection device and operation detection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5973087B2 (en) | Projection-type image display device | |
KR102463712B1 (en) | Virtual touch recognition apparatus and method for correcting recognition error thereof | |
TW201741693A (en) | Projection device | |
JP6307972B2 (en) | REFLECTOR, ADJUSTING METHOD, AND POSITION DETECTION DEVICE | |
US20110115904A1 (en) | Object-detecting system | |
JP6822234B2 (en) | Projector system | |
US20110074738A1 (en) | Touch Detection Sensing Apparatus | |
WO2018092627A1 (en) | Projector system | |
US20110084938A1 (en) | Touch detection apparatus and touch point detection method | |
US20110199337A1 (en) | Object-detecting system and method by use of non-coincident fields of light | |
JP2005107607A (en) | Optical position detecting apparatus | |
US20130241883A1 (en) | Optical touch system and optical touch-position detection method | |
JP2018085553A (en) | Projector system | |
US10318067B2 (en) | Corner generation in a projector display area | |
US9639209B2 (en) | Optical touch system and touch display system | |
US20110193969A1 (en) | Object-detecting system and method by use of non-coincident fields of light | |
US20140306934A1 (en) | Optical touch panel system, optical apparatus and positioning method thereof | |
US20110012867A1 (en) | Optical touch screen device | |
TWI564773B (en) | Optical touch system and optical touch apparatus thereof | |
US20150185321A1 (en) | Image Display Device | |
JP2017129767A (en) | Reflector, method of adjusting light-emitting device, and detection system | |
US20130241882A1 (en) | Optical touch system and optical touch position detecting method | |
JP6314177B2 (en) | Projection-type image display device | |
TWI543046B (en) | Optical touch-control system | |
WO2017038025A1 (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180907 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181120 |