JP2018085553A - Projector system - Google Patents

Projector system Download PDF

Info

Publication number
JP2018085553A
JP2018085553A JP2016225730A JP2016225730A JP2018085553A JP 2018085553 A JP2018085553 A JP 2018085553A JP 2016225730 A JP2016225730 A JP 2016225730A JP 2016225730 A JP2016225730 A JP 2016225730A JP 2018085553 A JP2018085553 A JP 2018085553A
Authority
JP
Japan
Prior art keywords
image
projection
projector
imaging unit
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016225730A
Other languages
Japanese (ja)
Inventor
信 大谷
Makoto Otani
信 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016225730A priority Critical patent/JP2018085553A/en
Publication of JP2018085553A publication Critical patent/JP2018085553A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an interactive projector system capable of accurately detecting the position of an object to be detected on a projection screen.SOLUTION: An imaging unit 50 has a fisheye lens 30 to thereby pick up an image in a wide detection range. Even when the image in the projection area picked up by using the fisheye lens 30 is distorted, by inclining the image pick-up device 40 as a part of a rectangular sensor, the image in an irradiation area (projection area) PLa is fully expanded within the image pick-up device 40, and each position is largely projected.SELECTED DRAWING: Figure 3

Description

本発明は、投射画面上にある指等の指示体を検出してこれを投射画像の内容に反映させることで書き込みができるいわゆるインタラクティブなプロジェクターを実現するためのプロジェクターシステムに関する。   The present invention relates to a projector system for realizing a so-called interactive projector capable of writing by detecting an indicator such as a finger on a projection screen and reflecting it on the content of a projection image.

インタラクティブなプロジェクターとして、例えば投射画面(スクリーン)のほぼ全体に、赤外光の層を形成するように射出させる光出射装置を、プロジェクターの投射機構とは別個に設け、当該光出射装置からの赤外光が、指示体の先端(例えば、指先)で反射され、この反射光を撮像部等の位置検知装置で検出することをもって指示体による指示操作を検出し、インタラクティブ機能を達成するものも知られている(例えば特許文献1参照。)。   As an interactive projector, for example, a light emitting device that emits an infrared light layer on almost the entire projection screen (screen) is provided separately from the projection mechanism of the projector, and red light from the light emitting device is provided. Also known is that external light is reflected at the tip (eg, fingertip) of the indicator, and the reflected light is detected by a position detection device such as an imaging unit to detect an instruction operation by the indicator and achieve an interactive function. (For example, refer to Patent Document 1).

また、インタラクティブなプロジェクターとして、例えば投射画面上を指し示すポインティングデバイスから射出される赤外光を撮像装置で検出するとともに当該赤外光の投射画面上での発光位置を特定することで上記のようなインタラクティブ機能を達成するものが知られている(例えば特許文献2参照。)。   Further, as an interactive projector, for example, infrared light emitted from a pointing device pointing on the projection screen is detected by the imaging device and the light emission position of the infrared light on the projection screen is specified as described above. One that achieves an interactive function is known (see, for example, Patent Document 2).

しかしながら、インタラクティブなプロジェクターの構成では、利用者が投射画面(スクリーン)に近づいて位置を指し示して使用しても、利用者の影がスクリーンに映りにくいように斜め投射(近接投射)としていることが多い。このため、広画角の撮像装置が求められる。この場合、検出範囲のうち特に周辺側では、検出箇所の画像が歪められて小さくなってしまい、誤検出や不検出を生じてしまう、すなわち位置検出の精度が低下する可能性が高くなる。この場合、インタラクティブなプロジェクターでは、例えば描画位置が指示体としてのペンのペン先とずれてしまい、意図した位置にきちんと画が描けない、といったことが生じてしまうことになる。   However, in an interactive projector configuration, even if the user approaches the projection screen (screen) and indicates the position, the projector may be obliquely projected (proximity projection) so that the user's shadow is not easily reflected on the screen. Many. For this reason, an imaging device with a wide angle of view is required. In this case, particularly in the peripheral side of the detection range, the image of the detection location is distorted and becomes small, and erroneous detection or non-detection occurs, that is, there is a high possibility that the position detection accuracy decreases. In this case, in an interactive projector, for example, the drawing position may deviate from the pen tip of the pen as the indicator, and the image cannot be drawn properly at the intended position.

特開2015−159524号公報JP2015-159524A 特開2013−38626号公報JP 2013-38626 A

本発明は、インタラクティブなプロジェクターを実現するに際して、投射画面上における検出対象についての位置検出精度が高いプロジェクターシステムを提供することを目的とする。   An object of the present invention is to provide a projector system having high position detection accuracy for a detection target on a projection screen when an interactive projector is realized.

上記目的を達成するため、本発明に係るプロジェクターシステムは、画像光を斜方投射するプロジェクター本体部と、魚眼レンズと魚眼レンズを介して受光する矩形のセンサー部とを有してプロジェクター本体部からの画像光の投影領域を撮像する撮像部とを備え、矩形のセンサー部は、プロジェクター本体部からの画像光によって投影領域に形成される矩形の投射画像に対して傾いている。   In order to achieve the above object, a projector system according to the present invention includes a projector main body that projects image light obliquely, and a fisheye lens and a rectangular sensor that receives light via the fisheye lens. The rectangular sensor unit is inclined with respect to the rectangular projection image formed in the projection region by the image light from the projector main body unit.

上記プロジェクターシステムでは、撮像部において魚眼レンズを適用することで、広い検出範囲を撮像可能としつつ、魚眼レンズを用いることで撮像した投影領域の画像が歪んでも、矩形のセンサー部を傾けていることで、投影領域を撮像した画像を矩形のセンサー部のエリア内一杯に広げた際に、撮像された投影領域の各位置をより大きく映し出すことができるので、位置検出精度を向上させることができる。   In the projector system, by applying a fisheye lens in the imaging unit, it is possible to image a wide detection range, and even if the image of the projection area captured by using the fisheye lens is distorted, the rectangular sensor unit is inclined, When the image obtained by capturing the projection area is fully expanded within the area of the rectangular sensor unit, each position of the imaged projection area can be displayed larger, so that the position detection accuracy can be improved.

本発明の具体的な側面によれば、撮像部は、魚眼レンズとして等距離射影方式のレンズを有する。この場合、等距離射影方式を採用することで、斜方投射による近接した投影領域を撮像部によって撮像するに際して、十分に広画角なものにできる。   According to a specific aspect of the present invention, the imaging unit includes an equidistant projection type lens as a fisheye lens. In this case, by adopting the equidistant projection method, it is possible to obtain a sufficiently wide angle of view when the close projection area by oblique projection is imaged by the imaging unit.

本発明の別の側面によれば、撮像部は、魚眼レンズとして立体射影方式のレンズを有する。この場合、立体射影方式を採用することで、画像の周辺部における歪みを抑えつつ広画角化を図ることができる。   According to another aspect of the present invention, the imaging unit includes a stereoscopic projection type lens as a fisheye lens. In this case, by adopting the stereoscopic projection method, it is possible to achieve a wide angle of view while suppressing distortion at the peripheral part of the image.

本発明のさらに別の側面によれば、撮像部は、赤外光波長帯域の光を、画像光の波長帯域以外の波長帯域の検出光として検出する。この場合、赤外光波長帯域の光を利用して画像光以外の光を検出光として検出させることができる。   According to still another aspect of the present invention, the imaging unit detects light in the infrared light wavelength band as detection light in a wavelength band other than the wavelength band of the image light. In this case, light other than image light can be detected as detection light by using light in the infrared wavelength band.

本発明のさらに別の側面によれば、撮像部は、プロジェクター本体部からの画像光の投影領域を含む立体的領域を撮像して立体的領域に存する指示体を検出可能にする。この場合、投影領域のみならず投影領域を含む立体的領域まで撮像可能となる。   According to still another aspect of the present invention, the imaging unit images a stereoscopic area including a projection area of image light from the projector main body, and enables detection of an indicator existing in the stereoscopic area. In this case, not only the projection area but also a three-dimensional area including the projection area can be imaged.

本発明のさらに別の側面によれば、撮像部は、2以上のカメラを含む。この場合、例えば視差情報が取得可能となる。   According to still another aspect of the present invention, the imaging unit includes two or more cameras. In this case, for example, parallax information can be acquired.

本発明のさらに別の側面によれば、撮像部は、2以上のカメラとして、プロジェクター本体部からの画像光の射出方向に交差する方向に離間して設けられる一対のカメラを有し、当該一対のカメラにそれぞれ設けた矩形のセンサー部は、異なる向きに傾いている。この場合、当該一対のカメラを構成する各カメラにおいて、設置位置に応じて投影領域をより大きく映し出すことができる。   According to still another aspect of the present invention, the imaging unit includes, as two or more cameras, a pair of cameras that are provided apart from each other in a direction that intersects an emission direction of the image light from the projector main body unit. The rectangular sensor portions provided on the cameras are inclined in different directions. In this case, in each camera constituting the pair of cameras, it is possible to project a larger projection area according to the installation position.

本発明のさらに別の側面によれば、撮像部は、0°〜15°の範囲内のあおり角で傾いている。この場合、撮像部の広画角化を抑制できる。   According to still another aspect of the present invention, the imaging unit is inclined at a tilt angle within a range of 0 ° to 15 °. In this case, the wide angle of view of the imaging unit can be suppressed.

本発明のさらに別の側面によれば、撮像部で取得した画像光の情報に基づく画像投射位置と、撮像部により検出された位置とを特定し、特定した位置関係に基づく画像投影の制御を行うプロジェクター制御部をさらに備える。この場合、プロジェクター制御部によって、画像投射位置と撮像部により検出された位置とを対応づけて、例えば検出された位置の動きを投射画面上に書き込むといったインタラクティブなプロジェクターの動作が可能になる。なお、プロジェクター制御部については、例えばプロジェクター本体部に組み込まれる場合のほか、プロジェクター本体部に接続されるPCがプロジェクター制御部として機能する等種々の態様が考えられる。   According to still another aspect of the present invention, an image projection position based on image light information acquired by the imaging unit and a position detected by the imaging unit are identified, and image projection control based on the identified positional relationship is performed. A projector control unit is further provided. In this case, the projector control unit can associate the image projection position with the position detected by the imaging unit, and can perform an interactive projector operation such as writing the movement of the detected position on the projection screen, for example. As for the projector control unit, various modes such as a case where the PC connected to the projector main unit functions as the projector control unit in addition to the case where the projector control unit is incorporated in the projector main unit are conceivable.

本発明のさらに別の側面によれば、プロジェクター本体部は、撮像部により検出された位置の情報を反映した画像投射を行う。この場合、検出された位置の情報を反映させたインタラクティブな画像投射が可能になる。   According to still another aspect of the present invention, the projector main body performs image projection that reflects information on a position detected by the imaging unit. In this case, interactive image projection reflecting information on the detected position is possible.

第1実施形態のプロジェクターシステムの概略構成を示す図である。It is a figure which shows schematic structure of the projector system of 1st Embodiment. プロジェクターシステムの構成を示す図である。It is a figure which shows the structure of a projector system. 一例のプロジェクターにおける撮像部の撮影範囲について説明するための図である。It is a figure for demonstrating the imaging | photography range of the imaging part in an example projector. プロジェクターのスローレシオについて説明するための図である。It is a figure for demonstrating the slow ratio of a projector. 一例のプロジェクターにおける投射画面の各位置での投射角度を示す図である。It is a figure which shows the projection angle in each position of the projection screen in an example projector. 一例のプロジェクターにおける撮像部の位置と撮像範囲についての寸法に関して示す図である。It is a figure shown regarding the dimension about the position and imaging range of an imaging part in an example projector. 一例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part and the projection image of a projector in an example projector. 一例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in an example projector. 撮像部により撮像されたセンサー上のうちの一部での画像の例を示す図である。It is a figure which shows the example of the image in a part on the sensor imaged by the imaging part. 比較例のプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part of the projector of a comparative example, and a projection image. 比較例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in the projector of a comparative example. 比較例のプロジェクターの撮像部により撮像されたセンサー上のうちの一部での画像の例を示す図である。It is a figure which shows the example of the image in one part on the sensor imaged by the imaging part of the projector of the comparative example. キャリブレーション時のパターン画像の投影の様子を示す図である。It is a figure which shows the mode of the projection of the pattern image at the time of calibration. 一変形例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part of a projector and projection image in the projector of one modification. 一変形例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in the projector of one modification. 一変形例の撮像部により撮像されたセンサー上のうちの一部での画像の例を示す図である。It is a figure which shows the example of the image in a part on the sensor imaged by the imaging part of the modification. 第2実施形態のプロジェクターシステムを構成する一例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part of a projector in a projector of an example which comprises the projector system of 2nd Embodiment, and a projection image. 一例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in an example projector. 一変形例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part of a projector and projection image in the projector of one modification. 一変形例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in the projector of one modification. 第3実施形態のプロジェクターシステムの概略構成を示す図である。It is a figure which shows schematic structure of the projector system of 3rd Embodiment. 撮像部の撮影範囲について説明するための図である。It is a figure for demonstrating the imaging | photography range of an imaging part. 撮像部の撮影範囲としての立体的領域を示す斜視図である。It is a perspective view which shows the three-dimensional area | region as an imaging | photography range of an imaging part. 一例のプロジェクターにおける撮像部の位置と撮像範囲についての寸法に関して示す図である。It is a figure shown regarding the dimension about the position and imaging range of an imaging part in an example projector. 一例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part and the projection image of a projector in an example projector. 一例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in an example projector. 一例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part and the projection image of a projector in an example projector. 一変形例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part of a projector and projection image in the projector of one modification. 一変形例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in the projector of one modification. 一変形例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part of a projector and projection image in the projector of one modification. 第3実施形態のプロジェクターシステムを構成する一例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part of a projector in a projector of an example which comprises the projector system of 3rd Embodiment, and a projection image. 一例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in an example projector. 一変形例のプロジェクターにおけるプロジェクターの各部と投射画像との位置関係を示す図である。It is a figure which shows the positional relationship of each part of a projector and projection image in the projector of one modification. 一変形例のプロジェクターにおける撮像部により撮像されたセンサー上での画像の様子を示す図である。It is a figure which shows the mode of the image on the sensor imaged by the imaging part in the projector of one modification.

〔第1実施形態〕
以下、図面を参照して、本発明の第1実施形態に係るプロジェクターシステムについて説明する。
[First Embodiment]
Hereinafter, a projector system according to a first embodiment of the invention will be described with reference to the drawings.

図1等に示すプロジェクターシステム500は、画像光である投射光PLを投射(斜方投射)して画像投射を行うプロジェクター100で構成されている。なお、投射光PLの被照射領域PLaは、例えばスクリーンSC上に形成される。被照射領域PLaは、プロジェクター100からの投射光(画像光)PLの投影領域に相当する。また、図示を省略するが、プロジェクターシステム500は、プロジェクター100のほか、例えばPC等が接続されることで構成され、必要に応じて当該PCが各種処理をすることで被照射領域PLaでの表示画面上への書込みを受け付けるインタラクティブな状況での画像動作を可能にしている。プロジェクターシステム500のうち、プロジェクター100は、スクリーンSCの斜め上方に設置され、斜め下方のスクリーンSCに向けて近接投射をする短焦点タイプ(ここでは、いわゆる超短焦点近接投射となっている。)のプロジェクターであり、画像投射を行うための本体部分であるプロジェクター本体部100pと、撮像部50とで構成されている。   A projector system 500 shown in FIG. 1 and the like includes a projector 100 that projects image light by projecting projection light PL that is image light (oblique projection). The irradiated area PLa of the projection light PL is formed on the screen SC, for example. The irradiated area PLa corresponds to a projection area of projection light (image light) PL from the projector 100. Although not shown, the projector system 500 is configured by connecting, for example, a PC or the like in addition to the projector 100, and the PC performs various processes as necessary to display the irradiation area PLa. It enables image operations in interactive situations that accept writing on the screen. In the projector system 500, the projector 100 is installed shortly above the screen SC, and is a short focus type that projects close-up toward the screen SC diagonally below (here, it is a so-called ultra-short focus close projection). The projector main body 100p, which is a main body for performing image projection, and the imaging unit 50 are configured.

プロジェクター本体部100pは、スクリーンSCに向けて可視光波長帯域の光を合成して構成される画像光である投射光PLを投射して投影画像(カラー画像)の形成を行う。プロジェクターシステム500において、インタラクティブな画像投射を可能にするためには、投射画面上における指示体の位置を特定するための位置合わせ(キャリブレーション)がなされていることが前提となる。このキャリブレーションについては、図8を参照して後述する。   The projector body 100p forms a projection image (color image) by projecting projection light PL, which is image light configured by combining light in the visible light wavelength band, toward the screen SC. In the projector system 500, in order to enable interactive image projection, it is assumed that alignment (calibration) for specifying the position of the indicator on the projection screen is performed. This calibration will be described later with reference to FIG.

プロジェクター本体部100pは、詳細な図示を省略するが、光源や光変調装置、投射光学系等を備え、スクリーンSCに対する画像投影を行う。このため、例えば図2に示すように、プロジェクター本体部100pは、投射光学系を含む画像投影部90と、プロジェクター制御部CTとを有し、プロジェクター制御部CTにより画像投射等の各種動作制御がなされている。また、特に、プロジェクター制御部CTは、撮像部50からの情報を撮像部50の通信部82を介して受け付け可能とし、撮像部50からの情報を加味して投射させる画像の内容を修正することで画面上に書込みができるものとなっている、すなわちインタラクティブな画像投射を可能としている。   Although not shown in detail, the projector main body 100p includes a light source, a light modulation device, a projection optical system, and the like, and performs image projection on the screen SC. Therefore, for example, as shown in FIG. 2, the projector body 100 p includes an image projection unit 90 including a projection optical system and a projector control unit CT, and various operation controls such as image projection are performed by the projector control unit CT. Has been made. In particular, the projector control unit CT makes it possible to accept information from the imaging unit 50 via the communication unit 82 of the imaging unit 50, and corrects the content of the image to be projected in consideration of the information from the imaging unit 50. Thus, writing on the screen is possible, that is, interactive image projection is possible.

プロジェクター本体部100pを構成する光学系については、種々の態様が可能であるが、例えば光源等については、種々の構成のものが適用可能であり、例えばレーザー光源やLED光源、さらに有機EL(O−LED)を利用することも可能である。特に、有機EL素子等の自発光型の光源を適用した場合、光源が光変調の役割も兼ねた映像装置として構成できる。なお、光源(バックライト)と光変調とを個別の構成とする場合、光変調装置については、例えば透過型の液晶パネルとすることができる。   Various forms are possible for the optical system constituting the projector main body 100p. For example, various light sources can be applied, such as a laser light source, an LED light source, and an organic EL (O -LED) can also be used. In particular, when a self-luminous light source such as an organic EL element is applied, the light source can be configured as an image device that also serves as a light modulation. When the light source (backlight) and the light modulation are configured separately, the light modulation device can be, for example, a transmissive liquid crystal panel.

撮像部50は、プロジェクター本体部100pにより投射された投射画像を撮像して画像情報を取得するセンサー装置である。本実施形態では、特に、撮像部50は、プロジェクター本体部100pの側方(左側)に配置されている。撮像部50(もしくは撮像部50を構成するカメラ)は、例えば撮像レンズのほか、受光素子(撮像素子)すなわち受光用のセンサー、や通信部82(図2参照)による他の装置への送信等を含む各種制御を行う制御装置といったものを備えている。特に、本実施形態では、撮像レンズとして、いわゆる魚眼レンズを備えている。   The imaging unit 50 is a sensor device that captures a projection image projected by the projector body 100p and acquires image information. In the present embodiment, in particular, the imaging unit 50 is disposed on the side (left side) of the projector main body 100p. The imaging unit 50 (or the camera constituting the imaging unit 50) is, for example, an imaging lens, a light receiving element (imaging element), that is, a light receiving sensor, or transmission to another device by the communication unit 82 (see FIG. 2). And a control device for performing various controls including the above. In particular, in the present embodiment, a so-called fisheye lens is provided as the imaging lens.

以下、図3を参照して、撮像部50の構成や撮像範囲に関して一例を説明する。図示のように、本実施形態においては、撮像部50は、撮像レンズとしての魚眼レンズ30と、受光用のセンサーである撮像素子40とを有している。すなわち、撮像対象である被照射領域PLa上の投射画像を、魚眼レンズ30を介して取り込みつつ撮像素子40上に結像させている。なお、撮像素子40は、矩形のセンサー部である。本実施形態では、魚眼レンズ30として、次式で規定されるいわゆるfθレンズを用いた等距離射影方式を採用する。
y=f・θ
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
この場合、撮像画像において、特に周辺側で歪み(圧縮)が発生するものの、広画角にできる、すなわち撮像範囲を広げて十分広い検出範囲を確保できる。さらに、本実施形態では、矩形のセンサー部である撮像素子40は、被照射領域PLa上に映し出される矩形の投射画像(投射画面)に対して傾くように配置されている。なお、撮像素子40の傾きについて詳しくは図6A等を参照して後述する。
Hereinafter, an example of the configuration and imaging range of the imaging unit 50 will be described with reference to FIG. As illustrated, in the present embodiment, the imaging unit 50 includes a fish-eye lens 30 as an imaging lens and an imaging element 40 as a light receiving sensor. That is, the projection image on the irradiated region PLa, which is an imaging target, is formed on the imaging element 40 while being captured via the fisheye lens 30. Note that the image sensor 40 is a rectangular sensor unit. In the present embodiment, an equidistance projection method using a so-called fθ lens defined by the following equation is employed as the fisheye lens 30.
y = f · θ
Here, the focal length is f, the half field angle (or simply the field angle) is θ, and the image height is y.
In this case, in the captured image, although distortion (compression) occurs particularly on the peripheral side, it is possible to obtain a wide angle of view. Further, in the present embodiment, the image sensor 40 that is a rectangular sensor unit is disposed so as to be inclined with respect to a rectangular projection image (projection screen) displayed on the irradiated region PLa. Details of the tilt of the image sensor 40 will be described later with reference to FIG. 6A and the like.

また、ここで、撮像部50(撮像部50を構成するカメラ)の光軸AXは、プロジェクター本体部100pの被照射面であるスクリーンSCに対して垂直ではなく、下方に少し傾いている。すなわち、撮像部50は、あおりを付けた状態で撮像を行っている。この場合、適度にあおり角度を増加させることで、あおり角がない(0°)の場合に比べて撮像に必要となる最大画角を小さくできる。ここでは、あおり角αは、0°〜15°とする。例えば、撮像部50が十分広画角なものであれば、あおり角がない状態であってもよい。なお、ここでは、一例として、あおり角α=10°とする。   Here, the optical axis AX of the imaging unit 50 (camera constituting the imaging unit 50) is not perpendicular to the screen SC, which is the irradiated surface of the projector main body 100p, but slightly tilted downward. In other words, the imaging unit 50 captures an image with a tilt. In this case, by appropriately increasing the tilt angle, the maximum angle of view required for imaging can be reduced compared to the case where there is no tilt angle (0 °). Here, the tilt angle α is set to 0 ° to 15 °. For example, as long as the imaging unit 50 has a sufficiently wide angle of view, there may be no tilt angle. Here, as an example, the tilt angle α = 10 °.

図1等に戻って、プロジェクター本体部100pにおいて、プロジェクター制御部CT(図2参照)は、撮像部50での撮像により取得した画像情報に含まれる検出された指示体(後述する赤外光を発生するペンや利用者の指先等)の位置情報を反映させた画像を画像投影部90(図2参照)により投影させる。なお、撮像部50は、プロジェクター100の投影画像位置を把握するための構成として、その役割を果たすため、例えばプロジェクター本体部100pによる画像投影における投射角度や投射距離等に対応した角度等にカメラのレンズが向いているように配置されている。すなわち、プロジェクター100の設置環境が変わって投射距離等が変化してもプロジェクター本体部100pと撮像部50との位置関係に変化が生じないあるいは生じても画像の補正等が可能な程度にわずかなものとなるようにしている。   Returning to FIG. 1 and the like, in the projector main body 100p, the projector control unit CT (see FIG. 2) detects the detected indicator (infrared light described later) included in the image information acquired by the imaging by the imaging unit 50. An image reflecting the positional information of the generated pen or the fingertip of the user is projected by the image projection unit 90 (see FIG. 2). Note that the imaging unit 50 plays a role as a configuration for grasping the projection image position of the projector 100. Therefore, for example, the imaging unit 50 has an angle corresponding to a projection angle, a projection distance, or the like in image projection by the projector main body unit 100p. It is arranged so that the lens is facing. That is, even if the installation environment of the projector 100 changes and the projection distance or the like changes, the positional relationship between the projector main body 100p and the imaging unit 50 does not change, or even if it occurs, the image can be corrected to the extent possible. I try to be something.

また、プロジェクター本体部100pは、撮像部50により取得された画像情報に基づいて、プロジェクター本体部100pを構成する画像形成部(光変調における画素マトリクス)の画素と撮像部50に内蔵される撮像素子(受光用のセンサー)の画素との位置関係を対応付けるキャリブレーションを可能にしている。   In addition, the projector main body 100p includes pixels of an image forming unit (a pixel matrix in light modulation) constituting the projector main body 100p and an image pickup element built in the image pickup unit 50 based on image information acquired by the image pickup unit 50. Calibration that associates the positional relationship with the pixel of the (light receiving sensor) is enabled.

なお、撮像部50は、プロジェクター100を構成する一部として組み込まれるものとすることもできるが、例えば、撮像部50は、プロジェクター100とは別体の撮像装置として存在するものとしてもよい。   Note that the imaging unit 50 can be incorporated as part of the projector 100, but the imaging unit 50 may exist as an imaging device separate from the projector 100, for example.

ここで、図1を参照して、以上のような構成のプロジェクター100によるインタラクティブな状況での画像投射を簡単に説明する。まず、スクリーンSC上あるいはその近傍において、上記のような投射光PLのほかに、利用者HUが保持するペン70の先端部TPから赤外光(すなわち投射光PLの波長帯域以外の波長帯域)ILが射出される。赤外光ILの一部が撮像部50において検出光DLとして検出されることで、利用者HUによる画面上の指示位置を特定するものとなっている。例えば、ペン70の先端部TPがスクリーンSCに触れると赤外光ILが光ったり点滅周波数が変わったりする。これをカメラで構成される撮像部50によって検出することで、スクリーンSC上での指示位置が認識されたり、描画する線の種類等が決定されたりする。なお、発光する指示体としてのペン70の点灯形状等については、種々の態様が考えられるが、ここでは、一例として、発光位置を示す先端部TPの発光点の大きさが直径5mm程度の円形状であるものとする。この場合、位置検出装置としての撮像部50は、被照射領域PLa上における直径5mmの円の位置を特定可能な程度の精度で位置検出が可能な画像情報の取得ができるようになっている必要がある。   Here, with reference to FIG. 1, image projection in an interactive situation by the projector 100 configured as described above will be briefly described. First, on or near the screen SC, in addition to the projection light PL as described above, infrared light (that is, a wavelength band other than the wavelength band of the projection light PL) from the tip TP of the pen 70 held by the user HU. IL is injected. A part of the infrared light IL is detected as the detection light DL by the imaging unit 50, whereby the indicated position on the screen by the user HU is specified. For example, when the tip portion TP of the pen 70 touches the screen SC, the infrared light IL shines or the blinking frequency changes. By detecting this by the imaging unit 50 constituted by a camera, the designated position on the screen SC is recognized, and the type of line to be drawn is determined. In addition, although various aspects can be considered about the lighting shape etc. of the pen 70 as the indicator to emit light, here, as an example, the size of the light emitting point of the tip portion TP indicating the light emitting position is a circle having a diameter of about 5 mm. It shall be a shape. In this case, the imaging unit 50 as a position detection device needs to be able to acquire image information that can detect the position with an accuracy sufficient to identify the position of a circle having a diameter of 5 mm on the irradiated region PLa. There is.

以下、図4等を参照して、一例のプロジェクターによる画像投影についての具体的一構成例(具体的仕様)について説明する。まず、図4A及び4Bを参照して、プロジェクター100の超短焦点近接投射の度合について説明する。図4Aに示すように、プロジェクターにおけるスローレシオは、例えば図示の投射距離f1と、被照射領域PLaの横サイズHSとでf1/HSで表される。ここでの一例では、スローレシオは、約0.27とする。具体的には、投射距離f1は441mmであるものとし、横サイズHSの値を規定する被照射領域PLaのサイズは、70インチ(アスペクト比16:10)とする(すなわち、プロジェクター100は、70インチの画像を形成する)。なお、図4Bに示すように、この場合において、被照射領域PLaの周辺側の各点への投射光PLの投射角度を示している。この一例では、以上のような具体的仕様により超短焦点近接投射を行っている。   Hereinafter, a specific configuration example (specific specification) for image projection by an example projector will be described with reference to FIG. 4 and the like. First, with reference to FIGS. 4A and 4B, the degree of ultra-short focus proximity projection of the projector 100 will be described. As shown in FIG. 4A, the slow ratio in the projector is expressed by f1 / HS, for example, by the illustrated projection distance f1 and the horizontal size HS of the irradiated area PLa. In this example, the slow ratio is about 0.27. Specifically, it is assumed that the projection distance f1 is 441 mm, and the size of the irradiated area PLa that defines the value of the horizontal size HS is 70 inches (aspect ratio 16:10) (that is, the projector 100 is 70 Inch image). As shown in FIG. 4B, in this case, the projection angle of the projection light PL to each point on the peripheral side of the irradiated region PLa is shown. In this example, ultra-short focus proximity projection is performed according to the specific specifications as described above.

図5は、上記具体的一例の画像投射における撮像部50の位置と撮像範囲の寸法について示す図である。図5では、被照射領域PLaと撮像部50を構成するカメラのカメラ位置Paとの関係を示している。図5のうち、左側は、正面側から見た位置関係についての寸法を示す図であり、右側は、側面(横)側から見た位置関係についての寸法を示す図である。ここでは、図5に示すように、カメラ位置Paは、被照射領域PLaの左上方であり、例えば水平方向については、投射光PLの投射位置から左側に30cmほど離間している。この場合、カメラ位置Paからは、被照射領域PLaの右下側の位置SPが、撮像において最も周辺側となる。すなわち、当該箇所におけるペン70等の発光位置の検出が確実に行えるものとする必要があることになる。   FIG. 5 is a diagram illustrating the position of the imaging unit 50 and the size of the imaging range in the image projection of the specific example. FIG. 5 shows the relationship between the irradiated region PLa and the camera position Pa of the camera that constitutes the imaging unit 50. In FIG. 5, the left side is a diagram showing dimensions with respect to the positional relationship seen from the front side, and the right side is a diagram showing dimensions with respect to the positional relationship seen from the side (lateral) side. Here, as shown in FIG. 5, the camera position Pa is at the upper left of the irradiated region PLa, and is, for example, about 30 cm away from the projection position of the projection light PL on the left side in the horizontal direction. In this case, from the camera position Pa, the position SP on the lower right side of the irradiated area PLa is the most peripheral side in imaging. In other words, it is necessary to reliably detect the light emission position of the pen 70 or the like at that location.

以上に示す具体的一構成例のように、超短焦点近接投射であって、特に魚眼レンズによって撮像部における画角を確保する場合、検出箇所の画像が歪められて小さくなりすぎたり、これに伴って誤検出や不検出を生じてしまったりする、すなわち位置検出の精度が低下するおそれがある。これを抑制すべく、本実施形態では、矩形のセンサー部である撮像素子40を被照射領域PLaにおける矩形の投射画像(投射画面)に対して傾けた配置としていることで、位置検出精度を向上させ、かかる事態を回避している。   As in the specific configuration example shown above, in the case of ultra-short focus proximity projection, and particularly when the angle of view in the imaging unit is secured by a fisheye lens, the image of the detection location is distorted and becomes too small, or accompanying this May cause erroneous detection or non-detection, that is, the accuracy of position detection may be reduced. In order to suppress this, in the present embodiment, the position of the image sensor 40, which is a rectangular sensor unit, is inclined with respect to the rectangular projection image (projection screen) in the irradiated region PLa, thereby improving the position detection accuracy. To avoid such a situation.

以下、図6A等を参照して、本実施形態におけるプロジェクター100の各部の投射画像に対する位置について説明することで、特に撮像素子40の傾斜配置について説明する。ここで、図6A〜6Cは、本実施形態におけるプロジェクター100の各部と投射画像との位置関係や、撮像部50により撮像されたセンサー上での画像の様子、さらには、撮像部50により撮像された撮像素子(センサー)40上のうちの画像の一部を例示するものである。これに対して、図7A〜7Cは、一比較例の図であり、本実施形態の図6A〜6Cに対応する図である。図6Aとこれに対応する図7Aとを比較すると明らかなように、本実施形態では、矩形の撮像素子40を矩形の被照射領域PLaとして示される投射画像(投射画面)に対して傾斜配置させているのに対して、図7A〜7Cに示す一比較例では、撮像素子40を傾斜させていない点が異なっている。   Hereinafter, with reference to FIG. 6A and the like, the position of each unit of the projector 100 in the present embodiment with respect to the projection image will be described, and in particular, the inclined arrangement of the image sensor 40 will be described. 6A to 6C are diagrams illustrating the positional relationship between each unit of the projector 100 and the projected image, the state of the image on the sensor imaged by the imaging unit 50, and the image capturing unit 50. 2 illustrates a part of an image on the imaging element (sensor) 40. On the other hand, FIG. 7A-7C is a figure of one comparative example, and is a figure corresponding to FIG. 6A-6C of this embodiment. As is apparent from a comparison between FIG. 6A and FIG. 7A corresponding thereto, in the present embodiment, the rectangular imaging device 40 is disposed so as to be inclined with respect to the projection image (projection screen) shown as the rectangular irradiated region PLa. In contrast, the comparative example shown in FIGS. 7A to 7C is different in that the imaging element 40 is not inclined.

以下、図6A等に戻って、本実施形態に係る一例についてより詳しく説明する。図6Aは、既述のように、プロジェクター100を構成する各部と被照射領域PLaで示される投射画像(投射画面)との位置関係を概念的に示す正面図である。プロジェクター100は、図示のように、また、既述のように、被照射領域PLaに矩形の投射画面を形成するプロジェクター本体部100pと、プロジェクター本体部100pにより被照射領域PLaに形成された投射画像(投射画面)を撮像する撮像部50とを有している。そして、撮像部50は、プロジェクター本体部100pの左側(より詳しくは、図5におけるカメラ位置Paに相当する位置を光軸の位置とする位置)に配置されている。また、撮像部50は、魚眼レンズ30と魚眼レンズ30を介して受光する矩形のセンサー部である撮像素子40とを有している。ここでは、図示において、プロジェクター本体部100pの中央から投射光が射出されて正面にプロジェクター本体部100p対して左右対称な矩形の被照射領域PLaに投射画像(投射画面)が形成されているものとする。これに対して、図示のように、撮像部50における矩形の撮像素子40は、被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して傾いたものとなっている。言い換えると、撮像素子40の周辺を縁取りした矩形枠40fとし、被照射領域PLaを縁取りした(すなわち投射画像(投射画面)を縁取りした)矩形枠PLfとし、これらを比較すると、矩形枠PLfの各辺が水平方向及び垂直方向(X方向及びY方向)に沿って延びているのに対して、矩形枠40fの各辺は、水平方向及び垂直方向から傾斜した方向に沿って延びている。いわば、矩形枠PLfを基準とした場合に、矩形枠40fは、矩形枠PLfに対して所定の角度右回転させた状態となるように傾斜(あるいはZ軸回転)している。ここで、図5を参照して説明したように、撮像部50(カメラ位置Pa)は、図中プロジェクター本体部100pの左側に位置している。したがって、被照射領域PLa全体において精度の高い位置検出を行うためには、被照射領域PLaのうち撮像部50から最も遠い箇所となる右下側の位置SP(以下、評価ポイントとも呼ぶ。)における位置検出の精度が最も問題となると考えられる。本実施形態では、上記のように、撮像素子40を所定の角度だけ傾けることで、評価ポイントである位置SPを含めた被照射領域PLa全体を撮像素子40のセンサーエリア内に収めつつできるだけ大きく映し出すことを可能にし、精度の高い位置検出を可能としている。   Hereinafter, returning to FIG. 6A and the like, an example according to the present embodiment will be described in more detail. FIG. 6A is a front view conceptually showing the positional relationship between each part of the projector 100 and the projection image (projection screen) indicated by the irradiated region PLa, as described above. As illustrated and as described above, the projector 100 includes a projector main body 100p that forms a rectangular projection screen in the irradiated area PLa, and a projection image formed in the irradiated area PLa by the projector main body 100p. And an imaging unit 50 that images (projection screen). The imaging unit 50 is arranged on the left side of the projector main body 100p (more specifically, the position corresponding to the camera position Pa in FIG. 5). The imaging unit 50 includes a fish-eye lens 30 and an imaging element 40 that is a rectangular sensor unit that receives light through the fish-eye lens 30. Here, in the drawing, projection light is emitted from the center of the projector main body 100p, and a projection image (projection screen) is formed in a rectangular irradiated region PLa that is symmetrical with respect to the projector main body 100p on the front. To do. On the other hand, as illustrated, the rectangular imaging element 40 in the imaging unit 50 is inclined with respect to the area of the rectangular projection image (projection screen) indicated by the irradiated area PLa. In other words, the rectangular frame 40f with the periphery of the image sensor 40 is bordered, and the irradiated region PLa is bordered (that is, the projection image (projection screen) is bordered). While the sides extend along the horizontal direction and the vertical direction (X direction and Y direction), each side of the rectangular frame 40f extends along a direction inclined from the horizontal direction and the vertical direction. In other words, when the rectangular frame PLf is used as a reference, the rectangular frame 40f is inclined (or Z-axis rotated) so as to be rotated right by a predetermined angle with respect to the rectangular frame PLf. Here, as described with reference to FIG. 5, the imaging unit 50 (camera position Pa) is located on the left side of the projector main body 100p in the drawing. Therefore, in order to perform highly accurate position detection in the entire irradiated region PLa, the lower right position SP (hereinafter also referred to as an evaluation point) that is the farthest from the imaging unit 50 in the irradiated region PLa. The accuracy of position detection is considered to be the most problematic. In the present embodiment, as described above, by tilting the image sensor 40 by a predetermined angle, the entire irradiated area PLa including the position SP that is the evaluation point is projected as large as possible within the sensor area of the image sensor 40. This enables position detection with high accuracy.

図6Bは、上述した位置(図5のカメラ位置Paに相当)にある撮像部50(カメラ)によって撮像された画像、すなわち撮像部50に内蔵された受光用のセンサーである撮像素子40上での画像PIの様子を示す図である。なお、ここでは、撮影された映像は、上下左右が反転しているため、スクリーンSCの右下の映像は、センサー上の画像において左上に来ている。したがって、図示の画像PIにおいて、スクリーンSC上の被照射領域PLaに対応する映像画像PLiのうち左上の隅にある画像点SPiが、図6Aの位置(評価ポイント)SPに対応する。すなわち、映像画像PLiの領域のうち画像点SPi及びその近辺が、最も歪み、指示体の検出が最も困難になる箇所であると考えられる。   FIG. 6B shows an image taken by the imaging unit 50 (camera) at the above-described position (corresponding to the camera position Pa in FIG. 5), that is, on the imaging element 40 that is a light receiving sensor built in the imaging unit 50. It is a figure which shows the mode of image PI of. In this case, since the captured image is inverted vertically and horizontally, the image on the lower right of the screen SC comes to the upper left in the image on the sensor. Accordingly, in the illustrated image PI, the image point SPi at the upper left corner of the video image PLi corresponding to the irradiated region PLa on the screen SC corresponds to the position (evaluation point) SP in FIG. 6A. That is, it is considered that the image point SPi and its vicinity in the region of the video image PLi are the most distorted and the most difficult to detect the indicator.

ここで、前提として、スクリーンSC上の被照射領域PLaの全体を撮像可能とするためには、撮像素子40において、映像画像PLiが、センサー上のエリアSEのうち有効撮像範囲であるアクティブエリアAE内に収まっているようにする必要がある。なお、ここでの一例では、アクティブエリアAEのサイズを、4.48mm×3.2mmとする。   Here, as a premise, in order to be able to image the entire irradiated area PLa on the screen SC, in the imaging element 40, the video image PLi is an active area AE that is an effective imaging range in the area SE on the sensor. It needs to be within. In the example here, the size of the active area AE is 4.48 mm × 3.2 mm.

また、ここで、図示のように、元々矩形領域であった被照射領域PLaを映した映像画像PLiは、魚眼レンズ30を歪めて撮像されたものとなっている。このため、図示のように、映像画像PLiの形状は矩形ではなく歪んでいる。さらに、撮像部50は、プロジェクター100の中央から左側に外れた位置に配置されている。このため、映像画像PLiの形状は、左右対称でもない。このような形状の画像(画像部分)を、仮に撮像素子40を傾けることなく取り込もうとすると、例えば比較例の図7Bに示すとおり、最も長い曲線部分LL1が矩形の横(水平)方向の範囲内に収まるように、映像画像PLiの画像全体を小さくしなければいけない。これに対して、本実施形態では、映像画像PLiの形状に応じた所定の角度だけ撮像素子40を傾けていることで、図6Bに示すように例えば最も長い曲線部分LL1を斜め方向に収めればよいことになる。したがって、図6Bの撮像素子40が図7Bの撮像素子40と同じ大きさ(例えば4.48mm×3.2mm)であった場合には、図6Bの撮像素子40のほうが、より大きく映像画像PLiを映し出せる、延いては画像点SPi及びその近辺をより大きく映し出せることになる。ただし、既述のように、図6Bの撮像素子40においても、映像画像PLiの全体をアクティブエリアAE内に収める必要があることには変わりがない。すなわち、映像画像PLiについて、曲線部分LL1のみならず、他の曲線部分や被照射領域PLaの四隅に対応する点等がアクティブエリアAE内に収まっている必要がある。上記具体的一構成例の場合では、映像画像PLiを収めつつ全体を最も大きく映し出すための撮像素子40の傾斜角度は、18.2°であった。また、この時の撮像部50(カメラ)の焦点距離fは、f=2.31であった。   Further, as shown in the figure, the video image PLi that reflects the irradiated area PLa that was originally a rectangular area is obtained by distorting the fish-eye lens 30. For this reason, as shown in the figure, the shape of the video image PLi is not rectangular but distorted. Furthermore, the imaging unit 50 is disposed at a position off the left side from the center of the projector 100. For this reason, the shape of the video image PLi is not symmetrical. If an image (image portion) having such a shape is taken in without tilting the imaging device 40, for example, as shown in FIG. 7B of the comparative example, the longest curved portion LL1 is within the range of the rectangular horizontal (horizontal) direction. Therefore, the entire image of the video image PLi must be reduced so as to be within the range. On the other hand, in the present embodiment, by tilting the imaging element 40 by a predetermined angle corresponding to the shape of the video image PLi, for example, the longest curved portion LL1 can be accommodated in an oblique direction as shown in FIG. 6B. It will be good. Therefore, when the image sensor 40 in FIG. 6B has the same size as the image sensor 40 in FIG. 7B (eg, 4.48 mm × 3.2 mm), the image sensor 40 in FIG. 6B is larger than the video image PLi. Thus, the image point SPi and its vicinity can be projected more greatly. However, as described above, in the imaging device 40 in FIG. 6B, the entire video image PLi needs to be accommodated in the active area AE. That is, for the video image PLi, not only the curved portion LL1, but also other curved portions, points corresponding to the four corners of the irradiated region PLa, and the like must be within the active area AE. In the case of the above-described specific configuration example, the inclination angle of the image sensor 40 for projecting the video image PLi to the maximum while displaying the entire image is 18.2 °. In addition, the focal length f of the imaging unit 50 (camera) at this time was f = 2.31.

図6Cは、図6Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像GGを示している。このため、図示のように、画像GGは、円を歪めた楕円状となっている。上記具体的一構成例の場合、撮像素子40上での画像GGの面積は、14.1μmであった。 FIG. 6C shows an image GG displayed at the image point SPi corresponding to the position SP when a circle having a diameter of 5 mm assumed to be a light emitting point is projected at the position (evaluation point) SP in FIG. 6A. . For this reason, as illustrated, the image GG has an elliptical shape in which a circle is distorted. In the case of the above specific configuration example, the area of the image GG on the image sensor 40 was 14.1 μm 2 .

図7A〜7Cは、既述の通り、本実施形態の比較例であり、撮像素子40を傾けていない場合(撮像素子40の傾斜角度が0°の場合)についての例示である。なお、具体的一構成例(具体的仕様)としては、本実施形態において示した場合と同様であるものとする。すなわち、撮像部50が、本実施形態の場合と同等の魚眼レンズ30(等距離射影方式)及び撮像素子40(アクティブエリアAEが4.48mm×3.2mm)で構成されるものとする。ただし、撮像素子40の焦点距離fについては、映像画像PLiの全体をアクティブエリアAE内に収める必要があるという観点から異なるものとなる。図7Aに示す構成の比較例では、図7Bに示す画像PIの撮像において、撮像部50(カメラ)の焦点距離fは、f=2.18であった。つまり、図6Bに示す場合よりも焦点距離fが小さく、映像画像PLiが小さいことが分かる。また、図7Cに示す撮像素子40上での画像GGの面積は、12.6μmであった。すなわち、本実施形態と比較して、映像画像PLi(画像点SPi)が小さくなっていることが分かる。この場合、特に画像点SPiやその近辺での誤検出、不検出の可能性が高まる。これに対して、本実施形態では、撮像素子40を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像PLiの各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。 7A to 7C are comparative examples of the present embodiment, as described above, and are examples of the case where the image sensor 40 is not tilted (when the tilt angle of the image sensor 40 is 0 °). Note that a specific configuration example (specific specification) is the same as that shown in the present embodiment. That is, it is assumed that the imaging unit 50 includes the fisheye lens 30 (equal distance projection method) and the imaging element 40 (active area AE is 4.48 mm × 3.2 mm) equivalent to the case of the present embodiment. However, the focal length f of the image sensor 40 is different from the viewpoint that the entire video image PLi needs to be accommodated in the active area AE. In the comparative example having the configuration illustrated in FIG. 7A, the focal length f of the imaging unit 50 (camera) is f = 2.18 in the imaging of the image PI illustrated in FIG. 7B. That is, it can be seen that the focal length f is smaller and the video image PLi is smaller than in the case shown in FIG. 6B. Further, the area of the image GG on the image sensor 40 shown in FIG. 7C was 12.6 μm 2 . That is, it can be seen that the video image PLi (image point SPi) is smaller than that of the present embodiment. In this case, in particular, the possibility of false detection and non-detection at the image point SPi and its vicinity increases. In contrast, in the present embodiment, by tilting the image sensor 40 with respect to the rectangular projection image, each position of the video image PLi corresponding to the projection area (projection image) can be projected more greatly. The position detection accuracy can be improved.

なお、以上のような撮像素子40の配置に関して、例えば図6Aを例示として考察した事項について、プロジェクター本体部100pとの関係で捉えることもできる。例えばプロジェクター本体部100pが、図示のように、矩形の液晶パネルLCが中央に配置されているものとし、さらに、この液晶パネルLCにおいて光変調された変調光を正面から投射することで投射光を形成するものであるとする。この場合、矩形の液晶パネルLCに対して撮像素子40が所定の角度傾いていることになる。なお、以上は一例であり、光路中においてミラー等が配置され撮像素子40や液晶パネルLCの位置が上記と異なっているような場合や、プロジェクター本体部100pが液晶パネル以外の方式で画像投射を行う場合であっても、形成される投射画像と撮像素子との関係において上記と同様の構成とすることができる。   In addition, regarding the arrangement of the image pickup device 40 as described above, for example, the matters considered with reference to FIG. 6A can be grasped in relation to the projector main body 100p. For example, the projector main body 100p is assumed to have a rectangular liquid crystal panel LC arranged in the center as shown in the figure, and further, the projection light is projected by projecting the modulated light light modulated in the liquid crystal panel LC from the front. Suppose that it is to be formed. In this case, the image sensor 40 is inclined at a predetermined angle with respect to the rectangular liquid crystal panel LC. In addition, the above is an example, when a mirror etc. is arrange | positioned in an optical path, and the position of the image pick-up element 40 and liquid crystal panel LC differs from the above, or the projector main-body part 100p projects an image by systems other than a liquid crystal panel. Even when it is performed, the same configuration as described above can be employed in the relationship between the formed projection image and the imaging element.

以下、図8を参照して、インタラクティブな画像投射を可能にするための前提となる位置合わせの処理であるキャリブレーションについて説明する。図8は、プロジェクター本体部100pによる画像投影のうち、特に、上述のようなキャリブレーションの処理を行うために、キャリブレーション時のパターン画像を投影する様子を示している。本実施形態では、まず、プロジェクター本体部100pによる画像投射(投影)によってスクリーンSC上に映し出される映像の範囲を示すパターン画像PTを、ここでは画像光である投射光PLに含まれる可視光波長帯域の成分のうち緑色波長帯域の光で構成されるパターン画像光GLによって投影するものとする。撮像部50において、パターン画像光GLの一部の成分を受光することで、パターン画像PTに関する画像情報が取得され、この情報に基づき画像投射位置の特定がなされる。具体的には、まず、撮像部50は、撮像したパターン画像PTの画像情報をプロジェクター本体部100pに対して送信する。次に、プロジェクター本体部100pは、撮像部50で取得したパターン画像PTの情報と、光変調における画素マトリクスの情報との対応付けを行う。すなわち、撮像部50で撮像されたパターン画像PTの受光用のセンサー上での各位置とプロジェクター本体部100pの光変調における画素マトリクス状の各位置すなわち投影された画像上の位置とを対応付ける。対応付けは、例えば、ピクセル単位で行うものとしてもよい(例えば対応するテーブルを作成するものとしてもよい)が、例えば対応付ける関数を定めることで、対応付けの処理を可能にするものとしてもよい。   Hereinafter, with reference to FIG. 8, a description will be given of calibration, which is an alignment process that is a prerequisite for enabling interactive image projection. FIG. 8 shows how the pattern image at the time of calibration is projected in order to perform the above-described calibration processing among the image projections by the projector main body 100p. In the present embodiment, first, a pattern image PT indicating a range of an image displayed on the screen SC by image projection (projection) by the projector main body 100p is displayed in the visible light wavelength band included in the projection light PL that is image light here. It is assumed that projection is performed with pattern image light GL composed of light in the green wavelength band. By receiving a part of the component of the pattern image light GL in the imaging unit 50, image information related to the pattern image PT is acquired, and the image projection position is specified based on this information. Specifically, first, the imaging unit 50 transmits image information of the captured pattern image PT to the projector main body 100p. Next, the projector main body 100p associates the information of the pattern image PT acquired by the imaging unit 50 with the information of the pixel matrix in light modulation. That is, each position on the light receiving sensor of the pattern image PT imaged by the imaging unit 50 is associated with each pixel matrix position in the light modulation of the projector main body 100p, that is, a position on the projected image. For example, the association may be performed in units of pixels (for example, a corresponding table may be created). For example, by defining a function to be associated, the association processing may be performed.

以上のように、プロジェクター本体部100pは、撮像部50で取得したパターン画像PTの情報に基づく画像投射位置と、光変調の画素の位置とを対応付けることで、キャリブレーション(位置合わせ)を行っている。キャリブレーション後は、キャリブレーションでの対応付けに基づいて、撮像部50で検出されたペン70の発光位置等の指示体による指示位置の特定が可能となり、これを反映したインタラクティブな画像投射が可能となる。   As described above, the projector main body 100p performs calibration (alignment) by associating the image projection position based on the information of the pattern image PT acquired by the imaging unit 50 with the position of the light modulation pixel. Yes. After calibration, it is possible to specify the indicated position by an indicator such as the light emission position of the pen 70 detected by the imaging unit 50 based on the association in the calibration, and interactive image projection reflecting this can be performed. It becomes.

以下、図9を参照して本実施形態の一変形例について説明する。本変形例では、撮像素子40を傾ける向き以外については、上記一例と同様であるので、全体の説明については、省略する。また、図9A〜9Cは、図6A〜6Cに対応する図である。すなわち、図9A〜9Cは、本変形例におけるプロジェクター100の各部と投射画像との位置関係や、撮像部50により撮像されたセンサー上での画像の様子、さらには、撮像部50により撮像された撮像素子(センサー)40上のうちの画像の一部を例示するものである。   Hereinafter, a modification of the present embodiment will be described with reference to FIG. This modification is the same as the above example except for the direction in which the image sensor 40 is tilted, and thus the entire description is omitted. 9A to 9C are diagrams corresponding to FIGS. 6A to 6C. That is, FIGS. 9A to 9C illustrate the positional relationship between each unit of the projector 100 and the projection image, the state of the image on the sensor imaged by the imaging unit 50, and the image captured by the imaging unit 50. A part of the image on the image sensor (sensor) 40 is illustrated.

上記一例では、図6A等に示すように、撮像部50における矩形の撮像素子40を被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度(18.2°)だけ、右回転させた状態となるように傾斜させていた。これに対して、本変形例では、図9A等に示すように、撮像素子40を所定の角度左回転させた状態となるように傾斜させている。   In the above example, as shown in FIG. 6A and the like, the rectangular imaging element 40 in the imaging unit 50 is set at a predetermined angle (18.2 °) with respect to the area of the rectangular projection image (projection screen) indicated by the irradiated area PLa. ) Only inclines so as to be rotated to the right. On the other hand, in this modification, as shown in FIG. 9A and the like, the image sensor 40 is tilted so as to be rotated left by a predetermined angle.

図9Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子40の傾斜角度は、上記具体的一構成例の場合では、27.0°であった。また、この時の撮像部50(カメラ)の焦点距離fは、f=2.32であった。   As shown in FIG. 9B, the tilt angle of the image sensor 40 for projecting the video image PLi within the active area AE and displaying the largest image as a whole is 27.0 ° in the case of the above specific configuration example. . In addition, the focal length f of the imaging unit 50 (camera) at this time was f = 2.32.

図9Cは、図9Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像GGを示している。このため、図示のように、画像GGは、円を歪めた楕円状となっている。上記具体的一構成例の場合、撮像素子40上での画像GGの面積は、14.2μmであった。 FIG. 9C shows an image GG displayed at the image point SPi corresponding to the position SP when a circle having a diameter of 5 mm assumed to be a light emitting point is projected at the position (evaluation point) SP in FIG. 9A. . For this reason, as illustrated, the image GG has an elliptical shape in which a circle is distorted. In the case of the above specific configuration example, the area of the image GG on the image sensor 40 is 14.2 μm 2 .

上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fや画像GGの面積からすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。ただし、構成例(仕様)が変わる場合には、傾ける方向によって差が生じる場合もあり得るので、このような場合にはより適したほうを選択すればよい。   In the case of the above specific configuration example, the size of the video image PLi is slightly better in the case of left rotation in terms of the focal length f and the area of the image GG in the above example and the present modification, but is almost unchanged. The performance was almost equivalent. In other words, there was not much difference depending on the direction of tilt. However, when the configuration example (specification) changes, a difference may occur depending on the tilting direction. In such a case, a more suitable one may be selected.

以上のように、本変形例においても、撮像素子40を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像PLiの各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。   As described above, also in this modification, it is possible to project each position of the video image PLi corresponding to the projection region (projection image) larger by tilting the imaging element 40 with respect to the rectangular projection image. Thus, the position detection accuracy can be improved.

以上のように、本実施形態に係るプロジェクターシステム500では、撮像部50において魚眼レンズ30を適用することで、広い検出範囲を撮像可能としつつ、魚眼レンズ30を用いることで撮像した投影領域の画像が歪んでも、矩形のセンサー部としての撮像素子40を傾けていることで、被照射領域(投影領域)PLaの画像を撮像素子40のエリア内一杯に広げることができる、すなわち各位置を大きく映し出すことができる。これにより、誤検出や不検出を抑制し、位置検出精度を向上させることができる。   As described above, in the projector system 500 according to the present embodiment, by applying the fisheye lens 30 in the imaging unit 50, the image of the projection area captured by using the fisheye lens 30 is distorted while enabling a wide detection range to be imaged. However, by tilting the image sensor 40 as a rectangular sensor unit, the image of the irradiated area (projection area) PLa can be expanded to the full area of the image sensor 40, that is, each position can be projected greatly. it can. Thereby, false detection and non-detection can be suppressed and position detection accuracy can be improved.

〔第2実施形態〕
以下、図10等を参照して、第1実施形態を変形した第2実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部において採用する魚眼レンズの射影条件を除いて、第1実施形態と同様の構成であるので、プロジェクターシステム全体についての詳細な説明を省略する。具体的一構成例(具体的仕様)についても、第1実施形態において示した場合と同様であるものとする。
[Second Embodiment]
Hereinafter, a second embodiment obtained by modifying the first embodiment will be described with reference to FIG. Note that the projector system according to the present embodiment has the same configuration as that of the first embodiment except for the projection conditions of the fisheye lens employed in the imaging unit, and thus detailed description of the entire projector system is omitted. A specific configuration example (specific specification) is also the same as that shown in the first embodiment.

図10A〜10Cは、本実施形態におけるプロジェクターの各部と投射画像との位置関係や、撮像部により撮像されたセンサー上での画像の様子、さらには、撮像部により撮像された撮像素子(センサー)上のうちの画像の一部を例示するものである。すなわち、図10A〜10Cは、第1実施形態における図6A〜6Cに対応する図である。   10A to 10C show the positional relationship between each part of the projector and the projection image, the state of the image on the sensor imaged by the imaging unit, and the image sensor (sensor) imaged by the imaging unit. A part of the upper image is illustrated. That is, FIGS. 10A to 10C are diagrams corresponding to FIGS. 6A to 6C in the first embodiment.

本実施形態では、プロジェクター200のうち、撮像部150における魚眼レンズ130として、次式で規定される立体射影方式を採用する。
y=2f・tan(θ/2)
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
この場合、第1実施形態で適用した等距離射影方式に比べて、撮像画像において、特に周辺側で歪み(圧縮)の発生を抑制しつつ、広画角化を図ることができる。すなわち撮像範囲を広げて十分広い検出範囲を確保できる。
In the present embodiment, as the fish-eye lens 130 in the imaging unit 150 in the projector 200, a stereoscopic projection method defined by the following expression is adopted.
y = 2f · tan (θ / 2)
Here, the focal length is f, the half field angle (or simply the field angle) is θ, and the image height is y.
In this case, compared to the equidistant projection method applied in the first embodiment, it is possible to increase the angle of view while suppressing the occurrence of distortion (compression) in the captured image, particularly on the peripheral side. That is, a sufficiently wide detection range can be secured by expanding the imaging range.

図10A等に示すように、本実施形態では、撮像素子140を被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。   As shown in FIG. 10A and the like, in the present embodiment, the image sensor 140 is tilted so as to be rotated to the right by a predetermined angle with respect to the area of the rectangular projection image (projection screen) indicated by the irradiated area PLa. I am letting.

また、図10Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子140の傾斜角度は、上記具体的一構成例の場合では、17.8°であった。また、この時の撮像部150(カメラ)の焦点距離fは、f=2.08であった。   Further, as shown in FIG. 10B, the inclination angle of the image sensor 140 for projecting the video image PLi within the active area AE to the largest extent is 17.8 ° in the case of the above specific configuration example. there were. In addition, the focal length f of the imaging unit 150 (camera) at this time was f = 2.08.

ここで、撮像素子140を傾けていない場合(撮像素子140の傾斜角度が0°の場合)と比較する。例えば、既述のように、本実施形態における焦点距離fは、f=2.08であった。これに対して、撮像素子140を傾けていない場合における焦点距離fは、f=1.98であった。また、第1実施形態と同様に、図10Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像の面積は、18.4μmであった。これに対して、撮像素子140を傾けていない場合では、対応する画像の面積は、16.6μmであった。すなわち、本実施形態では撮像素子140を傾けていない場合と比較して、映像画像PLi(画像点SPi)が大きくなり、本実施形態の方が位置検出精度が高くできるといえる。 Here, it is compared with the case where the image sensor 140 is not tilted (when the tilt angle of the image sensor 140 is 0 °). For example, as described above, the focal length f in this embodiment is f = 2.08. On the other hand, the focal length f when the image sensor 140 is not tilted was f = 1.98. Similarly to the first embodiment, when a circle having a diameter of 5 mm, which is assumed to be a light emitting point, is displayed at the position (evaluation point) SP in FIG. 10A, it is displayed at the image point SPi corresponding to the position SP. The area of the image was 18.4 μm 2 . On the other hand, when the image sensor 140 is not tilted, the area of the corresponding image is 16.6 μm 2 . That is, in the present embodiment, the video image PLi (image point SPi) is larger than in the case where the image sensor 140 is not tilted, and it can be said that the position detection accuracy can be increased in the present embodiment.

以下、図11を参照して本実施形態の一変形例について説明する。本変形例では、図11Aに示すように、撮像素子140を所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。   Hereinafter, a modification of the present embodiment will be described with reference to FIG. As shown in FIG. 11A, the present modification is different from the above example in that the image sensor 140 is tilted so as to be rotated left by a predetermined angle.

本変形例において、図11Bに示すように、映像画像PLiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子140の傾斜角度は、上記具体的一構成例の場合では、26.4°であった。また、この時の撮像部150(カメラ)の焦点距離fは、f=2.08であった。   In the present modification, as shown in FIG. 11B, the inclination angle of the image sensor 140 for displaying the entire image image PLi within the active area AE most greatly is 26. It was 4 °. In addition, the focal length f of the imaging unit 150 (camera) at this time was f = 2.08.

さらに、図11Aの位置(評価ポイント)SPにおいて発光点に見立てた直径5mmの大きさの円を映し出した場合に、位置SPに対応する画像点SPiに表示される画像の面積は、18.4μmであった。 Furthermore, when a circle having a diameter of 5 mm assumed to be a light emitting point is projected at the position (evaluation point) SP in FIG. 11A, the area of the image displayed at the image point SPi corresponding to the position SP is 18.4 μm. 2 .

つまり、本実施形態における上記具体的一構成例の場合では、傾ける方向による差は見られなかった。   That is, in the case of the specific configuration example in the present embodiment, no difference depending on the tilting direction was observed.

以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。   As described above, also in the present embodiment, by tilting the image sensor with respect to the rectangular projection image, each position of the video image corresponding to the projection region (projection image) can be displayed larger, The position detection accuracy can be improved.

〔第3実施形態〕
以下、図12等を参照して、第1実施形態等を変形した第3実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部として複数(2以上)のカメラを搭載しており、指示体による指示位置の検出において、当該指示体を立体的形状として捉えるものとなっている(ペンによる赤外光の発光等を要せずにインタラクティブが実現可能である)点において、第1実施形態等の場合と異なっている。ただし、キャリブレーションについては、複数のカメラにおいて個々に行うことを除いては、第1実施形態の場合と同様であるので説明を省略する。また、以下において、第1実施形態等と同符号のものについては、機能等が同じであり、説明を省略する。
[Third Embodiment]
Hereinafter, a third embodiment obtained by modifying the first embodiment will be described with reference to FIG. Note that the projector system according to the present embodiment includes a plurality of (two or more) cameras as the imaging unit, and captures the indicator as a three-dimensional shape in detection of the indication position by the indicator. This is different from the first embodiment or the like in that (interactive can be realized without requiring infrared light emission by a pen). However, since the calibration is the same as that in the first embodiment except that it is individually performed in a plurality of cameras, description thereof is omitted. In the following description, the same reference numerals as those in the first embodiment and the like have the same functions and the description thereof is omitted.

以下、図12等を参照して、本実施形態のプロジェクターシステム600について説明する。プロジェクターシステム600は、画像光である投射光PLを投射(斜方投射)して超短焦点近接投射による画像投射を行うプロジェクター300で構成されている。なお、プロジェクター300のほか、例えばPC等が接続され得ること等については、第1実施形態等の場合と同様とする。プロジェクター100は、プロジェクター本体部100pと、撮像部250とで構成されている。   Hereinafter, the projector system 600 of the present embodiment will be described with reference to FIG. The projector system 600 includes a projector 300 that projects projection light PL that is image light (oblique projection) and performs image projection by ultra short focus proximity projection. Note that, in addition to the projector 300, for example, a PC or the like can be connected as in the case of the first embodiment. The projector 100 includes a projector main body 100p and an imaging unit 250.

撮像部250は、離間して配置された2つ(複数)のカメラ250a,250bで構成されている。カメラ250a,250bは、同一規格の一対構成となっており、プロジェクター本体部100pによる投射光PLの投射位置に対して投射光PLの投射方向に交差する方向に対称な位置に配置されている。すなわち、カメラ250a,250bは、プロジェクター本体部100pのうち画像光である投射光PLの射出方向に交差する方向に離間して設けられる一対のカメラである。なお、各カメラ250a,250bは、第1実施形態に示した撮像部50(図1等参照)を構成するカメラと同様の構造を有している。すなわち、魚眼レンズ230a,230b(図13等参照)と矩形のセンサー部である撮像素子240a,240b(図13等参照)とをそれぞれ有しており、各撮像素子240a,240bは、投射画像(投射画面)に対して傾いている。以上のような複数のカメラ250a,250b(ステレオカメラ)を有することで、プロジェクター300は、視差情報(或いはステレオ画像)を取得可能となっている。すなわち、立体視によるより高度な位置検出が可能となっている。プロジェクター制御部CT(図2参照)は、カメラ250a,250bでの撮像により取得した画像情報に基づく視差情報により検出された指示体(図例のような利用者の指先等)OBの位置情報を反映させた画像を画像投影部90(図2参照)により投影させる。   The imaging unit 250 includes two (plural) cameras 250a and 250b that are spaced apart. The cameras 250a and 250b have a pair configuration of the same standard, and are arranged at positions symmetrical with respect to the projection position of the projection light PL by the projector main body 100p in a direction intersecting the projection direction of the projection light PL. That is, the cameras 250a and 250b are a pair of cameras that are provided apart from each other in the direction intersecting the emission direction of the projection light PL that is image light in the projector main body 100p. Each of the cameras 250a and 250b has the same structure as the camera constituting the imaging unit 50 (see FIG. 1 and the like) shown in the first embodiment. That is, it has fish-eye lenses 230a and 230b (see FIG. 13 and the like) and imaging elements 240a and 240b (see FIG. 13 and the like) which are rectangular sensor units, respectively, and each of the imaging elements 240a and 240b has a projected image (projection). The screen). By including the plurality of cameras 250a and 250b (stereo cameras) as described above, the projector 300 can acquire parallax information (or stereo images). That is, more advanced position detection by stereoscopic vision is possible. The projector control unit CT (see FIG. 2) obtains the positional information of the indicator OB (such as the user's fingertip as shown in the figure) OB detected by the parallax information based on the image information acquired by imaging with the cameras 250a and 250b. The reflected image is projected by the image projection unit 90 (see FIG. 2).

以下、図13等を参照して、撮像部250を構成する各カメラ250a,250bの撮像範囲に関して説明する。なお、既述のように、カメラ250a,250bは、魚眼レンズ230a,230bと、撮像素子240a,240bとをそれぞれ有する。図13では、カメラ250aとカメラ250bとの対称性により1つのカメラのみを図示するとともに説明し、他方については説明を省略する。なお、図示のように、本実施形態においても、カメラ250b(又はカメラ250a)の光軸AXは、プロジェクター本体部100pの被照射面であるスクリーンSCに対して垂直ではなく、下方に少し傾いている。すなわち、撮像部50を構成する各カメラ250a,250bは、必要に応じて、あおりを付けた状態で撮像を行っている。なお、ここでは、一例として、あおり角α=10°とする。   Hereinafter, the imaging ranges of the cameras 250a and 250b constituting the imaging unit 250 will be described with reference to FIG. As described above, the cameras 250a and 250b include fish-eye lenses 230a and 230b and imaging elements 240a and 240b, respectively. In FIG. 13, only one camera is illustrated and described because of the symmetry between the camera 250a and the camera 250b, and the description of the other is omitted. As shown in the figure, also in the present embodiment, the optical axis AX of the camera 250b (or the camera 250a) is not perpendicular to the screen SC that is the irradiated surface of the projector main body 100p, but is slightly inclined downward. Yes. That is, the cameras 250a and 250b constituting the image capturing unit 50 perform image capturing with a tilt as necessary. Here, as an example, the tilt angle α = 10 °.

本実施形態では、検出対象である指示体(指先)OBを2つのカメラ250a,250bによって視差を利用した立体的な検出を可能としている。すなわち、スクリーンSCをタッチする利用者の指手を撮像して奥行きのある立体的形状として捉えるための情報を得る必要がある。このため、スクリーンSC上の投影領域である被照射領域PLaに加え、被照射領域PLaを含む立体的領域を含むように撮像を行っている。本実施形態では、一例として、図14に示すように、スクリーンSCから垂直方向(奥行き方向)について、距離dだけ離れた範囲までを撮像範囲たる立体的領域CDとする。ここでは、指の先端から手首くらいまでを撮像できるように、距離dを160mm(16cm)とする。この場合、図14に示すように、立体的領域CDは、被照射領域PLaを底面とし、距離dを厚みとする直方体状の領域となる。したがって、撮像部250(カメラ250a,250b)の撮影範囲は、被照射領域PLaのみとした場合に比べてさらに広がり、特に広画角化する必要がある。   In the present embodiment, the indicator (fingertip) OB, which is a detection target, can be detected three-dimensionally using parallax by the two cameras 250a and 250b. That is, it is necessary to obtain information for capturing a user's finger touching the screen SC and capturing it as a three-dimensional shape having a depth. For this reason, imaging is performed so as to include a three-dimensional region including the irradiated region PLa in addition to the irradiated region PLa that is a projection region on the screen SC. In the present embodiment, as an example, as shown in FIG. 14, a three-dimensional area CD that is an imaging range is a range from the screen SC to a range separated by a distance d in the vertical direction (depth direction). Here, the distance d is set to 160 mm (16 cm) so that an image from the tip of the finger to the wrist can be captured. In this case, as shown in FIG. 14, the three-dimensional area CD is a rectangular parallelepiped area having the irradiated area PLa as the bottom surface and the distance d as the thickness. Therefore, the imaging range of the imaging unit 250 (cameras 250a and 250b) needs to be further expanded compared to the case where only the irradiated region PLa is provided, and in particular, it is necessary to widen the angle of view.

図15は、上記具体的一例の画像投射における撮像部250を構成するカメラ250bの位置と撮像範囲の寸法について示す図である。なお、図15は、第1実施形態における図5に対応する図である。撮像部250のうちもう1つのカメラ250aについては、左右の位置を逆転させたものとなるだけで同様の考察が可能であるため、図示及び説明を省略する。図15のうち、左側は、正面側から見た位置関係についての寸法を示す図であり、右側は、側面(横)側から見た位置関係についての寸法を示す図である。カメラ250bのカメラ位置Paは、被照射領域PLaの左上方であり、例えば水平方向については、投射光PLの投射位置から左側に30cmほど離間している。   FIG. 15 is a diagram illustrating the position of the camera 250b configuring the imaging unit 250 and the size of the imaging range in the image projection of the specific example. FIG. 15 is a diagram corresponding to FIG. 5 in the first embodiment. The other camera 250a in the image pickup unit 250 can be considered in the same way only by reversing the left and right positions, and thus illustration and description thereof are omitted. In FIG. 15, the left side is a diagram showing dimensions with respect to the positional relationship seen from the front side, and the right side is a diagram showing dimensions with respect to the positional relationship seen from the side (lateral) side. The camera position Pa of the camera 250b is at the upper left of the irradiated area PLa, and is, for example, about 30 cm away from the projection position of the projection light PL on the left side in the horizontal direction.

なお、図示のように、検出範囲である立体的領域CDの上端面の領域を検出領域DD1とすると、これに対応するスクリーンSC上の領域は、破線で示す領域DLaとなる。すなわち、撮像部50は、検出領域DD1での検出を可能とするためには、スクリーンSC上で換算して領域DLaとなるような範囲についてまで撮像可能となっている必要がある。また、距離dの値が大きくなる(検出領域DD1が被照射領域PLaから遠くなる)につれて、領域DLaは急激に大きくなる。本構成では、超短焦点近接投射を行っているためである。以上のように、距離dの値が大きくなるほど、撮像部50を広画角化させる必要性が生じる。   As shown in the figure, when the region on the upper end surface of the three-dimensional region CD, which is the detection range, is a detection region DD1, the region on the screen SC corresponding to this is a region DLa indicated by a broken line. That is, in order to enable detection in the detection area DD1, the imaging unit 50 needs to be able to image up to a range that is converted into the area DLa on the screen SC. Further, as the value of the distance d increases (the detection area DD1 is far from the irradiated area PLa), the area DLa increases rapidly. This is because in this configuration, ultra-short focus proximity projection is performed. As described above, as the value of the distance d increases, the imaging unit 50 needs to have a wider angle of view.

図16A及び16Bは、本実施形態におけるプロジェクター300の各部と投射画像との位置関係や、撮像部250(カメラ250a,250b)により撮像されたセンサー上での画像の様子を例示するものである。すなわち、図16A及び16Bは、第1実施形態における図6A及び6B等に対応する図である。   16A and 16B exemplify the positional relationship between each part of the projector 300 and the projection image in this embodiment and the state of the image on the sensor imaged by the imaging unit 250 (cameras 250a and 250b). That is, FIGS. 16A and 16B are diagrams corresponding to FIGS. 6A and 6B in the first embodiment.

本実施形態では、プロジェクター300のうち、撮像部250における魚眼レンズ230a,230bとして、次式で規定される等距離射影方式を採用する。
y=f・θ
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
In the present embodiment, as the fisheye lenses 230a and 230b in the imaging unit 250 in the projector 300, an equidistant projection method defined by the following equation is adopted.
y = f · θ
Here, the focal length is f, the half field angle (or simply the field angle) is θ, and the image height is y.

なお、図16A等では、左右の対称性から、撮像部250のうちカメラ250bのみ表示しており、カメラ250aについては省略している。なお、カメラ250aとカメラ250bとの配置に関しては、図17を参照して後述する。   In FIG. 16A and the like, only the camera 250b of the imaging unit 250 is displayed because of left-right symmetry, and the camera 250a is omitted. The arrangement of the camera 250a and the camera 250b will be described later with reference to FIG.

図16A等に示すように、本実施形態では、撮像素子240bを被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。   As shown in FIG. 16A and the like, in this embodiment, the image sensor 240b is tilted to the right by a predetermined angle with respect to the rectangular projection image (projection screen) area indicated by the irradiated area PLa. I am letting.

ここで、図16Bに示す画像PIにおいて、映像画像DDiは、図15の検出領域DD1に対応する画像である。本実施形態の場合、既述のように、図15等に示す立体的領域CDについて検出を行うことを要する。したがって、立体的領域CDを検出可能な範囲とするためには、カメラ250bは、映像画像PLiのみならず映像画像DDiまでが、アクティブエリアAE内に収まるようにする必要がある。このような条件下において、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子240bの傾斜角度は、上記具体的一構成例の場合では、20.9°であった。また、この時のカメラ250bの焦点距離fは、f=2.03であった。   Here, in the image PI shown in FIG. 16B, the video image DDi is an image corresponding to the detection region DD1 in FIG. In the present embodiment, as described above, it is necessary to detect the three-dimensional area CD shown in FIG. Therefore, in order to make the stereoscopic area CD a detectable range, the camera 250b needs to fit not only the video image PLi but also the video image DDi within the active area AE. Under such conditions, the inclination angle of the image sensor 240b for displaying the entire image image PLi, DDi in the active area AE while displaying the largest image is 20.9 ° in the case of the above specific configuration example. there were. At this time, the focal length f of the camera 250b was f = 2.03.

なお、詳細は省略するが、本実施形態に対する比較例として撮像素子240bを傾けていない場合(撮像素子240bの傾斜角度が0°の場合)についての検証結果と比べて、本実施形態の方が優れていることが分かっている。なお、本実施形態のように、撮像素子を傾けることにより、傾けていない場合に比べて、像が大きくできるので位置精度を高くできる。   Although details are omitted, as compared with the verification result when the image sensor 240b is not tilted (when the tilt angle of the image sensor 240b is 0 °) as a comparative example with respect to the present embodiment, the present embodiment is more suitable. I know it ’s excellent. Note that, as in the present embodiment, by tilting the image sensor, the image can be enlarged as compared with the case where the image sensor is not tilted, so that the positional accuracy can be increased.

以下、図17を参照して、カメラ250aとカメラ250bとの配置のうち、特に撮像素子240aと撮像素子240bとの関係について説明する。既述のように、カメラ250aとカメラ250bとは、プロジェクター本体部100pを中央にして左右対称に配置されている。左右の対称性から、撮像素子240aにおける映像画像PLi,DDiは、図16Bに示す撮像素子240bのものとは左右反転したものとすることが望ましい。つまり、図17に示すように、撮像素子240aと撮像素子240bとでの傾斜角度についても左右反転させておくことが望ましい。具体的には、上記では、撮像素子240bを所定の角度(20.9°)だけ右回転させた状態となるように傾斜させているのに対応して、撮像素子240aを所定の角度(20.9°)だけ左回転させた状態となるように傾斜させておくべきであると考えられる。以上のように、一対のカメラ250a,250bにそれぞれ設けた撮像素子240a,240bは、異なる向きに同じ大きさの角度で傾いている。これにより、各カメラ250a,250bにおいて、設置位置に応じて被照射領域PLaをより大きく映し出すことができる。   Hereinafter, among the arrangements of the camera 250a and the camera 250b, the relationship between the image sensor 240a and the image sensor 240b will be described with reference to FIG. As described above, the camera 250a and the camera 250b are arranged symmetrically with the projector body 100p as the center. From the left-right symmetry, it is desirable that the video images PLi and DDi in the image sensor 240a are horizontally reversed from those of the image sensor 240b shown in FIG. 16B. That is, as shown in FIG. 17, it is desirable that the tilt angles between the image sensor 240a and the image sensor 240b are also reversed left and right. Specifically, in the above description, the image sensor 240a is tilted so as to be rotated to the right by a predetermined angle (20.9 °). .9 °) should be tilted so that it is rotated counterclockwise. As described above, the image sensors 240a and 240b provided in the pair of cameras 250a and 250b are inclined at different angles in the same size. Thereby, in each camera 250a, 250b, the irradiated area PLa can be projected larger according to the installation position.

以下、図18を参照して本実施形態の一変形例について説明する。本変形例では、図18Aに示すように、撮像素子240bを所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。   Hereinafter, a modification of the present embodiment will be described with reference to FIG. As shown in FIG. 18A, the present modification is different from the above example in that the image sensor 240b is tilted so as to be rotated left by a predetermined angle.

本変形例においては、図18Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子240bの傾斜角度は、上記具体的一構成例の場合では、30.1°であった。また、この時のカメラ250bの焦点距離fは、f=2.06であった。   In this modification, as shown in FIG. 18B, the tilt angle of the image sensor 240b for displaying the video image PLi, DDi within the active area AE while displaying the largest image is the case of the above specific configuration example. 30.1 °. Further, the focal length f of the camera 250b at this time was f = 2.06.

上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fからすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。   In the case of the above specific configuration example, the size of the video image PLi in the above example and the present modification is slightly better in the case of left rotation in terms of the focal length f, but is almost unchanged and substantially the same. It was performance. In other words, there was not much difference depending on the direction of tilt.

なお、図19は、本変形例におけるカメラ250aとカメラ250bとの配置のうち、撮像素子240aと撮像素子240bとの関係について示す図である。本変形例においても、左右の対称性により、撮像素子240aと撮像素子240bとでの傾斜角度についても左右反転させておくことが望ましいと考えられる。すなわち、撮像素子240a,240bを、異なる向きに同じ大きさの角度で傾けることにより、各カメラ250a,250bにおいて、設置位置に応じて被照射領域PLaをより大きく映し出すことができる。   FIG. 19 is a diagram illustrating a relationship between the image sensor 240a and the image sensor 240b in the arrangement of the camera 250a and the camera 250b in the present modification. Also in this modification, it is desirable that the tilt angle between the image sensor 240a and the image sensor 240b be reversed left and right due to left-right symmetry. In other words, by tilting the image pickup devices 240a and 240b at different angles in the same size, the irradiated areas PLa can be projected more greatly on the cameras 250a and 250b depending on the installation position.

以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。   As described above, also in the present embodiment, by tilting the image sensor with respect to the rectangular projection image, each position of the video image corresponding to the projection region (projection image) can be displayed larger, The position detection accuracy can be improved.

〔第4実施形態〕
以下、図20等を参照して、第3実施形態を変形した第4実施形態について説明する。なお、本実施形態に係るプロジェクターシステムは、撮像部において採用する魚眼レンズの射影条件を除いて、第3実施形態と同様の構成であるので、プロジェクターシステム全体についての詳細な説明を省略する。特に、撮像部を構成する一対のカメラについて一方を省略している。具体的一構成例(具体的仕様)についても、第3実施形態において示した場合と同様であるものとする。
[Fourth Embodiment]
Hereinafter, with reference to FIG. 20 etc., 4th Embodiment which deform | transformed 3rd Embodiment is described. Note that the projector system according to the present embodiment has the same configuration as that of the third embodiment except for the projection condition of the fisheye lens employed in the imaging unit, and thus a detailed description of the entire projector system is omitted. In particular, one of the pair of cameras constituting the imaging unit is omitted. A specific configuration example (specific specification) is also the same as that shown in the third embodiment.

図20A及び20Bは、本実施形態におけるプロジェクターの各部と投射画像との位置関係や、撮像部により撮像されたセンサー上での画像の様子、さらには、撮像部により撮像された撮像素子(センサー)上のうちの画像の一部を例示するものである。すなわち、図20A及び20Bは、第3実施形態における図16A及び16Bに対応する図である。   20A and 20B show the positional relationship between each part of the projector and the projected image, the state of the image on the sensor imaged by the imaging unit, and the image sensor (sensor) imaged by the imaging unit. A part of the upper image is illustrated. That is, FIGS. 20A and 20B correspond to FIGS. 16A and 16B in the third embodiment.

本実施形態では、プロジェクター400のうち、撮像部350における魚眼レンズ330bとして、次式で規定される立体射影方式を採用する。
y=2f・tan(θ/2)
ここで、焦点距離をf、半画角(あるいは単に画角)をθ、像高をyとする。
In the present embodiment, as the fish-eye lens 330b in the imaging unit 350 in the projector 400, a stereoscopic projection method defined by the following equation is adopted.
y = 2f · tan (θ / 2)
Here, the focal length is f, the half field angle (or simply the field angle) is θ, and the image height is y.

なお、図20A等では、左右の対称性から、撮像部350のうちカメラ350bのみ表示しており、もう一方のカメラについては図示を省略している。   In FIG. 20A and the like, only the camera 350b of the imaging unit 350 is displayed because of left-right symmetry, and the other camera is not shown.

図20A等に示すように、本実施形態では、撮像素子340bを被照射領域PLaで示される矩形の投射画像(投射画面)の領域に対して所定の角度右回転させた状態となるように傾斜させている。   As shown in FIG. 20A and the like, in this embodiment, the image sensor 340b is tilted so as to be rotated to the right by a predetermined angle with respect to the rectangular projection image (projection screen) area indicated by the irradiated area PLa. I am letting.

また、図20Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子340bの傾斜角度は、上記具体的一構成例の場合では、20.7°であった。また、この時のカメラ350bの焦点距離fは、f=1.78であった。   Further, as shown in FIG. 20B, the inclination angle of the image sensor 340b for displaying the entire image image PLi, DDi within the active area AE most greatly is 20.7 in the case of the above specific configuration example. °. At this time, the focal length f of the camera 350b was f = 1.78.

また、上記のほか、特に、立体射影方式とした場合、指示体OBの角度(姿勢)が変化しても各位置での幅(指幅)が変わらず一定値を取っていることが分かっている。   In addition to the above, especially in the case of the three-dimensional projection method, it can be seen that the width (finger width) at each position does not change even if the angle (posture) of the indicator OB changes and takes a constant value. Yes.

なお、詳細は省略するが、本実施形態に対する比較例として撮像素子340bを傾けていない場合(撮像素子340bの傾斜角度が0°の場合)についての検証結果と比べて、本実施形態の方が優れていることが分かっている。なお、本実施形態のように、撮像素子を傾けることにより、傾けていない場合に比べて、像が大きくできるので位置精度を高くできる。   Although details are omitted, as compared with the verification result when the image sensor 340b is not tilted (when the tilt angle of the image sensor 340b is 0 °) as a comparative example with respect to the present embodiment, the present embodiment is more suitable. I know it ’s excellent. Note that, as in the present embodiment, by tilting the image sensor, the image can be enlarged as compared with the case where the image sensor is not tilted, so that the positional accuracy can be increased.

以下、図21を参照して本実施形態の一変形例について説明する。本変形例では、図21Aに示すように、撮像素子340bを所定の角度左回転させた状態となるように傾斜させている点において、上記一例と異なっている。   Hereinafter, a modification of the present embodiment will be described with reference to FIG. As shown in FIG. 21A, the present modification is different from the above example in that the image sensor 340b is inclined so as to be rotated left by a predetermined angle.

本変形例においては、図21Bに示すように、映像画像PLi,DDiをアクティブエリアAE内に収めつつ全体を最も大きく映し出すための撮像素子340bの傾斜角度は、上記具体的一構成例の場合では、29.7°であった。また、この時のカメラ350bの焦点距離fは、f=1.79であった。   In this modification, as shown in FIG. 21B, the inclination angle of the image sensor 340b for displaying the entire image image PLi, DDi in the active area AE while displaying the largest image is as shown in FIG. 21B. 29.7 °. The focal length f of the camera 350b at this time was f = 1.79.

上記具体的一構成例の場合では、上記一例と本変形例とでは、映像画像PLiのサイズは、焦点距離fからすると、若干左回転の方が良好であるが、ほとんど変わらず、略同等の性能であった。言い換えると、傾ける方向による差はあまり見られなかった。   In the case of the above specific configuration example, the size of the video image PLi in the above example and the present modification is slightly better in the case of left rotation in terms of the focal length f, but is almost unchanged and substantially the same. It was performance. In other words, there was not much difference depending on the direction of tilt.

以上のように、本実施形態においても、撮像素子を矩形の投射画像に対して傾けていることで、投影領域(投射画像)に対応する映像画像の各位置をより大きく映し出すことを可能にし、位置検出精度を向上させることができるものとなっている。   As described above, also in the present embodiment, by tilting the image sensor with respect to the rectangular projection image, each position of the video image corresponding to the projection region (projection image) can be displayed larger, The position detection accuracy can be improved.

〔その他〕
この発明は、上記の各実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
[Others]
The present invention is not limited to the above embodiments, and can be implemented in various modes without departing from the scope of the invention.

上記では、具体的一構成例(具体的仕様)に即して説明しているが、これはあくまで一例であり、構成例については種々の多様な場合が考えられる。   In the above description, a specific configuration example (specific specification) is described. However, this is merely an example, and various various cases can be considered for the configuration example.

例えば、上記では、70インチの被照射領域(投影領域)を形成するものとしているが、70インチ以上(例えば70インチ〜120インチ程度)とすることが考えられる。また、近接投射に関して、スローレシオを約0.27としているが、例えば0.27以下とする構成にしてもよい。   For example, in the above, an irradiation area (projection area) of 70 inches is formed, but it is conceivable that the irradiation area is 70 inches or more (for example, about 70 inches to 120 inches). Further, regarding the proximity projection, the slow ratio is set to about 0.27, but may be configured to be 0.27 or less, for example.

例えば、上記では、プロジェクター100におけるカメラ位置は、水平方向について投射光PLの投射位置から左側に30cmほど離間しているものとしているが、カメラ位置についても種々の場合が考えられ、これに応じて撮像素子の傾斜角度も異なる。また、プロジェクターにおける投射距離を異なる値とすることも考えられる。   For example, in the above description, it is assumed that the camera position in the projector 100 is about 30 cm away from the projection position of the projection light PL in the horizontal direction, but various cases can be considered for the camera position. The tilt angle of the image sensor is also different. It is also conceivable to set different projection distances in the projector.

また、上記のうち例えば第3実施形態では、立体的領域CDの奥行き方向について、距離dを160mm(16cm)としているが、16cm以上とすることも考えられる。   Further, among the above, for example, in the third embodiment, the distance d is set to 160 mm (16 cm) in the depth direction of the three-dimensional area CD, but it may be set to 16 cm or more.

また、上記のうち例えば第3実施形態では、撮像部250を構成する一対のカメラ250a,250bから取得された画像情報に基づく視差情報によって指示体を立体的形状として捉えることができる。この際、各カメラ250a,250bからの画像情報は、キャリブレーションでの対応付けに基づいてそれぞれ画像処理が施されるものとなる。この画像処理については、各カメラ250a,250bからの画像情報ごとに個別に行うものとしてもよいが、一対のカメラ250a,250bは、左右の対称性を有していることを利用して、一方の処理方法を、左右反転させて他方に転用するものとしてもよい。また、この場合、2つの画像処理を一括して行うものとしてもよい。   In the third embodiment, for example, the indicator can be regarded as a three-dimensional shape based on the parallax information based on the image information acquired from the pair of cameras 250 a and 250 b configuring the imaging unit 250. At this time, the image information from each camera 250a, 250b is subjected to image processing based on the association in the calibration. This image processing may be performed individually for each piece of image information from each camera 250a, 250b. However, the pair of cameras 250a, 250b has a left-right symmetry. This processing method may be reversed left and right and diverted to the other. In this case, the two image processes may be performed collectively.

また、上記では、プロジェクター制御部CTや、プロジェクター100に接続可能なPC等において各種処理をなすものとして記載しているが、担わせる処理については、種々の態様が可能であり、例えば、撮像部50で取得した投射光PLの情報に基づく画像投射位置と、撮像部50により検出された検出光DLに基づく位置とを特定する等の処理をPC側で行うようにするといったことが考えられる。言い換えると、プロジェクター制御部CTにおける上記画像投射位置や指示体による指示位置を特定し、特定した位置関係に基づく画像投影の制御の一部又は全部をPC等の外部接続機器で行う(PC等がプロジェクター制御部を構成する)ものとしてもよい。また、逆に、PC等を接続せず、例えば、プロジェクター制御部CTにおいて全ての処理を担わせる構成(PCレス)とすることも可能である。   In the above description, the projector control unit CT and the PC that can be connected to the projector 100 are described as performing various types of processing. However, various types of processing can be performed, for example, an imaging unit. It is conceivable that processing such as specifying an image projection position based on the information of the projection light PL acquired at 50 and a position based on the detection light DL detected by the imaging unit 50 is performed on the PC side. In other words, the image projection position in the projector control unit CT and the indication position by the indicator are specified, and part or all of the image projection control based on the specified positional relationship is performed by an external connection device such as a PC (PC etc. The projector controller may be configured). On the contrary, it is possible to adopt a configuration (PC-less) in which all processing is performed in the projector control unit CT without connecting a PC or the like.

また、上記では、キャリブレーションにおいて、パターン画像PTを緑色波長帯域の光で構成されるパターン画像光GLによって投影するものとしているが、パターン画像PTの投影については、緑色波長帯域の光に限らず、他の波長帯域の光を利用することも考えられる。   In the above description, in the calibration, the pattern image PT is projected by the pattern image light GL composed of light in the green wavelength band. However, the projection of the pattern image PT is not limited to light in the green wavelength band. It is also conceivable to use light in other wavelength bands.

また、上記では、プロジェクター本体部100pを構成する光源や光変調装置、投射光学系等については、図示や詳細な説明を省略しているが、種々の態様が適用可能であり、例えば光源に関しては、上記のほか、例えば高圧水銀ランプ等を利用し、3色の光源に分離して適用することも可能である。光変調装置については、上記のほか、例えば光変調装置についても液晶パネルにカラーフィルターを利用したものや、反射型液晶パネル、デジタル・マイクロミラー・デバイス等により構成するといった種々の態様が考えられる。   In the above description, illustration and detailed description of the light source, the light modulation device, the projection optical system, and the like constituting the projector main body 100p are omitted, but various aspects are applicable. In addition to the above, for example, a high-pressure mercury lamp can be used and separated into three color light sources. Regarding the light modulation device, in addition to the above, for example, various modes such as a light modulation device using a color filter for a liquid crystal panel, a reflection type liquid crystal panel, a digital micromirror device, or the like can be considered.

なお、等距離射影と立体射影とを比較すると、一般的には、立体射影の方が性能は良くなるが、設計や製造が難しくコストも高くなる傾向にあると考えられる。したがって、ペン先の発光点等を位置検出するような比較的検出精度を必要としない方式では等距離射影を採用し、指等の指示体の形状を検出することにより位置検出をする比較的検出精度が必要な方式では立体射影を採用する、といったことも考えらえる。   In addition, when comparing equidistant projection and stereoscopic projection, it is generally considered that stereoscopic projection has better performance, but is difficult to design and manufacture and tends to increase cost. Therefore, a method that does not require a relatively high detection accuracy, such as detecting the position of the light emitting point of the pen tip, employs equidistant projection, and detects the position by detecting the shape of a pointer such as a finger. It is conceivable that a method that requires accuracy adopts a stereoscopic projection.

30…魚眼レンズ、40…撮像素子(センサー部)、40f…矩形枠、50…撮像部、70…ペン、82…通信部、90…画像投影部、100…プロジェクター、100p…プロジェクター本体部、130…魚眼レンズ、140…撮像素子(センサー部)、150…撮像部、200…プロジェクター、230a,230b…魚眼レンズ、240a,240b…撮像素子(センサー部)、250…撮像部、250a,250b…カメラ、300…プロジェクター、330b…魚眼レンズ、340b…撮像素子(センサー部)、350…撮像部、350a,350b…カメラ、400…プロジェクター、500…プロジェクターシステム、600…プロジェクターシステム、AE…アクティブエリア、AX…光軸、CD…立体的領域、CT…プロジェクター制御部、d…距離、DD1…検出領域、DDi…映像画像、DL…検出光、DLa…領域、f…焦点距離、f1…投射距離、GG…画像、GL…パターン画像光、HS…横サイズ、HU…利用者、IL…赤外光、LC…液晶パネル、LL1…曲線部分、Pa…カメラ位置、PI…画像、PL…投射光、PLa…被照射領域(投影領域)、PLf…矩形枠、PLi…映像画像、PT…パターン画像、SC…スクリーン、SE…エリア、SP…位置、SPi…画像点、TP…先端部、α…あおり角   DESCRIPTION OF SYMBOLS 30 ... Fisheye lens, 40 ... Image sensor (sensor part), 40f ... Rectangular frame, 50 ... Imaging part, 70 ... Pen, 82 ... Communication part, 90 ... Image projection part, 100 ... Projector, 100p ... Projector main-body part, 130 ... Fisheye lens, 140 ... imaging element (sensor part), 150 ... imaging part, 200 ... projector, 230a, 230b ... fisheye lens, 240a, 240b ... imaging element (sensor part), 250 ... imaging part, 250a, 250b ... camera, 300 ... Projector, 330b ... Fisheye lens, 340b ... Imaging device (sensor unit), 350 ... Imaging unit, 350a, 350b ... Camera, 400 ... Projector, 500 ... Projector system, 600 ... Projector system, AE ... Active area, AX ... Optical axis, CD ... three-dimensional domain, CT ... professional Projector control unit, d ... distance, DD1 ... detection region, DDi ... video image, DL ... detection light, DLa ... region, f ... focal length, f1 ... projection distance, GG ... image, GL ... pattern image light, HS ... horizontal Size, HU ... user, IL ... infrared light, LC ... liquid crystal panel, LL1 ... curve portion, Pa ... camera position, PI ... image, PL ... projection light, PLa ... irradiated area (projection area), PLf ... rectangular Frame, PLi ... Video image, PT ... Pattern image, SC ... Screen, SE ... Area, SP ... Position, SPi ... Image point, TP ... Tip, α ... Tilt angle

Claims (10)

画像光を斜方投射するプロジェクター本体部と、
魚眼レンズと前記魚眼レンズを介して受光する矩形のセンサー部とを有して前記プロジェクター本体部からの画像光の投影領域を撮像する撮像部と
を備え、
前記矩形のセンサー部は、前記プロジェクター本体部からの画像光によって前記投影領域に形成される矩形の投射画像に対して傾いている、プロジェクターシステム。
A projector main body that projects image light obliquely;
An imaging unit that has a fisheye lens and a rectangular sensor unit that receives light through the fisheye lens, and that captures a projection area of image light from the projector body unit;
The rectangular sensor unit is tilted with respect to a rectangular projection image formed in the projection area by image light from the projector main body unit.
前記撮像部は、前記魚眼レンズとして等距離射影方式のレンズを有する、請求項1に記載のプロジェクターシステム。 The projector system according to claim 1, wherein the imaging unit includes an equidistant projection type lens as the fisheye lens. 前記撮像部は、前記魚眼レンズとして立体射影方式のレンズを有する、請求項1に記載のプロジェクターシステム。 The projector system according to claim 1, wherein the imaging unit includes a stereoscopic projection type lens as the fisheye lens. 前記撮像部は、赤外光波長帯域の光を、画像光の波長帯域以外の波長帯域の検出光として検出する、請求項1〜3のいずれか一項に記載のプロジェクターシステム。   The projector system according to claim 1, wherein the imaging unit detects light in an infrared light wavelength band as detection light in a wavelength band other than the wavelength band of image light. 前記撮像部は、前記プロジェクター本体部からの画像光の投影領域を含む立体的領域を撮像して前記立体的領域に存する指示体を検出可能にする、請求項1〜3のいずれか一項に記載のプロジェクターシステム。 The imaging unit according to any one of claims 1 to 3, wherein the three-dimensional region including a projection region of image light from the projector main body unit is imaged to detect an indicator existing in the three-dimensional region. The projector system described. 前記撮像部は、2以上のカメラを含む、請求項1〜5のいずれか一項に記載のプロジェクターシステム。   The projector system according to claim 1, wherein the imaging unit includes two or more cameras. 前記撮像部は、前記2以上のカメラとして、前記プロジェクター本体部からの画像光の射出方向に交差する方向に離間して設けられる一対のカメラを有し、当該一対のカメラにそれぞれ設けた前記矩形のセンサー部は、異なる向きに傾いている、請求項1〜6のいずれか一項に記載のプロジェクターシステム。   The imaging unit includes a pair of cameras provided as the two or more cameras spaced apart from each other in a direction intersecting an emission direction of image light from the projector main body, and the rectangles provided in the pair of cameras, respectively. The projector unit according to claim 1, wherein the sensor unit is inclined in different directions. 前記撮像部は、0°〜15°の範囲内のあおり角で傾いている、請求項1〜7のいずれか一項に記載のプロジェクターシステム。   The projector system according to claim 1, wherein the imaging unit is tilted at a tilt angle within a range of 0 ° to 15 °. 前記撮像部で取得した画像光の情報に基づく画像投射位置と、前記撮像部により検出された位置とを特定し、特定した位置関係に基づく画像投影の制御を行うプロジェクター制御部をさらに備える、請求項1〜8のいずれか一項に記載のプロジェクターシステム。   An image projection position based on image light information acquired by the imaging unit and a position detected by the imaging unit are specified, and further provided is a projector control unit that controls image projection based on the specified positional relationship. Item 9. The projector system according to any one of Items 1 to 8. 前記プロジェクター本体部は、前記撮像部により検出された位置の情報を反映した画像投射を行う、請求項1〜9のいずれか一項に記載のプロジェクターシステム。   The projector system according to claim 1, wherein the projector main body performs image projection that reflects information on a position detected by the imaging unit.
JP2016225730A 2016-11-21 2016-11-21 Projector system Pending JP2018085553A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016225730A JP2018085553A (en) 2016-11-21 2016-11-21 Projector system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016225730A JP2018085553A (en) 2016-11-21 2016-11-21 Projector system

Publications (1)

Publication Number Publication Date
JP2018085553A true JP2018085553A (en) 2018-05-31

Family

ID=62238637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225730A Pending JP2018085553A (en) 2016-11-21 2016-11-21 Projector system

Country Status (1)

Country Link
JP (1) JP2018085553A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112711A (en) * 2019-01-15 2020-07-27 セイコーエプソン株式会社 Method for controlling projector, projector, and projection system
WO2021005711A1 (en) * 2019-07-09 2021-01-14 マクセル株式会社 Projection type video display device
JP7547992B2 (en) 2020-02-10 2024-09-10 株式会社リコー Projection device and operation detection device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112711A (en) * 2019-01-15 2020-07-27 セイコーエプソン株式会社 Method for controlling projector, projector, and projection system
US11109007B2 (en) 2019-01-15 2021-08-31 Seiko Epson Corporation Method for controlling projector, projector, and projection system
WO2021005711A1 (en) * 2019-07-09 2021-01-14 マクセル株式会社 Projection type video display device
JPWO2021005711A1 (en) * 2019-07-09 2021-01-14
JP7177936B2 (en) 2019-07-09 2022-11-24 マクセル株式会社 Projection type image display device
US12044900B2 (en) 2019-07-09 2024-07-23 Maxell, Ltd. Projection type video display device
JP7547992B2 (en) 2020-02-10 2024-09-10 株式会社リコー Projection device and operation detection device

Similar Documents

Publication Publication Date Title
JP5973087B2 (en) Projection-type image display device
KR102463712B1 (en) Virtual touch recognition apparatus and method for correcting recognition error thereof
TW201741693A (en) Projection device
JP6307972B2 (en) REFLECTOR, ADJUSTING METHOD, AND POSITION DETECTION DEVICE
US20110115904A1 (en) Object-detecting system
JP6822234B2 (en) Projector system
US20110074738A1 (en) Touch Detection Sensing Apparatus
WO2018092627A1 (en) Projector system
US20110084938A1 (en) Touch detection apparatus and touch point detection method
US20110199337A1 (en) Object-detecting system and method by use of non-coincident fields of light
JP2005107607A (en) Optical position detecting apparatus
US20130241883A1 (en) Optical touch system and optical touch-position detection method
JP2018085553A (en) Projector system
US10318067B2 (en) Corner generation in a projector display area
US9639209B2 (en) Optical touch system and touch display system
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
US20140306934A1 (en) Optical touch panel system, optical apparatus and positioning method thereof
US20110012867A1 (en) Optical touch screen device
TWI564773B (en) Optical touch system and optical touch apparatus thereof
US20150185321A1 (en) Image Display Device
JP2017129767A (en) Reflector, method of adjusting light-emitting device, and detection system
US20130241882A1 (en) Optical touch system and optical touch position detecting method
JP6314177B2 (en) Projection-type image display device
TWI543046B (en) Optical touch-control system
WO2017038025A1 (en) Imaging apparatus

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180907

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181120