JP2016184850A - Projector and detection method - Google Patents

Projector and detection method Download PDF

Info

Publication number
JP2016184850A
JP2016184850A JP2015063926A JP2015063926A JP2016184850A JP 2016184850 A JP2016184850 A JP 2016184850A JP 2015063926 A JP2015063926 A JP 2015063926A JP 2015063926 A JP2015063926 A JP 2015063926A JP 2016184850 A JP2016184850 A JP 2016184850A
Authority
JP
Japan
Prior art keywords
imaging
unit
camera
light
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015063926A
Other languages
Japanese (ja)
Inventor
行浩 唐澤
Yukihiro Karasawa
行浩 唐澤
脇本 真吾
Shingo Wakimoto
真吾 脇本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015063926A priority Critical patent/JP2016184850A/en
Publication of JP2016184850A publication Critical patent/JP2016184850A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a projector capable of detecting both of an indicator (self-light emitting indicator) which emits infrared light and an indicator (non-light emitting indicator) which does not emit any light.SOLUTION: The projector includes: a projection section for projecting an image on to a projection plane; a first imaging unit and a second imaging unit having an area including the projection plane as an imaging area for picking up an image of a visible light; a third imaging unit which has an area including the projection plane as an imaging area for picking up an image of infrared light; a first detection section that detects the position of a non-light emitting indicator based on the imaging result by the first imaging unit and the second imaging unit; and a second detection section that detects the position of a self-light emitting indicator which has a light emitting part which emits infrared light based on the imaging result by the third imaging unit.SELECTED DRAWING: Figure 1

Description

本発明は、プロジェクターおよび検出方法に関する。   The present invention relates to a projector and a detection method.

コンピューターから出力される画像信号に基づく画像などを、プロジェクターによってホワイトボード等のスクリーンに投写するとともに、投写された画像を撮像装置で撮像し、投写画像に対してユーザーが行った操作をコンピューターなどで認識するインタラクティブシステムが知られている。このようなインタラクティブシステムでは、プロジェクターおよびユーザーが扱う電子ペンにより赤外光の送受信が行われる(例えば、特許文献1参照。)。   An image based on an image signal output from a computer is projected onto a screen such as a whiteboard by a projector, and the projected image is captured by an imaging device. Recognized interactive systems are known. In such an interactive system, infrared light is transmitted and received by a projector and an electronic pen handled by a user (see, for example, Patent Document 1).

特開2014−59695号公報JP 2014-59695 A

しかしながら、プロジェクターに赤外カメラを備えて、当該赤外カメラにより電子ペンからの赤外光を受信する場合、赤外光を発しない人間の指などを検出することができなかった。
なお、これを解消するために、スクリーンの前に赤外光のカーテン(ライトカーテン)を形成するライトカーテン装置を設置して、指などによる当該赤外光の反射光を赤外カメラで受信することが提案されている。これにより、プロジェクターでは、赤外光を発する電子ペンばかりでなく、赤外光を発しない指などを認識することが可能となる。しかしながら、プロジェクターの配置によっては、ライトカーテン装置を設置するスペースが無い場合もあり、また、ライトカーテンを形成する赤外光を発し続けるために大きな電力が消費される場合があった。
However, when the projector is equipped with an infrared camera and the infrared camera receives infrared light from the electronic pen, a human finger that does not emit infrared light cannot be detected.
In order to solve this problem, a light curtain device that forms an infrared light curtain (light curtain) is installed in front of the screen, and the reflected light of the infrared light from a finger or the like is received by the infrared camera. It has been proposed. Thereby, the projector can recognize not only an electronic pen that emits infrared light but also a finger that does not emit infrared light. However, depending on the arrangement of the projector, there is a case where there is no space for installing the light curtain device, and there is a case where a large amount of electric power is consumed to continuously emit infrared light that forms the light curtain.

本発明は、前記の点に鑑み為されたものであり、赤外光を発する指示体(自発光型指示体)および自ら光を発しない指示体(非発光型指示体)の両方について検出を行うことができるプロジェクターおよび検出方法を提供することを目的とする。   The present invention has been made in view of the above points, and detects both an indicator that emits infrared light (self-luminous indicator) and an indicator that does not emit light itself (non-luminous indicator). An object is to provide a projector and a detection method that can be performed.

本発明の一態様は、上記の課題を解決するためになされたものであり、投写面に画像を投写する投写部と、前記投写面を含む領域を撮像領域とし、可視光を撮像する第1の撮像部および第2の撮像部と、前記投写面を含む領域を撮像領域とし、赤外光を撮像する第3の撮像部と、前記第1の撮像部および前記第2の撮像部による撮像結果に基づいて、非発光型指示体の位置を検出する第1検出部と、前記第3の撮像部による撮像結果に基づいて、赤外光を発する発光部を有する自発光型指示体の位置を検出する第2検出部と、を備えるプロジェクターである。
この構成により、プロジェクターでは、可視光を撮像する第1の撮像部および第2の撮像部による撮像結果に基づいて非発光型指示体の位置を検出し、赤外光を撮像する第3の撮像部による撮像結果に基づいて自発光型指示体の位置を検出する。これにより、プロジェクターでは、自発光型指示体および非発光型指示体の両方について検出を行うことができる。
One aspect of the present invention is made to solve the above-described problem. A projection unit that projects an image on a projection surface, and a first region that captures visible light using the region including the projection surface as an imaging region. The imaging unit and the second imaging unit, the region including the projection plane as an imaging region, a third imaging unit that images infrared light, and the imaging by the first imaging unit and the second imaging unit Based on the result, the position of the self-luminous indicator which has the 1st detection part which detects the position of a non-light-emitting indicator, and the light emission part which emits infrared light based on the image pick-up result by the 3rd image pick-up part A second detection unit for detecting the projector.
With this configuration, the projector detects the position of the non-light-emitting indicator based on the imaging results of the first imaging unit and the second imaging unit that capture visible light, and performs the third imaging that captures infrared light. The position of the self-luminous indicator is detected based on the imaging result of the unit. As a result, the projector can detect both the self-luminous indicator and the non-luminous indicator.

本発明の一態様は、プロジェクターにおいて、前記第1の撮像部および前記第2の撮像部のうちの少なくとも一方は、可視光を撮像する機能および赤外光を撮像する機能を切り替えることが可能な撮像部であり、前記第3の撮像部も構成する、構成が用いられてもよい。
この構成により、プロジェクターでは、可視光を撮像する機能および赤外光を撮像する機能を切り替えることが可能な撮像部により、可視光を撮像し、赤外光を撮像する。これにより、プロジェクターでは、可視光を撮像する撮像部と赤外光を撮像する撮像部を別々に備える場合と比べて小型化を図ることができる。
According to one embodiment of the present invention, in the projector, at least one of the first imaging unit and the second imaging unit can switch a function of imaging visible light and a function of imaging infrared light. A configuration that is an imaging unit and that also configures the third imaging unit may be used.
With this configuration, in the projector, the visible light is imaged and the infrared light is imaged by the imaging unit capable of switching between the function of imaging visible light and the function of imaging infrared light. Thereby, in a projector, size reduction can be achieved compared with the case where the imaging part which images visible light, and the imaging part which images infrared light are provided separately.

本発明の一態様は、プロジェクターにおいて、前記第1の撮像部による撮像結果および前記第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、前記非発光型指示体または前記自発光型指示体で指示された部分の色を検出する色検出部をさらに備える、構成が用いられてもよい。
この構成により、プロジェクターでは、第1の撮像部による撮像結果および第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、非発光型指示体または自発光型指示体で指示された部分の色を検出する。これにより、プロジェクターでは、非発光型指示体または自発光型指示体で色を指示することを可能とすることができる。
According to one aspect of the present invention, in the projector, the non-light-emitting indicator or the self-light-emitting instruction is based on at least one of an imaging result by the first imaging unit and an imaging result by the second imaging unit. A configuration that further includes a color detection unit that detects the color of the part designated by the body may be used.
With this configuration, in the projector, based on at least one of the imaging result by the first imaging unit and the imaging result by the second imaging unit, the portion instructed by the non-luminous indicator or the self-luminous indicator Detect color. Thereby, in the projector, it is possible to indicate a color with a non-light-emitting indicator or a self-light-emitting indicator.

本発明の一態様は、プロジェクターにおいて、前記第1の撮像部による撮像結果および前記第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、前記非発光型指示体または前記自発光型指示体で指示された部分の図形を検出する図形検出部をさらに備える、構成が用いられてもよい。
この構成により、プロジェクターでは、第1の撮像部による撮像結果および第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、非発光型指示体または自発光型指示体で指示された部分の図形を検出する。これにより、プロジェクターでは、非発光型指示体または自発光型指示体で図形を指示することを可能とすることができる。
According to one aspect of the present invention, in the projector, the non-light-emitting indicator or the self-light-emitting instruction is based on at least one of an imaging result by the first imaging unit and an imaging result by the second imaging unit. The structure further provided with the figure detection part which detects the figure of the part instruct | indicated with the body may be used.
With this configuration, in the projector, based on at least one of the imaging result by the first imaging unit and the imaging result by the second imaging unit, the portion instructed by the non-luminous indicator or the self-luminous indicator Detect shapes. Thereby, in the projector, it is possible to instruct a figure with a non-light-emitting indicator or a self-light-emitting indicator.

本発明の一態様は、プロジェクターにおいて、前記第1の撮像部による撮像結果および前記第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、前記自発光型指示体の態様を検出する態様検出部をさらに備える、構成が用いられてもよい。
この構成により、プロジェクターでは、第1の撮像部による撮像結果および第2の撮像部による撮像結果のうちの少なくとも一方に基づいて自発光型指示体の態様を検出する。これにより、プロジェクターでは、自発光型指示体の発光部から赤外光が発せられなくても、当該自発光型指示体の発光部の態様を検出することが可能である。
One aspect of the present invention is an aspect in which a projector detects an aspect of the self-luminous indicator based on at least one of an imaging result by the first imaging unit and an imaging result by the second imaging unit. A configuration further including a detection unit may be used.
With this configuration, the projector detects the mode of the self-luminous indicator based on at least one of the imaging result by the first imaging unit and the imaging result by the second imaging unit. As a result, the projector can detect the mode of the light emitting part of the self light emitting indicator even if infrared light is not emitted from the light emitting part of the self light emitting indicator.

本発明の一態様は、プロジェクターにおいて、撮像領域内の熱分布の画像を撮像するサーモグラフィーカメラを備え、前記第1検出部は、前記第1の撮像部、前記第2の撮像部および前記サーモグラフィーカメラによる撮像結果に基づいて、前記非発光型指示体の位置を検出する、構成が用いられてもよい。この構成により、プロジェクターでは、非発光型指示体の位置の検出精度を高めることができる。   One aspect of the present invention is a projector including a thermography camera that captures an image of a heat distribution in an imaging region, wherein the first detection unit includes the first imaging unit, the second imaging unit, and the thermography camera. A configuration may be used in which the position of the non-light emitting indicator is detected based on the imaging result of the above. With this configuration, the projector can improve the detection accuracy of the position of the non-light emitting indicator.

本発明の一態様は、上記の課題を解決するためになされたものであり、プロジェクターにおいて、投写面に画像を投写し、第1の撮像部および第2の撮像部が、前記投写面を含む領域を撮像領域とし、可視光を撮像し、第3の撮像部が、前記投写面を含む領域を撮像領域とし、赤外光を撮像し、前記第1の撮像部および前記第2の撮像部による撮像結果に基づいて、非発光型指示体の位置を検出し、前記第3の撮像部による撮像結果に基づいて、赤外光を発する発光部を有する自発光型指示体の位置を検出する、検出方法である。
この構成により、検出方法では、プロジェクターにおいて、可視光を撮像する第1の撮像部および第2の撮像部による撮像結果に基づいて非発光型指示体の位置を検出し、赤外光を撮像する第3の撮像部による撮像結果に基づいて自発光型指示体の位置を検出する。これにより、検出方法では、プロジェクターにおいて、自発光型指示体および非発光型指示体の両方について検出を行うことができる。
One embodiment of the present invention is made to solve the above-described problem. In the projector, an image is projected onto a projection surface, and the first imaging unit and the second imaging unit include the projection surface. The region is set as an imaging region, visible light is picked up, and the third image pickup unit picks up the region including the projection plane as an image pickup region, picks up infrared light, and the first image pickup unit and the second image pickup unit The position of the non-light-emitting indicator is detected based on the imaging result of, and the position of the self-luminous indicator having a light-emitting unit that emits infrared light is detected based on the imaging result of the third imaging unit. , Detection method.
With this configuration, in the detection method, the projector detects the position of the non-luminous indicator based on the imaging results of the first imaging unit and the second imaging unit that image visible light, and images infrared light. The position of the self-luminous indicator is detected based on the imaging result by the third imaging unit. Thus, in the detection method, the projector can detect both the self-luminous indicator and the non-luminous indicator.

以上のように、本発明に係るプロジェクターおよび検出方法によれば、プロジェクターにおいて、可視光を撮像する第1の撮像部および第2の撮像部による撮像結果に基づいて非発光型指示体の位置を検出し、赤外光を撮像する第3の撮像部による撮像結果に基づいて自発光型指示体の位置を検出する。これにより、本発明に係るプロジェクターおよび検出方法では、プロジェクターにおいて、自発光型指示体および非発光型指示体の両方について検出を行うことができる。   As described above, according to the projector and the detection method of the present invention, in the projector, the position of the non-light emitting indicator is determined based on the imaging results of the first imaging unit and the second imaging unit that image visible light. And detecting the position of the self-luminous indicator based on the imaging result of the third imaging unit that images infrared light. Accordingly, in the projector and the detection method according to the present invention, the projector can detect both the self-luminous indicator and the non-luminous indicator.

本発明の一実施形態(第1実施形態)に係るインタラクティブシステムの概略的な構成例を示す図である。It is a figure which shows the example of a schematic structure of the interactive system which concerns on one Embodiment (1st Embodiment) of this invention. 本発明の一実施形態(第2実施形態)に係るインタラクティブシステムの概略的な構成例を示す図である。It is a figure which shows the schematic structural example of the interactive system which concerns on one Embodiment (2nd Embodiment) of this invention. 本発明の一実施形態(第3実施形態)に係るインタラクティブシステムの概略的な構成例を示す図である。It is a figure which shows the schematic structural example of the interactive system which concerns on one Embodiment (3rd Embodiment) of this invention. 本発明の一実施形態(第4実施形態)に係るインタラクティブシステムの概略的な構成例を示す図である。It is a figure which shows the schematic structural example of the interactive system which concerns on one Embodiment (4th Embodiment) of this invention.

本発明の実施形態について図面を参照して詳細に説明する。
(第1実施形態)
図1は、本発明の一実施形態(第1実施形態)に係るインタラクティブシステム1の概略的な構成例を示す図である。
インタラクティブシステム1は、プロジェクター11と、投写面12と、電子ペン13を備える。また、図1には、人間の指14を示してある。
投写面12は、例えば、スクリーンであるが、他の構成例として、壁あるいは天井などでもよい。
本実施形態では、投写面12は、プロジェクター11により画像が投写される面となるとともに、電子ペン13および指14などにより文字または図形などを描くことなどが可能な操作面(電子黒板のような面)となる。
Embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating a schematic configuration example of an interactive system 1 according to an embodiment (first embodiment) of the present invention.
The interactive system 1 includes a projector 11, a projection surface 12, and an electronic pen 13. Also shown in FIG. 1 is a human finger 14.
The projection surface 12 is, for example, a screen, but may be a wall or a ceiling as another configuration example.
In the present embodiment, the projection surface 12 is a surface on which an image is projected by the projector 11 and an operation surface (such as an electronic blackboard) on which characters or figures can be drawn with the electronic pen 13 and the finger 14. Surface).

電子ペン13は、ユーザーにより持たれるペン状の物体であり、本実施形態では、赤外光を発する指示体として用いられる。
電子ペン13は、発光部21を有する。発光部21は、赤外光を発する。
また、電子ペン13は、赤外光を受光する受光部(図示せず)、当該電子ペン13の先が他の物体(本実施形態では、投写面12)に押し付けられる操作(押圧操作)を検出する押圧スイッチ、および電子ペン13における各種の制御を行う制御部を備える。
電子ペン13は、プロジェクター11から赤外光で送信される同期信号を受光部により受信し、当該同期信号に同期して発光部21から所定の発光パターン(発光シーケンス)で赤外光を送信する。当該発光パターンには電子ペン13の識別情報が含まれてもよい。電子ペン13は、押圧スイッチにより押圧操作が検出された場合に、発光部21により発せられる赤外光の発光パターンを変化させる。これにより、電子ペン13は、プロジェクター11と同期して赤外光を送信し、そして、ユーザーにより持たれて当該電子ペン13により投写面12に対して押圧操作が行われると、当該押圧操作を示す発光パターンの赤外光を送信する。当該押圧操作により、ユーザーは、例えば、投写面12に文字または図形などを描くこと、あるいは、投写面12に表示されたメニューの中から任意の項目を指示する(クリックする)こと、などが可能である。
The electronic pen 13 is a pen-like object held by a user, and is used as an indicator that emits infrared light in this embodiment.
The electronic pen 13 has a light emitting unit 21. The light emitting unit 21 emits infrared light.
In addition, the electronic pen 13 includes a light receiving unit (not shown) that receives infrared light, and an operation (pressing operation) in which the tip of the electronic pen 13 is pressed against another object (projection surface 12 in the present embodiment). A pressing switch for detection and a control unit for performing various controls in the electronic pen 13 are provided.
The electronic pen 13 receives a synchronization signal transmitted by infrared light from the projector 11 by the light receiving unit, and transmits infrared light from the light emitting unit 21 in a predetermined light emission pattern (light emission sequence) in synchronization with the synchronization signal. . The light emission pattern may include identification information of the electronic pen 13. The electronic pen 13 changes the emission pattern of the infrared light emitted by the light emitting unit 21 when a pressing operation is detected by the pressing switch. As a result, the electronic pen 13 transmits infrared light in synchronization with the projector 11, and when the electronic pen 13 is held by the user and a pressing operation is performed on the projection surface 12, the pressing operation is performed. Infrared light having a light emission pattern shown is transmitted. By the pressing operation, the user can, for example, draw a character or a figure on the projection surface 12, or designate (click) an arbitrary item from the menu displayed on the projection surface 12. It is.

一例として、電子ペン13は、プロジェクター11から受信される同期信号に同期して、周期的なタイミング(一定の時間間隔のタイミング)で赤外光を送信し、また、押圧操作されていないときと押圧操作されているときとで異なる発光パターンの赤外光を送信する。
他の構成例として、電子ペン13は、押圧操作されていないときは赤外光を発せず(送信せず)に、押圧操作されたときだけ赤外光を発しても(送信しても)よい。この構成においても、電子ペン13が赤外光を送信することで、プロジェクター11は当該赤外光により電子ペン13が存在することを検出することが可能である。
また、電子ペン13は、例えば、所定のボタンなどの操作部を備えてもよい。そして、電子ペン13は、各ボタンが操作されているときには、他のときとは異なる発光パターンの赤外光を送信してもよい。この場合、プロジェクター11は当該赤外光により電子ペン13の各ボタンなどの操作部が操作されたことを検出することができる。
As an example, the electronic pen 13 transmits infrared light at a periodic timing (timing at a constant time interval) in synchronization with a synchronization signal received from the projector 11, and when the electronic pen 13 is not pressed. Infrared light having a different light emission pattern is transmitted when the pressing operation is performed.
As another configuration example, the electronic pen 13 does not emit infrared light (not transmitted) when not pressed, and emits (transmits) infrared light only when pressed. Good. Also in this configuration, when the electronic pen 13 transmits infrared light, the projector 11 can detect the presence of the electronic pen 13 by the infrared light.
The electronic pen 13 may include an operation unit such as a predetermined button, for example. The electronic pen 13 may transmit infrared light having a light emission pattern different from other times when each button is operated. In this case, the projector 11 can detect that an operation unit such as each button of the electronic pen 13 is operated by the infrared light.

指14は、ユーザーの指であり、本実施形態では、発光しない指示体として用いられる。
指14は、例えば、投写面12に文字または図形などを描くこと、あるいは、投写面12に表示されたメニューの中から任意の項目を指示する(クリックする)こと、などが可能である。
The finger 14 is a user's finger and is used as an indicator that does not emit light in the present embodiment.
The finger 14 can, for example, draw a character or a figure on the projection surface 12 or indicate (click) an arbitrary item from the menu displayed on the projection surface 12.

プロジェクター11について説明する。
プロジェクター11は、投写部31と、第1の可視光カメラ32と、第2の可視光カメラ33と、赤外カメラ34と、赤外通信部35と、記憶部36と、制御部37を備える。制御部37は、第1検出部51と、第2検出部52を備える。
The projector 11 will be described.
The projector 11 includes a projection unit 31, a first visible light camera 32, a second visible light camera 33, an infrared camera 34, an infrared communication unit 35, a storage unit 36, and a control unit 37. . The control unit 37 includes a first detection unit 51 and a second detection unit 52.

投写部31は、表示対象の画像を投写面12に投写する。これにより、投写された画像が投写面12に表示される。表示対象の画像は、任意の画像であってもよく、例えば、複数の項目の中からユーザーにより項目を指示することが可能なメニューの画像を含んでもよい。   The projection unit 31 projects an image to be displayed on the projection surface 12. Thereby, the projected image is displayed on the projection surface 12. The display target image may be an arbitrary image, and may include, for example, a menu image that allows the user to specify an item from among a plurality of items.

具体的には、投写部31は、液晶パネルと、光源と、投写レンズを備える。投写部31は、表示対象の画像の信号を、RGBのそれぞれ(Red、Green、Blue)ごとに、液晶パネルの各画素の階調を表す画像情報に変換し、この画像情報に応じた駆動電圧を液晶パネルの各画素に印加(駆動)する。この印加によって、液晶パネルは、光源から当該液晶パネルへ入射された光を、前記した画像情報に応じた画像を映し出す光(変調された光)として形成する。投写部31は、光源から放射された光を液晶パネル側に反射するリフレクターを含み、反射された光を前記した画像情報に応じた画像を映し出す光として液晶パネルに形成させる。そして、投写部31は、液晶パネルに形成された画像を映し出す光を、投写レンズを通して投写する。   Specifically, the projection unit 31 includes a liquid crystal panel, a light source, and a projection lens. The projection unit 31 converts the signal of the image to be displayed into image information representing the gradation of each pixel of the liquid crystal panel for each of RGB (Red, Green, Blue), and a drive voltage corresponding to the image information. Is applied (driven) to each pixel of the liquid crystal panel. By this application, the liquid crystal panel forms light incident on the liquid crystal panel from the light source as light (modulated light) that displays an image corresponding to the image information described above. The projection unit 31 includes a reflector that reflects light emitted from the light source toward the liquid crystal panel, and causes the reflected light to be formed on the liquid crystal panel as light that displays an image corresponding to the image information described above. The projection unit 31 projects light that projects an image formed on the liquid crystal panel through a projection lens.

ここで、光源は、例えば、超高圧水銀ランプあるいはメタルハライドランプなどからなる放電型の光源ランプであるが、光源ランプに限られず、LED(Light Emitting Diode)光源あるいはレーザー光源などが用いられてもよい。液晶パネルは、例えば、一対の透明基板の間に液晶が封入された、光の三原色であるRGBそれぞれに対応した透過型の液晶パネルである。なお、液晶パネルとしては、透過型の液晶パネルに限られず、反射型の液晶パネルが用いられてもよい。また、投写部31のライトバルブとしては、液晶パネルを備える構成に代えて、DMD(Digital Mirror Device)などを備える構成が用いられてもよい。   Here, the light source is, for example, a discharge-type light source lamp including an ultra-high pressure mercury lamp or a metal halide lamp, but is not limited to a light source lamp, and an LED (Light Emitting Diode) light source or a laser light source may be used. . The liquid crystal panel is, for example, a transmissive liquid crystal panel corresponding to each of RGB, which is the three primary colors of light, in which liquid crystal is sealed between a pair of transparent substrates. The liquid crystal panel is not limited to a transmissive liquid crystal panel, and a reflective liquid crystal panel may be used. Moreover, as a light valve of the projection part 31, the structure provided with DMD (Digital Mirror Device) etc. may be used instead of the structure provided with a liquid crystal panel.

第1の可視光カメラ32、第2の可視光カメラ33および赤外カメラ34は、それぞれ、投写面12を含む領域が撮像する領域(撮像領域)となるように、設置されている。
第1の可視光カメラ32は、可視光を検出する素子を有し、可視光(可視光の画像)を撮像するカメラである。
第2の可視光カメラ33は、可視光を検出する素子を有し、可視光(可視光の画像)を撮像するカメラである。
本実施形態では、第1の可視光カメラ32および第2の可視光カメラ33により、ステレオカメラが構成されている。ステレオカメラの機能では、複数の異なる方向から同時に対象物を撮像して、その撮像結果(画像)に基づいて、三次元の情報を得ることができる。ステレオカメラの機能では、例えば、三角測量が用いられる。
なお、第1の可視光カメラ32および第2の可視光カメラ33としては、例えば、同じカメラ(同じ性能を有するカメラ)が用いられてもよく、または、異なる性能を有するカメラが用いられてもよい。
また、本実施形態では、2個の可視光カメラ(第1の可視光カメラ32および第2の可視光カメラ33)が用いられるが、3個以上の可視光カメラが用いられてもよい。
The first visible light camera 32, the second visible light camera 33, and the infrared camera 34 are installed so that the area including the projection surface 12 is an area to be imaged (imaging area).
The first visible light camera 32 has an element that detects visible light and is a camera that captures visible light (visible light image).
The second visible light camera 33 has an element that detects visible light, and is a camera that captures visible light (visible light image).
In the present embodiment, the first visible light camera 32 and the second visible light camera 33 constitute a stereo camera. With the function of the stereo camera, a target object can be imaged simultaneously from a plurality of different directions, and three-dimensional information can be obtained based on the imaging result (image). In the function of the stereo camera, for example, triangulation is used.
As the first visible light camera 32 and the second visible light camera 33, for example, the same camera (camera having the same performance) may be used, or cameras having different performance may be used. Good.
In the present embodiment, two visible light cameras (the first visible light camera 32 and the second visible light camera 33) are used, but three or more visible light cameras may be used.

赤外カメラ34は、赤外光を検出する素子を有し、赤外光(赤外光の画像)を撮像するカメラである。
なお、本実施形態では、1個の赤外カメラ(赤外カメラ34)が用いられるが、2個以上の赤外カメラが用いられてもよい。
The infrared camera 34 has an element that detects infrared light, and is a camera that captures infrared light (an infrared light image).
In the present embodiment, one infrared camera (infrared camera 34) is used, but two or more infrared cameras may be used.

ここで、本実施形態では、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像は、投写面12の画像、電子ペン13の画像、および指14の画像を含み得る。
また、本実施形態では、赤外カメラ34により撮像される画像は、電子ペン13の発光部21から送信される赤外光の画像を含み得る。
Here, in the present embodiment, the images captured by the first visible light camera 32 and the second visible light camera 33 may include an image of the projection surface 12, an image of the electronic pen 13, and an image of the finger 14. .
In the present embodiment, the image captured by the infrared camera 34 may include an infrared light image transmitted from the light emitting unit 21 of the electronic pen 13.

また、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像の座標と、投写部31により投写されて投写面12に表示される画像の座標とが、対応付けられている。この対応付けは、例えば、あらかじめキャリブレーションが行われて、記憶部36に設定される。
同様に、赤外カメラ34により撮像される画像の座標と、投写部31により投写されて投写面12に表示される画像の座標とが、対応付けられている。この対応付けは、例えば、あらかじめキャリブレーションが行われて、記憶部36に設定される。
In addition, the coordinates of the image captured by the first visible light camera 32 and the second visible light camera 33 and the coordinates of the image projected by the projection unit 31 and displayed on the projection surface 12 are associated with each other. Yes. This association is set in the storage unit 36 after being calibrated in advance, for example.
Similarly, the coordinates of the image captured by the infrared camera 34 and the coordinates of the image projected by the projection unit 31 and displayed on the projection surface 12 are associated with each other. This association is set in the storage unit 36 after being calibrated in advance, for example.

赤外通信部35は、所定の同期信号を赤外光で送信する。本実施形態では、電子ペン13が、当該同期信号を受信して、当該同期信号に同期する。これにより、プロジェクター11と電子ペン13とが同期して、赤外光を通信する。
記憶部36は、各種の情報を記憶する。本実施形態では、記憶部36は、制御部37を動作させるためのプログラム、各種のパラメーターなどの情報を記憶する。
制御部37は、各種の制御を行う。本実施形態では、制御部37は、CPU(Central Processing Unit)を有しており、記憶部36に記憶されたプログラムを実行することで各種の制御を行う。
The infrared communication unit 35 transmits a predetermined synchronization signal with infrared light. In the present embodiment, the electronic pen 13 receives the synchronization signal and synchronizes with the synchronization signal. Thereby, the projector 11 and the electronic pen 13 synchronize and communicate infrared light.
The storage unit 36 stores various types of information. In the present embodiment, the storage unit 36 stores information such as a program for operating the control unit 37 and various parameters.
The control unit 37 performs various controls. In the present embodiment, the control unit 37 has a CPU (Central Processing Unit), and performs various controls by executing a program stored in the storage unit 36.

ここで、プロジェクター11は、例えば、入力部を備えてもよい。入力部は、タッチパネルあるいはキーなどの操作部を有し、当該操作部に対してユーザーにより行われる操作に応じた情報を入力する機能、または他の装置から出力された情報を入力する機能のうちの1以上を備える。
また、プロジェクター11は、例えば、出力部を備えてもよい。出力部は、液晶ディスプレイなどの画面に情報を表示出力する機能、音声の情報を音出力する機能、または、他の装置に情報を出力する機能のうちの1以上を備える。
また、プロジェクター11は、例えば、パーソナルコンピュータ(PC:Personal Computer)などの端末装置と接続されてもよい。端末装置からプロジェクター11に表示対象の画像が入力されてもよい。プロジェクター11から端末装置に各種の情報が出力されてもよい。
なお、プロジェクター11は、リアプロジェクション(背面投射)型のプロジェクターであってもよい。
Here, the projector 11 may include an input unit, for example. The input unit has an operation unit such as a touch panel or a key. 1 or more.
The projector 11 may include an output unit, for example. The output unit includes one or more of a function for displaying information on a screen such as a liquid crystal display, a function for outputting sound information, and a function for outputting information to another device.
The projector 11 may be connected to a terminal device such as a personal computer (PC). An image to be displayed may be input from the terminal device to the projector 11. Various information may be output from the projector 11 to the terminal device.
The projector 11 may be a rear projection (rear projection) type projector.

本実施形態では、プロジェクター11の制御部37は、指示体(本実施形態では、電子ペン13および指14)による指示に従った処理を実行する機能(インタラクティブな機能)を有する。
なお、本実施形態では、このようなインタラクティブな機能をプロジェクター11の制御部37に備えたが、他の構成例として、プロジェクター11に端末装置が接続されて互いに通信する場合には、このようなインタラクティブな機能の一部または全部が端末装置に備えられてもよい。
In the present embodiment, the control unit 37 of the projector 11 has a function (interactive function) for executing processing according to an instruction from an indicator (in this embodiment, the electronic pen 13 and the finger 14).
In the present embodiment, such an interactive function is provided in the control unit 37 of the projector 11. However, as another configuration example, when a terminal device is connected to the projector 11 and communicates with each other, such an interactive function is provided. Some or all of the interactive functions may be provided in the terminal device.

続いて、第1検出部51および第2検出部52について説明する。
第1検出部51は、第1の可視光カメラ32により撮像された画像および第2の可視光カメラ33により撮像された画像に基づいて、これらの画像に含まれる物体の3次元情報を検出する。
第1検出部51は、非発光型指示体に関する検出および自発光型指示体に関する検出を行う。
Next, the first detection unit 51 and the second detection unit 52 will be described.
The first detection unit 51 detects three-dimensional information of an object included in these images based on an image captured by the first visible light camera 32 and an image captured by the second visible light camera 33. .
The 1st detection part 51 performs the detection regarding a non-light-emitting type indicator, and the detection regarding a self-light-emitting type indicator.

本実施形態では、第1検出部51は、指14の位置を検出する。また、第1検出部51は、指14の位置の時間的な変化を、指14の動作として検出する。
第1検出部51は、例えば、投写面12に対する指14の3次元的な位置を検出する。第1検出部51は、投写面12に対する指14の3次元的な位置に基づいて、投写面12に指14が接触しているか否かを検出することができる。また、第1検出部51は、投写面12に指14が接触している状態における当該指14の位置の変化(動作)を検出することができ、また、投写面12に指14が接触していない状態における当該指14の位置の変化(動作)を検出することができる。
In the present embodiment, the first detection unit 51 detects the position of the finger 14. Further, the first detection unit 51 detects a temporal change in the position of the finger 14 as an operation of the finger 14.
For example, the first detection unit 51 detects the three-dimensional position of the finger 14 with respect to the projection plane 12. The first detection unit 51 can detect whether or not the finger 14 is in contact with the projection surface 12 based on the three-dimensional position of the finger 14 with respect to the projection surface 12. Further, the first detection unit 51 can detect a change (operation) of the position of the finger 14 in a state where the finger 14 is in contact with the projection surface 12, and the finger 14 is in contact with the projection surface 12. It is possible to detect a change (motion) of the position of the finger 14 in a state where the finger 14 is not.

これにより、第1検出部51は、例えば、指14が投写面12に接触した状態で当該指14の位置が変化する動作を検出することで、指14と投写面12とが接触させられて当該指14により投写面12に描かれる文字または図形などを検出することができる。なお、文字または図形などの描画は、消しゴムの機能により文字または図形などを消去することを含んでもよい。また、第1検出部51は、例えば、投写面12に表示された任意の項目の箇所に指14が接触していない状態から接触した状態になる動作を検出することで、投写面12に表示された任意の項目が指14により指示されたことを検出することができる。また、第1検出部51は、例えば、指14が投写面12に接触せずに当該投写面12から離隔した状態で当該指14の位置が変化するホバリングの動作を検出することができる。   Thereby, for example, the first detection unit 51 detects an operation in which the position of the finger 14 changes while the finger 14 is in contact with the projection surface 12, thereby bringing the finger 14 and the projection surface 12 into contact with each other. Characters or figures drawn on the projection surface 12 can be detected by the finger 14. In addition, drawing of a character, a figure, etc. may include deleting a character, a figure, etc. by the function of an eraser. Further, the first detection unit 51 displays, for example, on the projection plane 12 by detecting an operation in which the finger 14 is not in contact with a position of an arbitrary item displayed on the projection plane 12. It is possible to detect that an arbitrary item that has been designated is instructed by the finger 14. For example, the first detection unit 51 can detect a hovering operation in which the position of the finger 14 changes in a state where the finger 14 is not in contact with the projection surface 12 and is separated from the projection surface 12.

具体例として、第1検出部51は、投写面12に表示された複数の項目を含むメニューの中から指14により特定の項目が指示されたことを検出することができる。
また、第1検出部51は、投写面12に表示された特定の図形(項目の一例)が指14により指示されたことを検出することができる。特定の図形としては、例えば、マトリックス型2次元コードであるQRコード(登録商標)が用いられてもよい。
また、第1検出部51は、投写面12に表示された特定の部分が指14により指示された場合に、当該特定の部分の色を検出し、当該色の指定を受け付けることができる。この場合、第1検出部51は、例えば、第1の可視光カメラ32により撮像された画像および第2の可視光カメラ33により撮像された画像のうちの一方または両方に基づいて、特定の部分の色を検出してもよい。また、例えば、第1検出部51は、指14の所定の動作(例えば、項目の指示)に応じて色の指定を受け付けるモードと他のモードとの切り替えを行い、色の指定を受け付けるモードであるとき(のみ)に色の指定を受け付けてもよい。
As a specific example, the first detection unit 51 can detect that a specific item is instructed by the finger 14 from a menu including a plurality of items displayed on the projection surface 12.
Further, the first detection unit 51 can detect that a specific figure (an example of an item) displayed on the projection plane 12 is instructed by the finger 14. As the specific figure, for example, a QR code (registered trademark) which is a matrix type two-dimensional code may be used.
In addition, when a specific part displayed on the projection plane 12 is instructed by the finger 14, the first detection unit 51 can detect the color of the specific part and accept the designation of the color. In this case, for example, the first detection unit 51 may select a specific part based on one or both of an image captured by the first visible light camera 32 and an image captured by the second visible light camera 33. The color may be detected. In addition, for example, the first detection unit 51 performs switching between a mode for accepting color designation and another mode in accordance with a predetermined operation of the finger 14 (for example, an instruction for an item), and a mode for accepting color designation. Color designation may be accepted at some (only) time.

ここで、指14により指示する対象は、例えば、投写面12に表示された画像の一部以外であってもよい。当該対象は、第1の可視光カメラ32および第2の可視光カメラ33により撮像される任意の物体(ここでは、投写面12以外の物体)の一部であってもよい。具体例として、色の指定が行われる場合に、当該対象は、人間の服の一部、または、人間の腕などに取り付けられたパレット(複数色の色見本)における該当する色の部分などであってもよい。   Here, the target pointed by the finger 14 may be other than a part of the image displayed on the projection surface 12, for example. The target may be a part of an arbitrary object (here, an object other than the projection surface 12) imaged by the first visible light camera 32 and the second visible light camera 33. As a specific example, when a color is specified, the target is a part of human clothes or a corresponding color part in a palette (multiple color swatches) attached to a human arm or the like. There may be.

本実施形態では、第1検出部51は、電子ペン13の位置を検出することもできる。また、第1検出部51は、電子ペン13の位置の時間的な変化を、電子ペン13の動作として検出することもできる。
第1検出部51は、例えば、投写面12に対する電子ペン13の3次元的な位置を検出する。
これにより、本実施形態では、電子ペン13についても、指14の場合と同様な位置および動作(例えば、ホバリングなどの動作)を検出することが可能である。
In the present embodiment, the first detection unit 51 can also detect the position of the electronic pen 13. The first detection unit 51 can also detect a temporal change in the position of the electronic pen 13 as an operation of the electronic pen 13.
For example, the first detection unit 51 detects the three-dimensional position of the electronic pen 13 with respect to the projection plane 12.
Thereby, in the present embodiment, it is possible to detect the same position and motion (for example, motion such as hovering) as that of the finger 14 for the electronic pen 13.

但し、本実施形態では、指14が投写面12に接触しているか否か(押圧操作されているか否か)については、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像に基づいて第1検出部51により検出(判定)するのに対して、電子ペン13の先が投写面12に接触しているか否か(押圧操作されているか否か)については、赤外カメラ34により撮像される画像に基づいて第2検出部52により検出(判定)する。   However, in the present embodiment, whether or not the finger 14 is in contact with the projection surface 12 (whether or not a pressing operation is performed) is captured by the first visible light camera 32 and the second visible light camera 33. In contrast to the detection (determination) by the first detection unit 51 based on the image to be detected, whether the tip of the electronic pen 13 is in contact with the projection surface 12 (whether the pressing operation is performed) is red. Detection (determination) is performed by the second detection unit 52 based on an image captured by the outer camera 34.

ここで、本実施形態では、電子ペン13の押圧操作の検出については、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像に基づいて検出する精度よりも、赤外カメラ34により撮像される画像に基づいて検出する精度の方が良いことを想定している。本実施形態では、この理由の一つとして、電子ペン13から赤外光を送信することで、赤外カメラ34により撮像される画像に含まれる当該赤外光の画像の輝度を高くすることが可能であることを想定している。このため、本実施形態では、赤外カメラ34により撮像される画像に基づいて電子ペン13の押圧操作を検出する構成を採用して、その検出の精度を良くしている。本実施形態では、例えば、指14の動作と比べて、電子ペン13の動作によって、より細かな精度の良い描画あるいは指示などが可能である構成を想定している。
なお、他の構成例として、第1検出部51は、電子ペン13の押圧操作についても、指14の押圧操作と同様に、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像に基づいて検出してもよい。
Here, in this embodiment, the detection of the pressing operation of the electronic pen 13 is more infrared than the accuracy of detection based on the images picked up by the first visible light camera 32 and the second visible light camera 33. It is assumed that the accuracy of detection based on the image captured by the camera 34 is better. In the present embodiment, one reason for this is to increase the brightness of the infrared light image included in the image captured by the infrared camera 34 by transmitting infrared light from the electronic pen 13. It is assumed that it is possible. For this reason, in this embodiment, the structure which detects the pressing operation of the electronic pen 13 based on the image imaged with the infrared camera 34 is employ | adopted, and the precision of the detection is improved. In the present embodiment, for example, it is assumed that a finer or more accurate drawing or instruction can be performed by the operation of the electronic pen 13 compared to the operation of the finger 14.
As another configuration example, the first detection unit 51 captures an image of the pressing operation of the electronic pen 13 by the first visible light camera 32 and the second visible light camera 33 similarly to the pressing operation of the finger 14. You may detect based on the image to be performed.

また、第1検出部51は、パターンマッチングの方法を用いて、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像に含まれる指14の画像を検出してもよく、また、当該指14の画像を追従してもよい。
また、第1検出部51は、パターンマッチングの方法を用いて、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像に含まれる電子ペン13の画像を検出してもよく、また、当該電子ペン13の画像を追従してもよい。
また、第1検出部51は、パターンマッチングの方法を用いて、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像に含まれる電子ペン13の画像と、画像に含まれる指14の画像と、を識別(特定)してもよい。
The first detection unit 51 may detect an image of the finger 14 included in images captured by the first visible light camera 32 and the second visible light camera 33 using a pattern matching method. Further, the image of the finger 14 may be followed.
Further, the first detection unit 51 may detect an image of the electronic pen 13 included in images captured by the first visible light camera 32 and the second visible light camera 33 using a pattern matching method. Alternatively, the image of the electronic pen 13 may be followed.
Moreover, the 1st detection part 51 is contained in the image of the electronic pen 13 contained in the image imaged with the 1st visible light camera 32 and the 2nd visible light camera 33 using the pattern matching method, and an image. The image of the finger 14 may be identified (specified).

また、第1検出部51は、第1の可視光カメラ32および第2の可視光カメラ33により撮像される画像に含まれる物体の画像の色を検出し、当該色に基づいて、当該物体に関する情報を検出してもよい。例えば、第1検出部51は、物体の画像の色に基づいて、当該物体が指14であること、または、当該物体が電子ペン13であること、を検出(判定)することが可能である。   Further, the first detection unit 51 detects the color of the image of the object included in the images captured by the first visible light camera 32 and the second visible light camera 33, and relates to the object based on the color. Information may be detected. For example, the first detection unit 51 can detect (determine) that the object is the finger 14 or the electronic pen 13 based on the color of the image of the object. .

第2検出部52は、赤外カメラ34により撮像された画像に基づいて、当該画像に含まれる赤外光の情報を検出する。
第2検出部52は、自発光型指示体に関する検出を行う。
本実施形態では、電子ペン13(自発光型指示体の一例)から送信される赤外光の位置を、当該電子ペン13の位置とみなす。なお、他の構成例として、パターンマッチングなどにより電子ペン13の全体の画像を検出する場合には、電子ペン13から送信される赤外光以外の位置を当該電子ペン13の位置とみなしてもよい。また、この場合、電子ペン13の位置とともに、当該電子ペン13の姿勢を検出などしてもよい。
The second detection unit 52 detects information on infrared light included in the image based on the image captured by the infrared camera 34.
The 2nd detection part 52 performs the detection regarding a self-light-emitting indicator.
In the present embodiment, the position of infrared light transmitted from the electronic pen 13 (an example of a self-luminous indicator) is regarded as the position of the electronic pen 13. As another configuration example, when the entire image of the electronic pen 13 is detected by pattern matching or the like, a position other than the infrared light transmitted from the electronic pen 13 is regarded as the position of the electronic pen 13. Good. In this case, the position of the electronic pen 13 may be detected together with the position of the electronic pen 13.

本実施形態では、第2検出部52は、電子ペン13の位置を検出する。また、第2検出部52は、電子ペン13の位置の時間的な変化を、電子ペン13の動作として検出する。また、本実施形態では、第2検出部52は、電子ペン13から周期的なタイミングで送信される赤外光を受信して、当該赤外光に基づいて電子ペン13の位置あるいは動作を検出し、また、当該赤外光の発光パターンに基づいて、電子ペン13が押圧操作されているか否かを検出する。   In the present embodiment, the second detection unit 52 detects the position of the electronic pen 13. The second detection unit 52 detects a temporal change in the position of the electronic pen 13 as an operation of the electronic pen 13. In the present embodiment, the second detector 52 receives infrared light transmitted from the electronic pen 13 at periodic timing, and detects the position or operation of the electronic pen 13 based on the infrared light. In addition, it is detected whether or not the electronic pen 13 is pressed based on the infrared light emission pattern.

第2検出部52は、投写面12に電子ペン13の先が接触しているか否か(押圧操作されているか否か)を検出(判定)することができる。本実施形態では、第2検出部52は、赤外カメラ34により順次撮像された複数の画像に、電子ペン13の発光部21から送信された所定の発光パターン(押圧操作に対応した発光パターン)の赤外光の画像が含まれる場合には、電子ペン13が投写面12に押圧操作されているとみなして検出する。また、第2検出部52は、投写面12に電子ペン13の先が接触している状態における当該電子ペン13の位置の変化(動作)を検出することができる。   The second detection unit 52 can detect (determine) whether or not the tip of the electronic pen 13 is in contact with the projection surface 12 (whether or not a pressing operation is performed). In the present embodiment, the second detection unit 52 has a predetermined light emission pattern (light emission pattern corresponding to the pressing operation) transmitted from the light emitting unit 21 of the electronic pen 13 to a plurality of images sequentially captured by the infrared camera 34. If the image of infrared light is included, the electronic pen 13 is detected as being pressed on the projection surface 12. The second detection unit 52 can detect a change (operation) of the position of the electronic pen 13 in a state where the tip of the electronic pen 13 is in contact with the projection surface 12.

これにより、第2検出部52は、例えば、電子ペン13の先が投写面12に接触した状態で当該電子ペン13の位置が変化する動作を検出することで、電子ペン13と投写面12とが接触させられて当該電子ペン13により投写面12に描かれる文字または図形などを検出することができる。なお、文字または図形などの描画は、消しゴムの機能により文字または図形などを消去することを含んでもよい。また、第2検出部52は、例えば、投写面12に表示された任意の項目の箇所に電子ペン13の先が接触していない状態から接触した状態になる動作を検出することで、投写面12に表示された任意の項目が電子ペン13により指示されたことを検出することができる。   Accordingly, the second detection unit 52 detects, for example, an operation in which the position of the electronic pen 13 changes in a state where the tip of the electronic pen 13 is in contact with the projection surface 12, so that the electronic pen 13, the projection surface 12, and the like are detected. A character or a figure drawn on the projection plane 12 by the electronic pen 13 can be detected. In addition, drawing of a character, a figure, etc. may include deleting a character, a figure, etc. by the function of an eraser. In addition, the second detection unit 52 detects, for example, an operation that changes from a state in which the tip of the electronic pen 13 is not in contact with a position of an arbitrary item displayed on the projection surface 12 to thereby change the projection surface. It is possible to detect that any item displayed on the screen 12 is instructed by the electronic pen 13.

具体例として、第2検出部52は、投写面12に表示された複数の項目を含むメニューの中から電子ペン13により特定の項目が指示されたことを検出することができる。
また、第2検出部52は、投写面12に表示された特定の図形(項目の一例)が電子ペン13により指示されたことを検出することができる。特定の図形としては、例えば、マトリックス型2次元コードであるQRコード(登録商標)が用いられてもよい。
As a specific example, the second detection unit 52 can detect that a specific item is instructed by the electronic pen 13 from a menu including a plurality of items displayed on the projection surface 12.
In addition, the second detection unit 52 can detect that a specific figure (an example of an item) displayed on the projection surface 12 is instructed by the electronic pen 13. As the specific figure, for example, a QR code (registered trademark) which is a matrix type two-dimensional code may be used.

ここで、電子ペン13により指示する対象は、例えば、投写面12に表示された画像の一部以外であってもよい。当該対象は、第1の可視光カメラ32および第2の可視光カメラ33により撮像される任意の物体(ここでは、投写面12以外の物体)の一部であってもよい。具体例として、色の指定が行われる場合に、当該対象は、人間の服の一部、または、人間の腕などに取り付けられたパレットにおける該当する色の部分などであってもよい。本実施形態では、電子ペン13は、当該電子ペン13の先が投写面12以外の物体に接触した場合にも、発光部21から押圧操作に対応した赤外光を送信する。これにより、第2検出部52は、電子ペン13の先が任意の物体に接触して押圧操作されたことを検出することができる。   Here, the target to be instructed by the electronic pen 13 may be other than a part of the image displayed on the projection surface 12, for example. The target may be a part of an arbitrary object (here, an object other than the projection surface 12) imaged by the first visible light camera 32 and the second visible light camera 33. As a specific example, when a color is designated, the target may be a part of human clothes or a corresponding color part in a pallet attached to a human arm or the like. In the present embodiment, the electronic pen 13 transmits infrared light corresponding to the pressing operation from the light emitting unit 21 even when the tip of the electronic pen 13 contacts an object other than the projection surface 12. Thereby, the 2nd detection part 52 can detect that the tip of the electronic pen 13 contacted arbitrary objects, and was pressed.

また、第2検出部52は、例えば、電子ペン13に所定のボタンなどの操作部が備えられ、当該操作部の操作に応じて所定の発光パターンの赤外光が当該電子ペン13から送信される場合に、当該赤外光が受信されたことを検出したことに応じて、所定の操作が行われたことを検出してもよい。当該所定の操作の内容としては、例えば、色の指定を受け付けるモードと他のモードとの切り替えが用いられてもよい。   The second detection unit 52 includes, for example, an operation unit such as a predetermined button on the electronic pen 13, and infrared light having a predetermined light emission pattern is transmitted from the electronic pen 13 according to the operation of the operation unit. In this case, it may be detected that a predetermined operation has been performed in response to detecting that the infrared light has been received. As the content of the predetermined operation, for example, switching between a mode for accepting a color designation and another mode may be used.

本実施形態では、第1検出部51および第2検出部52は、それぞれの検出結果を組み合わせた情報に基づいて、電子ペン13または指14に関する情報を検出してもよい。例えば、第1検出部51により検出される物体ごとに、第2検出部52により当該物体から赤外光が送信されるか否かを検出(判定)し、この結果に基づいて、それぞれの物体が、発光する物体(自発光型の物体)であるか、または、発光しない物体(非発光型の物体)であるかを検出(判定)することができる。
本実施形態では、第1検出部51により電子ペン13を検出した後には、当該電子ペン13からの赤外光が第2検出部52により検出されなくても、第1検出部51により当該電子ペン13の位置および動作(例えば、ホバリングなどの動作)を検出することが可能である。この場合、電子ペン13から赤外光を送信する周期的なタイミング(一定の時間間隔のタイミング)は、長い周期のタイミングであってもよい。また、この場合、他の構成例として、電子ペン13が押圧操作されていない場合には当該電子ペン13が赤外光を送信しない構成が用いられてもよい。
In this embodiment, the 1st detection part 51 and the 2nd detection part 52 may detect the information regarding the electronic pen 13 or the finger | toe 14 based on the information which combined each detection result. For example, for each object detected by the first detection unit 51, the second detection unit 52 detects (determines) whether infrared light is transmitted from the object, and based on this result, each object is detected. Can be detected (determined) whether it is an object that emits light (self-luminous object) or an object that does not emit light (non-luminous object).
In the present embodiment, after the electronic pen 13 is detected by the first detection unit 51, the first detection unit 51 detects the electronic pen 13 even if infrared light from the electronic pen 13 is not detected by the second detection unit 52. It is possible to detect the position and movement of the pen 13 (for example, movement such as hovering). In this case, the periodic timing (timing at a constant time interval) for transmitting infrared light from the electronic pen 13 may be a long-period timing. In this case, as another configuration example, when the electronic pen 13 is not pressed, a configuration in which the electronic pen 13 does not transmit infrared light may be used.

制御部37は、第1検出部51および第2検出部52の一方または両方の検出結果に基づいて、当該検出結果に対応する処理を実行する。
制御部37は、例えば、電子ペン13または指14により投写面12に描かれた文字または図形などを表示対象の画像に重畳させ、これにより、表示対象の画像の上に当該文字または当該図形などが描かれた画像を投写部31により投写面12に投写させることができる。また、制御部37は、例えば、表示対象の画像に重畳させられるなどして投写面12に表示されたメニュー(メニューの画像)の中から、電子ペン13または指14により任意の項目(項目の画像)が指示された場合に、当該項目に対応する処理を実行することができる。また、制御部37は、例えば、電子ペン13または指14により特定の図形が指示された場合に、当該図形に対応する処理を実行することができる。また、制御部37は、例えば、電子ペン13または指14により特定の色が指示(指定)された場合に、当該色に対応する処理を実行することができる。当該色に対応する処理としては、例えば、文字または図形の描画などで当該色を使用する処理が用いられてもよい。なお、制御部37は、指示体の型(非発光型、または、自発光型)に応じて、色の指定を受け付けてもよい。また、制御部37は、指示体の色に応じて、当該色の指定を受け付けてもよい。
The control unit 37 executes processing corresponding to the detection result based on the detection result of one or both of the first detection unit 51 and the second detection unit 52.
For example, the control unit 37 superimposes a character or a graphic drawn on the projection surface 12 by the electronic pen 13 or the finger 14 on the display target image, and thereby the character or the graphic is displayed on the display target image. Can be projected onto the projection plane 12 by the projection unit 31. In addition, the control unit 37 can select an arbitrary item (item of the item) from the menu (menu image) displayed on the projection surface 12 by being superimposed on the image to be displayed by the electronic pen 13 or the finger 14. When an (image) is instructed, processing corresponding to the item can be executed. In addition, for example, when a specific graphic is instructed by the electronic pen 13 or the finger 14, the control unit 37 can execute processing corresponding to the graphic. Further, for example, when a specific color is instructed (designated) by the electronic pen 13 or the finger 14, the control unit 37 can execute processing corresponding to the color. As a process corresponding to the color, for example, a process using the color for drawing a character or a graphic may be used. Note that the control unit 37 may accept a color designation according to the type of the indicator (non-light-emitting type or self-light-emitting type). Further, the control unit 37 may accept designation of the color according to the color of the indicator.

以上のように、本実施形態に係るプロジェクター11では、赤外光を発する指示体(本実施形態では、電子ペン13)および自ら光を発しない指示体(本実施形態では、指14)の両方について検出を行うことができる。
例えば、赤外カメラ34を使用せずに、可視光カメラ(本実施形態では、第1の可視光カメラ32および第2の可視光カメラ33)のみを使用する構成では、赤外光を検出することができず、高精度に描画が可能な電子ペン13を使用することができなくなる。これに対して、本実施形態に係るプロジェクター11では、赤外カメラ34を使用することで、指示体として電子ペン13を使用することを可能としている。
As described above, in the projector 11 according to the present embodiment, both the indicator that emits infrared light (in this embodiment, the electronic pen 13) and the indicator that does not emit light itself (in this embodiment, the finger 14). Can be detected.
For example, in the configuration using only the visible light camera (in the present embodiment, the first visible light camera 32 and the second visible light camera 33) without using the infrared camera 34, the infrared light is detected. Therefore, the electronic pen 13 capable of drawing with high accuracy cannot be used. On the other hand, in the projector 11 according to the present embodiment, the electronic pen 13 can be used as the indicator by using the infrared camera 34.

また、例えば、指示体として指14を使用することを可能とするために、赤外光を照射するライトカーテン装置を設置する場合には、その機材(ライトカーテン装置)が必要になり、その機材の設置スペースが必要になり、その機材による消費電力がかかる。これに対して、本実施形態に係るプロジェクター11では、可視光カメラ(本実施形態では、第1の可視光カメラ32および第2の可視光カメラ33)を使用することで、ライトカーテン装置を設置しなくても、指示体として指14を使用することが可能である。このため、本実施形態では、ライトカーテン装置を設置する場合に生じる設置スペースなどの制限をなくすことが可能であり、ライトカーテン装置に要する電力を省電力化することが可能である。但し、本実施形態に係るインタラクティブシステム1において、ライトカーテン装置が設置されて使用されてもよい。   Further, for example, in order to install a light curtain device that irradiates infrared light so that the finger 14 can be used as an indicator, the equipment (light curtain device) is required. Installation space is required, and the power consumed by the equipment is required. On the other hand, in the projector 11 according to the present embodiment, a light curtain device is installed by using a visible light camera (in the present embodiment, the first visible light camera 32 and the second visible light camera 33). Even if it does not do, it is possible to use the finger 14 as an indicator. For this reason, in this embodiment, it is possible to eliminate the limitation of the installation space etc. which arises when installing the light curtain device, and it is possible to save the power required for the light curtain device. However, in the interactive system 1 according to the present embodiment, a light curtain device may be installed and used.

また、本実施形態に係るプロジェクター11では、可視光カメラ(本実施形態では、第1の可視光カメラ32および第2の可視光カメラ33)により撮像される画像に基づいて、電子ペン13の態様(例えば、形状、色あるいは模様など)を検出して、当該電子ペン13の位置の変化を検出することで、当該電子ペン13のホバリングなどの動作を検出することが可能である。この場合、電子ペン13のホバリングなどの動作中に、当該電子ペン13から赤外線を送信しなくても、プロジェクター11は当該動作を検出することが可能である。このため、このような動作における電子ペン13からの赤外線の送信の頻度を少なくすること、または、当該送信をなくすことで、電子ペン13の消費電力を低減し、電子ペン13の電池の寿命を大幅に延ばすことが可能である。   In the projector 11 according to the present embodiment, the aspect of the electronic pen 13 is based on an image captured by the visible light camera (in the present embodiment, the first visible light camera 32 and the second visible light camera 33). By detecting a change in the position of the electronic pen 13 by detecting (for example, a shape, a color, or a pattern), it is possible to detect an operation such as hovering of the electronic pen 13. In this case, the projector 11 can detect the operation without transmitting infrared rays from the electronic pen 13 during an operation such as hovering of the electronic pen 13. For this reason, by reducing the frequency of infrared transmission from the electronic pen 13 in such an operation or by eliminating the transmission, the power consumption of the electronic pen 13 is reduced and the battery life of the electronic pen 13 is reduced. It can be extended significantly.

このように、本実施形態に係るプロジェクター11では、可視光のステレオカメラ(本実施形態では、第1の可視光カメラ32および第2の可視光カメラ33)と赤外カメラ34による複合的な検出を行うことで、指14による操作と電子ペン13による操作を両立させることができ、省電力化を図ることができる。   As described above, in the projector 11 according to the present embodiment, combined detection by the visible light stereo camera (in the present embodiment, the first visible light camera 32 and the second visible light camera 33) and the infrared camera 34 is performed. By performing the above, it is possible to make both the operation with the finger 14 and the operation with the electronic pen 13 compatible, and power saving can be achieved.

一構成例として、プロジェクター11では、投写面に画像を投写する投写部31と、投写面12を含む領域を撮像領域とし、可視光を撮像する第1の撮像部(本実施形態では、第1の可視光カメラ32)および第2の撮像部(本実施形態では、第2の可視光カメラ33)と、投写面12を含む領域を撮像領域とし、赤外光を撮像する第3の撮像部(本実施形態では、赤外カメラ34)と、第1の撮像部および第2の撮像部による撮像結果に基づいて、非発光型指示体(本実施形態では、指14)の位置を検出する第1検出部51と、第3の撮像部による撮像結果に基づいて、赤外光を発する発光部21を有する自発光型指示体(本実施形態では、電子ペン13)の位置を検出する第2検出部52と、を備える。
一構成例として、検出方法(本実施形態では、プロジェクター11において行われる検出方法)では、プロジェクター11において、投写面12に画像を投写し、第1の撮像部および第2の撮像部が、投写面12を含む領域を撮像領域とし、可視光を撮像し、第3の撮像部が、投写面12を含む領域を撮像領域とし、赤外光を撮像し、第1の撮像部および第2の撮像部による撮像結果に基づいて、非発光型指示体の位置を検出し、第3の撮像部による撮像結果に基づいて、赤外光を発する発光部を有する自発光型指示体の位置を検出する。
As an example of the configuration, in the projector 11, a projection unit 31 that projects an image on a projection surface, and a first imaging unit that captures visible light using an area including the projection surface 12 as an imaging region (in the present embodiment, a first imaging unit). Of the visible light camera 32) and the second imaging unit (in this embodiment, the second visible light camera 33), and a third imaging unit that images infrared light using the region including the projection surface 12 as an imaging region. (In the present embodiment, the position of the non-luminous indicator (in this embodiment, the finger 14) is detected based on the imaging results of the infrared camera 34) and the first imaging unit and the second imaging unit. Based on the imaging results of the first detection unit 51 and the third imaging unit, the position of a self-luminous indicator (in this embodiment, the electronic pen 13) having a light emitting unit 21 that emits infrared light is detected. 2 detection unit 52.
As one configuration example, in the detection method (in this embodiment, the detection method performed in the projector 11), the projector 11 projects an image on the projection surface 12, and the first imaging unit and the second imaging unit project the image. The area including the surface 12 is defined as an imaging area, and visible light is imaged. The third imaging unit defines the area including the projection surface 12 as an imaging area, images infrared light, and includes the first imaging unit and the second imaging unit. Based on the imaging result by the imaging unit, the position of the non-luminous indicator is detected, and based on the imaging result by the third imaging unit, the position of the self-luminous indicator having a light emitting unit that emits infrared light is detected. To do.

一構成例として、プロジェクター11では、第1の撮像部による撮像結果および第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、非発光型指示体または自発光型指示体で指示された部分の色を検出する色検出部をさらに備えてもよい。当該色検出部は、例えば、制御部37に備えられてもよい。
一構成例として、プロジェクター11では、第1の撮像部による撮像結果および第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、非発光型指示体または自発光型指示体で指示された部分の図形を検出する図形検出部をさらに備えてもよい。当該図形検出部は、例えば、制御部37に備えられてもよい。
一構成例として、プロジェクター11では、第1の撮像部による撮像結果および第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、自発光型指示体の態様を検出する態様検出部をさらに備えてもよい。当該態様検出部は、例えば、制御部37に備えられてもよい。
As an example of the configuration, the projector 11 is instructed by a non-luminous indicator or a self-luminous indicator based on at least one of an imaging result by the first imaging unit and an imaging result by the second imaging unit. You may further provide the color detection part which detects the color of a part. The color detection unit may be provided in the control unit 37, for example.
As an example of the configuration, the projector 11 is instructed by a non-luminous indicator or a self-luminous indicator based on at least one of an imaging result by the first imaging unit and an imaging result by the second imaging unit. You may further provide the figure detection part which detects the figure of a part. The graphic detection unit may be provided in the control unit 37, for example.
As an example of the configuration, the projector 11 further includes an aspect detection unit that detects an aspect of the self-luminous indicator based on at least one of the imaging result by the first imaging unit and the imaging result by the second imaging unit. You may prepare. The aspect detection unit may be provided in the control unit 37, for example.

(第2実施形態)
図2は、本発明の一実施形態(第2実施形態)に係るインタラクティブシステム101の概略的な構成例を示す図である。
インタラクティブシステム101は、プロジェクター111と、投写面12と、電子ペン13を備える。電子ペン13は発光部21を有する。また、図2には、人間の指14を示してある。
ここで、投写面12と、発光部21を有する電子ペン13と、人間の指14は、それぞれ、図1に示されるものと同じであり、同じ符号を付してある。
(Second Embodiment)
FIG. 2 is a diagram illustrating a schematic configuration example of the interactive system 101 according to an embodiment (second embodiment) of the present invention.
The interactive system 101 includes a projector 111, a projection surface 12, and an electronic pen 13. The electronic pen 13 has a light emitting unit 21. FIG. 2 also shows a human finger 14.
Here, the projection surface 12, the electronic pen 13 having the light emitting unit 21, and the human finger 14 are the same as those shown in FIG.

プロジェクター111について説明する。
プロジェクター111は、投写部131と、可視光カメラ132と、可視光/赤外カメラ133と、赤外通信部134と、記憶部135と、制御部136を備える。制御部136は、第1検出部151と、第2検出部152を備える。
ここで、本実施形態では、投写部131、赤外通信部134、記憶部135、および制御部136の概略(各種の制御を行う点)は、それぞれ、図1に示される投写部31、赤外通信部35、記憶部36、および制御部37の概略(各種の制御を行う点)と同様である。
The projector 111 will be described.
The projector 111 includes a projection unit 131, a visible light camera 132, a visible light / infrared camera 133, an infrared communication unit 134, a storage unit 135, and a control unit 136. The control unit 136 includes a first detection unit 151 and a second detection unit 152.
Here, in the present embodiment, the outline of the projection unit 131, the infrared communication unit 134, the storage unit 135, and the control unit 136 (points for performing various controls) are respectively the projection unit 31 and the red unit illustrated in FIG. This is the same as the outline of the external communication unit 35, the storage unit 36, and the control unit 37 (points where various controls are performed).

可視光カメラ132および可視光/赤外カメラ133は、それぞれ、投写面12を含む領域が撮像する領域(撮像領域)となるように、設置されている。
可視光カメラ132は、図1に示される第1の可視光カメラ32と同様な機能を有する。
可視光/赤外カメラ133は、可視光カメラの機能と赤外カメラの機能とを切り替えることが可能なカメラである。本実施形態では、可視光/赤外カメラ133は、可視光カメラと、所定のフィルタ(例えば、可視光を遮断して赤外光を通過させるフィルタ)を備え、当該フィルタが当該可視光カメラから外されている状態では可視光カメラの機能を有し、当該フィルタが当該可視光カメラに当てられている状態では赤外カメラの機能を有する。本実施形態では、制御部136が、可視光/赤外カメラ133の当該フィルタの状態を切り替える制御を行う。
The visible light camera 132 and the visible light / infrared camera 133 are installed so that the area including the projection plane 12 is an area to be imaged (imaging area).
The visible light camera 132 has a function similar to that of the first visible light camera 32 shown in FIG.
The visible light / infrared camera 133 is a camera capable of switching between a visible light camera function and an infrared camera function. In this embodiment, the visible light / infrared camera 133 includes a visible light camera and a predetermined filter (for example, a filter that blocks visible light and allows infrared light to pass). When it is removed, it has a function of a visible light camera, and when the filter is applied to the visible light camera, it has a function of an infrared camera. In the present embodiment, the control unit 136 performs control to switch the state of the filter of the visible light / infrared camera 133.

ここで、可視光/赤外カメラ133が可視光カメラの機能を有する状態では、当該可視光/赤外カメラ133は、図1に示される第2の可視光カメラ33と同様な役割をする。この状態で、第1検出部151は、可視光カメラ132により撮像された画像および可視光/赤外カメラ133(可視光カメラの機能)により撮像された画像に基づいて、図1に示される第1検出部51と同様な検出を行う。   Here, in a state where the visible light / infrared camera 133 has a function of a visible light camera, the visible light / infrared camera 133 plays the same role as the second visible light camera 33 shown in FIG. In this state, the first detection unit 151 is based on the image captured by the visible light camera 132 and the image captured by the visible light / infrared camera 133 (the function of the visible light camera). The same detection as that of the first detection unit 51 is performed.

また、可視光/赤外カメラ133が赤外カメラの機能を有する状態では、当該可視光/赤外カメラ133は、図1に示される赤外カメラ34と同様な役割をする。この状態で、第2検出部152は、可視光/赤外カメラ133(赤外カメラの機能)により撮像された画像に基づいて、図1に示される第2検出部52と同様な検出を行う。   In the state where the visible light / infrared camera 133 has the function of an infrared camera, the visible light / infrared camera 133 plays the same role as the infrared camera 34 shown in FIG. In this state, the second detection unit 152 performs the same detection as the second detection unit 52 shown in FIG. 1 based on the image captured by the visible light / infrared camera 133 (infrared camera function). .

以上のように、本実施形態に係るプロジェクター111では、図1に示されるプロジェクター11と同様な効果を得ることができる。
また、本実施形態に係るプロジェクター111では、可視光/赤外カメラ133を使用するため、例えば、可視光カメラと赤外カメラを別々に備える場合と比べて、カメラの数を少なくして、プロジェクターの小型化を図ることが可能である。
As described above, the projector 111 according to the present embodiment can obtain the same effects as those of the projector 11 shown in FIG.
Further, since the projector 111 according to the present embodiment uses the visible light / infrared camera 133, for example, the number of cameras is reduced compared to the case where the visible light camera and the infrared camera are separately provided, and the projector It is possible to reduce the size.

一構成例として、プロジェクター111では、第1の撮像部(可視光を撮像する撮像部)および第2の撮像部(可視光を撮像する撮像部)のうちの少なくとも一方(本実施形態では、一方のみ)は、可視光を撮像する機能および赤外光を撮像する機能を切り替えることが可能な撮像部(本実施形態では、可視光/赤外カメラ133)であり、第3の撮像部(赤外光を撮像する撮像部)も構成する。   As an example of the configuration, in the projector 111, at least one of the first imaging unit (imaging unit that captures visible light) and the second imaging unit (imaging unit that captures visible light) (one in the present embodiment) Only) is an imaging unit (in this embodiment, visible light / infrared camera 133) that can switch between a function for imaging visible light and a function for imaging infrared light, and a third imaging unit (red). An imaging unit that images external light is also configured.

(第3実施形態)
図3は、本発明の一実施形態(第3実施形態)に係るインタラクティブシステム201の概略的な構成例を示す図である。
インタラクティブシステム201は、プロジェクター211と、投写面12と、電子ペン13を備える。電子ペン13は発光部21を有する。また、図3には、人間の指14を示してある。
ここで、投写面12と、発光部21を有する電子ペン13と、人間の指14は、それぞれ、図1に示されるものと同じであり、同じ符号を付してある。
(Third embodiment)
FIG. 3 is a diagram illustrating a schematic configuration example of an interactive system 201 according to an embodiment (third embodiment) of the present invention.
The interactive system 201 includes a projector 211, a projection surface 12, and an electronic pen 13. The electronic pen 13 has a light emitting unit 21. FIG. 3 also shows a human finger 14.
Here, the projection surface 12, the electronic pen 13 having the light emitting unit 21, and the human finger 14 are the same as those shown in FIG.

プロジェクター211について説明する。
プロジェクター211は、投写部231と、第1の可視光/赤外カメラ232と、第2の可視光/赤外カメラ233と、赤外通信部234と、記憶部235と、制御部236を備える。制御部236は、第1検出部251と、第2検出部252を備える。
ここで、本実施形態では、投写部231、赤外通信部234、記憶部235、および制御部236の概略(各種の制御を行う点)は、それぞれ、図1に示される投写部31、赤外通信部35、記憶部36、および制御部37の概略(各種の制御を行う点)と同様である。
The projector 211 will be described.
The projector 211 includes a projection unit 231, a first visible light / infrared camera 232, a second visible light / infrared camera 233, an infrared communication unit 234, a storage unit 235, and a control unit 236. . The control unit 236 includes a first detection unit 251 and a second detection unit 252.
Here, in the present embodiment, the outline of the projection unit 231, the infrared communication unit 234, the storage unit 235, and the control unit 236 (points where various controls are performed) are the projection unit 31 and red shown in FIG. This is the same as the outline of the external communication unit 35, the storage unit 36, and the control unit 37 (points where various controls are performed).

第1の可視光/赤外カメラ232および第2の可視光/赤外カメラ233は、それぞれ、投写面12を含む領域が撮像する領域(撮像領域)となるように、設置されている。
第1の可視光/赤外カメラ232は、可視光カメラの機能と赤外カメラの機能とを切り替えることが可能なカメラである。本実施形態では、制御部236が、第1の可視光/赤外カメラ232の状態(可視光カメラの機能を有する状態と、赤外カメラの機能を有する状態)を切り替える制御を行う。
同様に、第2の可視光/赤外カメラ233は、可視光カメラの機能と赤外カメラの機能とを切り替えることが可能なカメラである。本実施形態では、制御部236が、第2の可視光/赤外カメラ233の状態(可視光カメラの機能を有する状態と、赤外カメラの機能を有する状態)を切り替える制御を行う。
なお、それぞれの可視光/赤外カメラ232、233の状態を切り替える構成としては、例えば、図2に示される可視光/赤外カメラ133の状態を切り替える構成と同様である。
The first visible light / infrared camera 232 and the second visible light / infrared camera 233 are installed so that the area including the projection plane 12 is an area to be imaged (imaging area).
The first visible light / infrared camera 232 is a camera capable of switching between a visible light camera function and an infrared camera function. In the present embodiment, the control unit 236 performs control to switch the state of the first visible light / infrared camera 232 (a state having a visible light camera function and a state having an infrared camera function).
Similarly, the second visible light / infrared camera 233 is a camera capable of switching between a visible light camera function and an infrared camera function. In the present embodiment, the control unit 236 performs control to switch the state of the second visible light / infrared camera 233 (a state having a function of a visible light camera and a state having a function of an infrared camera).
The configuration for switching the state of each visible light / infrared camera 232, 233 is the same as the configuration for switching the state of the visible light / infrared camera 133 shown in FIG.

ここで、2個の可視光/赤外カメラ232、232の両方が可視光カメラの機能を有する状態では、これらの可視光/赤外カメラ232、233は、図1に示される2個の可視光カメラ(第1の可視光カメラ32および第2の可視光カメラ33)と同様な役割をする。この状態で、第1検出部251は、可視光/赤外カメラ232(可視光カメラの機能)により撮像された画像および可視光/赤外カメラ233(可視光カメラの機能)により撮像された画像に基づいて、図1に示される第1検出部51と同様な検出を行う。   Here, in the state where both of the two visible light / infrared cameras 232 and 232 have the function of the visible light camera, the visible light / infrared cameras 232 and 233 have the two visible lights shown in FIG. It plays the same role as the optical camera (the first visible light camera 32 and the second visible light camera 33). In this state, the first detection unit 251 detects an image captured by the visible / infrared camera 232 (function of visible light camera) and an image captured by the visible / infrared camera 233 (function of visible light camera). Based on the above, the same detection as that of the first detection unit 51 shown in FIG. 1 is performed.

また、2個の可視光/赤外カメラ232、232のうちの一方が赤外カメラの機能を有する状態では、その可視光/赤外カメラ(可視光/赤外カメラ232、232のうちの一方)は、図1に示される赤外カメラ34と同様な役割をする。この状態で、第2検出部252は、その可視光/赤外カメラ(赤外カメラの機能)により撮像された画像に基づいて、図1に示される第2検出部52と同様な検出を行う。   In the state where one of the two visible light / infrared cameras 232 and 232 has the function of an infrared camera, the visible light / infrared camera (one of the visible light / infrared cameras 232 and 232 is displayed). ) Plays the same role as the infrared camera 34 shown in FIG. In this state, the second detection unit 252 performs detection similar to the second detection unit 52 shown in FIG. 1 based on the image captured by the visible light / infrared camera (function of the infrared camera). .

また、2個の可視光/赤外カメラ232、232の両方が赤外カメラの機能を有する状態では、これら2個の可視光/赤外カメラ232、232(赤外カメラの機能)によりステレオカメラが構成され、赤外光に関する3次元情報が得られる。この状態で、第2検出部252は、例えば、可視光/赤外カメラ232(赤外カメラの機能)により撮像された画像および可視光/赤外カメラ233(赤外カメラの機能)により撮像された画像に基づいて、電子ペン13から送信される赤外光に関する3次元情報を検出してもよい。そして、第2検出部252は、この検出情報を、電子ペン13に関する情報を検出する際に利用してもよい。   In the state where both of the two visible light / infrared cameras 232 and 232 have the function of the infrared camera, the two visible light / infrared cameras 232 and 232 (functions of the infrared camera) can be used as a stereo camera. And three-dimensional information about infrared light is obtained. In this state, for example, the second detection unit 252 captures an image captured by the visible light / infrared camera 232 (infrared camera function) and an image captured by the visible light / infrared camera 233 (infrared camera function). Based on the obtained image, three-dimensional information related to infrared light transmitted from the electronic pen 13 may be detected. The second detection unit 252 may use this detection information when detecting information about the electronic pen 13.

以上のように、本実施形態に係るプロジェクター211では、図1に示されるプロジェクター11と同様な効果を得ることができる。
また、本実施形態に係るプロジェクター211では、可視光/赤外カメラ132、133を使用するため、例えば、可視光カメラと赤外カメラを別々に備える場合と比べて、カメラの数を少なくして、プロジェクターの小型化を図ることが可能である。
また、本実施形態に係るプロジェクター211では、赤外光について3次元情報を検出することが可能であり、電子ペン13に関する検出の精度を高めることが可能である。
As described above, the projector 211 according to the present embodiment can obtain the same effects as those of the projector 11 shown in FIG.
Further, since the projector 211 according to the present embodiment uses the visible light / infrared cameras 132 and 133, for example, the number of cameras is reduced as compared with the case where the visible light camera and the infrared camera are provided separately. It is possible to reduce the size of the projector.
In the projector 211 according to the present embodiment, it is possible to detect three-dimensional information about infrared light, and it is possible to improve the detection accuracy regarding the electronic pen 13.

一構成例として、プロジェクター211では、第1の撮像部(可視光を撮像する撮像部)および第2の撮像部(可視光を撮像する撮像部)の両方は、可視光を撮像する機能および赤外光を撮像する機能を切り替えることが可能な撮像部(本実施形態では、可視光/赤外カメラ232、233)であり、第3の撮像部(赤外光を撮像する撮像部)も構成する。   As a configuration example, in the projector 211, both the first imaging unit (imaging unit that captures visible light) and the second imaging unit (imaging unit that captures visible light) have a function of capturing visible light and red. An imaging unit (in this embodiment, visible light / infrared cameras 232 and 233) that can switch the function of imaging external light, and a third imaging unit (imaging unit that captures infrared light) are also configured. To do.

(第4実施形態)
図4は、本発明の一実施形態(第4実施形態)に係るインタラクティブシステム301の概略的な構成例を示す図である。
インタラクティブシステム301は、プロジェクター311と、投写面12と、電子ペン13を備える。電子ペン13は発光部21を有する。また、図4には、人間の指14を示してある。
ここで、投写面12と、発光部21を有する電子ペン13と、人間の指14は、それぞれ、図1に示されるものと同じであり、同じ符号を付してある。
(Fourth embodiment)
FIG. 4 is a diagram illustrating a schematic configuration example of an interactive system 301 according to an embodiment (fourth embodiment) of the present invention.
The interactive system 301 includes a projector 311, a projection surface 12, and an electronic pen 13. The electronic pen 13 has a light emitting unit 21. FIG. 4 also shows a human finger 14.
Here, the projection surface 12, the electronic pen 13 having the light emitting unit 21, and the human finger 14 are the same as those shown in FIG.

プロジェクター311について説明する。
プロジェクター311は、投写部331と、第1の可視光カメラ332と、第2の可視光カメラ333と、赤外カメラ334と、サーモグラフィーカメラ335と、赤外通信部336と、記憶部337と、制御部338を備える。制御部338は、第1検出部351と、第2検出部352を備える。
ここで、本実施形態では、投写部331と、第1の可視光カメラ332と、第2の可視光カメラ333と、赤外カメラ334と、赤外通信部336と、記憶部337と、制御部338の概略(各種の制御を行う点)は、それぞれ、図1に示される投写部31と、第1の可視光カメラ32と、第2の可視光カメラ33と、赤外カメラ34と、赤外通信部35と、記憶部36と、制御部37の概略(各種の制御を行う点)と同様である。
The projector 311 will be described.
The projector 311 includes a projection unit 331, a first visible light camera 332, a second visible light camera 333, an infrared camera 334, a thermography camera 335, an infrared communication unit 336, a storage unit 337, A control unit 338 is provided. The control unit 338 includes a first detection unit 351 and a second detection unit 352.
Here, in the present embodiment, the projection unit 331, the first visible light camera 332, the second visible light camera 333, the infrared camera 334, the infrared communication unit 336, the storage unit 337, and the control The outline of the unit 338 (points for performing various controls) are respectively the projection unit 31, the first visible light camera 32, the second visible light camera 33, the infrared camera 34, and the like shown in FIG. This is the same as the outline of the infrared communication unit 35, the storage unit 36, and the control unit 37 (points where various controls are performed).

第1の可視光カメラ332、第2の可視光カメラ333、赤外カメラ334およびサーモグラフィーカメラ335は、それぞれ、投写面12を含む領域が撮像する領域(撮像領域)となるように、設置されている。
サーモグラフィーカメラ335は、人間などの体温によって当該人間など(本実施形態では、指14)から放射される赤外光(赤外線)を検出し、当該赤外光の画像(熱分布の画像)を撮像するカメラである。サーモグラフィーカメラ335は、赤外カメラの一種であるといえるが、本実施形態では、赤外カメラ334とは別体で備えられている。
The first visible light camera 332, the second visible light camera 333, the infrared camera 334, and the thermography camera 335 are installed so that the area including the projection plane 12 is an area to be imaged (imaging area). Yes.
The thermography camera 335 detects infrared light (infrared rays) emitted from the human body (in this embodiment, the finger 14) based on the body temperature of the human body and captures an image of the infrared light (heat distribution image). Camera. The thermography camera 335 can be said to be a kind of infrared camera, but is provided separately from the infrared camera 334 in this embodiment.

第1検出部351は、図1に示される第1検出部51と同様に、第1の可視光カメラ332により撮像された画像および第2の可視光カメラ333により撮像された画像に基づいて、これらの画像に含まれる物体の3次元情報を検出する機能を有する。さらに、本実施形態では、第1検出部351は、人間など(本実施形態では、指14)に関する検出を行う場合に、サーモグラフィーカメラ335により撮像された画像を用いることが可能である。第1検出部351は、例えば、第1の可視光カメラ332により撮像された画像および第2の可視光カメラ333により撮像された画像とともに、サーモグラフィーカメラ335により撮像された画像を用いることで、人間などに関する検出の精度を高めることが可能である。   As with the first detection unit 51 shown in FIG. 1, the first detection unit 351 is based on the image captured by the first visible light camera 332 and the image captured by the second visible light camera 333. It has a function of detecting three-dimensional information of an object included in these images. Furthermore, in the present embodiment, the first detection unit 351 can use an image captured by the thermography camera 335 when performing detection related to a human or the like (in this embodiment, the finger 14). The first detection unit 351 uses, for example, an image captured by the thermographic camera 335 together with an image captured by the first visible light camera 332 and an image captured by the second visible light camera 333, so that a human It is possible to increase the accuracy of detection related to the above.

具体例として、第1検出部351は、サーモグラフィーカメラ335により撮像された画像に基づいて人間などの画像を検出することで、可視光カメラ(本実施形態では、第1の可視光カメラ332および第2の可視光カメラ333)により撮像された画像に基づいて検出された物体が人間などであるかまたは体温の無い物体(本実施形態では、電子ペン13)であるかを検出(判定)することができる。この場合、例えば、電子ペン13からの赤外線の送信の頻度を少なくすること、または、当該送信をなくすことで、電子ペン13の消費電力を低減し、電子ペン13の電池の寿命を大幅に延ばすことが可能である。
また、第1検出部351は、パターンマッチングの方法を用いて、第1の可視光カメラ332および第2の可視光カメラ333により撮像される画像に含まれる指14の画像を検出する際に、サーモグラフィーカメラ335により撮像された画像を用いることで、パターンマッチングの精度を高めることが可能である。
As a specific example, the first detection unit 351 detects an image of a person or the like based on an image captured by the thermography camera 335, thereby enabling a visible light camera (in the present embodiment, the first visible light camera 332 and the first visible light camera 332). Detecting (determining) whether the object detected based on the image captured by the second visible light camera 333) is a human or the like or an object having no body temperature (in this embodiment, the electronic pen 13). Can do. In this case, for example, by reducing the frequency of infrared transmission from the electronic pen 13 or eliminating the transmission, the power consumption of the electronic pen 13 is reduced and the battery life of the electronic pen 13 is greatly extended. It is possible.
In addition, when the first detection unit 351 detects the image of the finger 14 included in the images captured by the first visible light camera 332 and the second visible light camera 333 using a pattern matching method, By using the image captured by the thermography camera 335, the accuracy of pattern matching can be increased.

以上のように、本実施形態に係るプロジェクター311では、図1に示されるプロジェクター11と同様な効果を得ることができる。
また、本実施形態に係るプロジェクター311では、サーモグラフィーカメラ335により撮像された画像を用いることで、人間などに関する検出の精度を高めることが可能である。
As described above, the projector 311 according to the present embodiment can obtain the same effects as those of the projector 11 shown in FIG.
Further, in the projector 311 according to the present embodiment, it is possible to improve the accuracy of detection related to a human or the like by using an image captured by the thermography camera 335.

ここで、本実施形態では、図1に示されるインタラクティブシステム1と同様な構成にサーモグラフィーカメラ335の機能を備えた場合を示したが、他の構成例として、図2に示されるインタラクティブシステム101と同様な構成にサーモグラフィーカメラの機能が備えられてもよく、または、図3に示されるインタラクティブシステム201と同様な構成にサーモグラフィーカメラの機能が備えられてもよい。   Here, in this embodiment, the case where the function of the thermography camera 335 is provided in the same configuration as the interactive system 1 shown in FIG. 1 is shown, but as another configuration example, the interactive system 101 shown in FIG. A thermographic camera function may be provided in a similar configuration, or a thermographic camera function may be provided in a configuration similar to the interactive system 201 illustrated in FIG.

一構成例として、プロジェクター311では、撮像領域内の熱分布の画像を撮像するサーモグラフィーカメラ335を備え、第1検出部351は、第1の撮像部(本実施形態では、第1の可視光カメラ332)、第2の撮像部(本実施形態では、第2の可視光カメラ333)およびサーモグラフィーカメラ335による撮像結果に基づいて、非発光型指示体(本実施形態では、指14)の位置を検出する。   As an example of the configuration, the projector 311 includes a thermography camera 335 that captures an image of the heat distribution in the imaging region, and the first detection unit 351 includes a first imaging unit (in this embodiment, the first visible light camera). 332), based on the imaging results of the second imaging unit (second visible light camera 333 in this embodiment) and the thermography camera 335, the position of the non-luminous indicator (finger 14 in this embodiment) is determined. To detect.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

なお、以上に説明した装置(例えば、プロジェクター11、111、211、311など)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体(記憶媒体)に記録(記憶)し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、オペレーティングシステム(OS:Operating System)あるいは周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークあるいは電話回線等の通信回線を介してプログラムが送信された場合のサーバーあるいはクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)あるいは電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Note that a program for realizing the function of an arbitrary component in the apparatus described above (for example, the projector 11, 111, 211, 311) is recorded (stored) in a computer-readable recording medium (storage medium). The program may be loaded into a computer system and executed. The “computer system” here includes an operating system (OS) or hardware such as peripheral devices. The “computer-readable recording medium” means a portable medium such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory) and a CD (Compact Disk) -ROM, and a hard disk built in the computer system. Refers to the device. Furthermore, “computer-readable recording medium” means a volatile memory (RAM: Random Access) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. As in the case of (Memory), a program that holds a program for a certain period of time is also included.
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1、101、201、301…インタラクティブシステム、11、111、211、311…プロジェクター、12…投写面、13…電子ペン、14…指、21…発光部、31、131、231、331…投写部、32、33、132、332、333…可視光カメラ、34、334…赤外カメラ、35、134、234、336…赤外通信部、36、135、235、337…記憶部、37、136、236、338…制御部、51、151、251、351…第1検出部、52、152、252、352…第2検出部、133、232、233…可視光/赤外カメラ、335…サーモグラフィーカメラ DESCRIPTION OF SYMBOLS 1, 101, 201, 301 ... Interactive system 11, 111, 211, 311 ... Projector, 12 ... Projection surface, 13 ... Electronic pen, 14 ... Finger, 21 ... Light emission part, 31, 131, 231, 331 ... Projection part 32, 33, 132, 332, 333 ... Visible light camera, 34, 334 ... Infrared camera, 35, 134, 234, 336 ... Infrared communication unit, 36, 135, 235, 337 ... Storage unit, 37, 136 236, 338: control unit 51, 151, 251 and 351 ... first detection unit, 52, 152, 252, 352 ... second detection unit, 133, 232, 233 ... visible light / infrared camera, 335 ... thermography camera

Claims (7)

投写面に画像を投写する投写部と、
前記投写面を含む領域を撮像領域とし、可視光を撮像する第1の撮像部および第2の撮像部と、
前記投写面を含む領域を撮像領域とし、赤外光を撮像する第3の撮像部と、
前記第1の撮像部および前記第2の撮像部による撮像結果に基づいて、非発光型指示体の位置を検出する第1検出部と、
前記第3の撮像部による撮像結果に基づいて、赤外光を発する発光部を有する自発光型指示体の位置を検出する第2検出部と、
を備えるプロジェクター。
A projection unit that projects an image on a projection surface;
A region including the projection plane as an imaging region, a first imaging unit and a second imaging unit that capture visible light;
A region including the projection plane as an imaging region, a third imaging unit that images infrared light;
A first detection unit for detecting a position of a non-light emitting indicator based on an imaging result by the first imaging unit and the second imaging unit;
A second detection unit that detects a position of a self-luminous indicator having a light-emitting unit that emits infrared light based on an imaging result of the third imaging unit;
A projector comprising:
前記第1の撮像部および前記第2の撮像部のうちの少なくとも一方は、可視光を撮像する機能および赤外光を撮像する機能を切り替えることが可能な撮像部であり、前記第3の撮像部も構成する、
請求項1に記載のプロジェクター。
At least one of the first imaging unit and the second imaging unit is an imaging unit capable of switching a function of imaging visible light and a function of imaging infrared light, and the third imaging The part also constitutes,
The projector according to claim 1.
前記第1の撮像部による撮像結果および前記第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、前記非発光型指示体または前記自発光型指示体で指示された部分の色を検出する色検出部をさらに備える、
請求項1または請求項2のいずれか1項に記載のプロジェクター。
Based on at least one of an imaging result by the first imaging unit and an imaging result by the second imaging unit, a color of a portion indicated by the non-light emitting indicator or the self-luminous indicator is detected. A color detecting unit
The projector according to claim 1 or 2.
前記第1の撮像部による撮像結果および前記第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、前記非発光型指示体または前記自発光型指示体で指示された部分の図形を検出する図形検出部をさらに備える、
請求項1から請求項3のいずれか1項に記載のプロジェクター。
Based on at least one of an imaging result by the first imaging unit and an imaging result by the second imaging unit, a figure of a portion indicated by the non-light emitting indicator or the self-luminous indicator is detected. A graphic detection unit
The projector according to any one of claims 1 to 3.
前記第1の撮像部による撮像結果および前記第2の撮像部による撮像結果のうちの少なくとも一方に基づいて、前記自発光型指示体の態様を検出する態様検出部をさらに備える、
請求項1から請求項4のいずれか1項に記載のプロジェクター。
A mode detection unit that detects a mode of the self-luminous indicator based on at least one of an imaging result by the first imaging unit and an imaging result by the second imaging unit;
The projector according to any one of claims 1 to 4.
撮像領域内の熱分布の画像を撮像するサーモグラフィーカメラを備え、
前記第1検出部は、前記第1の撮像部、前記第2の撮像部および前記サーモグラフィーカメラによる撮像結果に基づいて、前記非発光型指示体の位置を検出する、
請求項1から請求項5のいずれか1項に記載のプロジェクター。
It has a thermographic camera that captures an image of the heat distribution in the imaging area,
The first detection unit detects the position of the non-light emitting indicator based on the imaging results of the first imaging unit, the second imaging unit, and the thermography camera.
The projector according to any one of claims 1 to 5.
プロジェクターにおいて、
投写面に画像を投写し、
第1の撮像部および第2の撮像部が、前記投写面を含む領域を撮像領域とし、可視光を撮像し、
第3の撮像部が、前記投写面を含む領域を撮像領域とし、赤外光を撮像し、
前記第1の撮像部および前記第2の撮像部による撮像結果に基づいて、非発光型指示体の位置を検出し、
前記第3の撮像部による撮像結果に基づいて、赤外光を発する発光部を有する自発光型指示体の位置を検出する、
検出方法。
In the projector,
Project an image on the projection surface,
The first imaging unit and the second imaging unit use the region including the projection plane as an imaging region, and capture visible light,
A third imaging unit sets an area including the projection plane as an imaging area, images infrared light,
Based on the imaging results of the first imaging unit and the second imaging unit, the position of the non-luminous indicator is detected,
Detecting a position of a self-luminous indicator having a light emitting unit that emits infrared light based on an imaging result by the third imaging unit;
Detection method.
JP2015063926A 2015-03-26 2015-03-26 Projector and detection method Withdrawn JP2016184850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015063926A JP2016184850A (en) 2015-03-26 2015-03-26 Projector and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015063926A JP2016184850A (en) 2015-03-26 2015-03-26 Projector and detection method

Publications (1)

Publication Number Publication Date
JP2016184850A true JP2016184850A (en) 2016-10-20

Family

ID=57241961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015063926A Withdrawn JP2016184850A (en) 2015-03-26 2015-03-26 Projector and detection method

Country Status (1)

Country Link
JP (1) JP2016184850A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211659A1 (en) * 2017-05-18 2018-11-22 マクセル株式会社 Operation detection device, video display device equipped with same, and video display method
KR20200096504A (en) 2017-12-14 2020-08-12 고쿠리츠켄큐카이하츠호진 상교기쥬츠 소고켄큐쇼 Object identification device and object identification system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236178A (en) * 2000-02-22 2001-08-31 Seiko Epson Corp System and method for detecting indication position, presentation system and information storage medium
JP2009245392A (en) * 2008-03-31 2009-10-22 Brother Ind Ltd Head mount display and head mount display system
JP2013073556A (en) * 2011-09-29 2013-04-22 Toshiba Corp Command issue device, method and program
JP2013134661A (en) * 2011-12-27 2013-07-08 Seiko Epson Corp Display device, projector, and display system
JP2013164658A (en) * 2012-02-09 2013-08-22 Ricoh Co Ltd Image display device
JP2013175001A (en) * 2012-02-24 2013-09-05 Seiko Epson Corp Image display device, image display system and control method for image display device
JP2014102687A (en) * 2012-11-20 2014-06-05 Ricoh Co Ltd Information processing device, information processing system, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236178A (en) * 2000-02-22 2001-08-31 Seiko Epson Corp System and method for detecting indication position, presentation system and information storage medium
JP2009245392A (en) * 2008-03-31 2009-10-22 Brother Ind Ltd Head mount display and head mount display system
JP2013073556A (en) * 2011-09-29 2013-04-22 Toshiba Corp Command issue device, method and program
JP2013134661A (en) * 2011-12-27 2013-07-08 Seiko Epson Corp Display device, projector, and display system
JP2013164658A (en) * 2012-02-09 2013-08-22 Ricoh Co Ltd Image display device
JP2013175001A (en) * 2012-02-24 2013-09-05 Seiko Epson Corp Image display device, image display system and control method for image display device
JP2014102687A (en) * 2012-11-20 2014-06-05 Ricoh Co Ltd Information processing device, information processing system, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211659A1 (en) * 2017-05-18 2018-11-22 マクセル株式会社 Operation detection device, video display device equipped with same, and video display method
KR20200096504A (en) 2017-12-14 2020-08-12 고쿠리츠켄큐카이하츠호진 상교기쥬츠 소고켄큐쇼 Object identification device and object identification system

Similar Documents

Publication Publication Date Title
JP6398248B2 (en) Position detection system and method for controlling position detection system
US10268284B2 (en) Image display system
JP6413236B2 (en) Projector, projection system, and projector control method
JP2017146753A (en) Position detection device, and contrast adjustment method for the same
US10133366B2 (en) Interactive projector and interactive projection system
JP2012053584A (en) Information display system and program
JP2015158885A (en) Position detection device, projector, position detection system, and control method of position detection device
US10274816B2 (en) Display device, projector, and display control method
US9830723B2 (en) Both-direction display method and both-direction display apparatus
JP2018160265A (en) Position detection system, and control method of position detection system
CN109840056B (en) Image display apparatus and control method thereof
US10712874B2 (en) Position detection device, position detection system, and method for controlling position detection device
JP2016071402A (en) Position detection apparatus, projector, and position detection method
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP2016184850A (en) Projector and detection method
US10795467B2 (en) Display device, electronic blackboard system, and user interface setting method
JP6503828B2 (en) Interactive projection system, pointer, and control method of interactive projection system
US9544561B2 (en) Interactive projector and interactive projection system
KR20160107684A (en) Electric board system
JP6690272B2 (en) Position detection system, self-luminous indicator, and unique information acquisition method
JP6291911B2 (en) Position detection apparatus and position detection method
JP6291912B2 (en) Position detection apparatus and position detection method
JP6340860B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2012226507A (en) Emitter identification device, emitter identification method and emitter identification program
JP6337558B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171220

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181115

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20181217