JP2018160265A - Position detection system, and control method of position detection system - Google Patents

Position detection system, and control method of position detection system Download PDF

Info

Publication number
JP2018160265A
JP2018160265A JP2018112440A JP2018112440A JP2018160265A JP 2018160265 A JP2018160265 A JP 2018160265A JP 2018112440 A JP2018112440 A JP 2018112440A JP 2018112440 A JP2018112440 A JP 2018112440A JP 2018160265 A JP2018160265 A JP 2018160265A
Authority
JP
Japan
Prior art keywords
indicator
unit
light
calibration
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018112440A
Other languages
Japanese (ja)
Other versions
JP6562124B2 (en
Inventor
ネス,ハルヴァート
Naess Hallvard
ニュルスタッド、トルモド
Tormod Njolstad
ダーレ モエン,スヴェラ
Dale Moen Sverre
ダーレ モエン,スヴェラ
ポラック,カロル,マルチン
Marcin Pawlak Karol
久保田 真司
Shinji Kubota
真司 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of JP2018160265A publication Critical patent/JP2018160265A/en
Application granted granted Critical
Publication of JP6562124B2 publication Critical patent/JP6562124B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a position detection system that can accurately detect positions of indication by indicators of different types even with a simple configuration by using photographic image data.SOLUTION: A projection system 1 includes: a light emission device 60 that emits detection light to a detection area for detecting positions of indication by indicators 70 and 80; and a projector 10 that detects the position of indication by the indicators 70 and 80 in the detection area. The projector 10 includes: an imaging unit 51 that photographs the detection area; and a position detection unit 50 that detects, from the photographic image data of the imaging unit 51, at least one of an image of light emitted from the indicator 70 and an image of detection light reflected on the indicator 80, and individually detects the positions of the indication by the indicators 70 and the indicators 80 on the basis of light emission timing of the indicator 70 and the light emission device 60.SELECTED DRAWING: Figure 2

Description

本発明は、位置検出システム、及び、位置検出システムの制御方法に関する。   The present invention relates to a position detection system and a control method for the position detection system.

検出領域内の指示体の位置を複数のセンサー手段それぞれから得られる光量分布の変化範囲を検出することで検出する技術が知られている(例えば、特許文献1参照)。   A technique for detecting the position of the indicator within the detection region by detecting the change range of the light amount distribution obtained from each of the plurality of sensor means is known (see, for example, Patent Document 1).

特許第4757144号公報Japanese Patent No. 4757144

指示体の指示位置を光学的に検出する場合、検出領域内の全ての場所から光が一様に届くとは限らず、このことが検出精度に影響を与える。この点について、特許文献1の構成では、光量の分布を求めることで精度の向上を図っていたが、例えば検出領域を撮影して指示位置を検出する場合には、このような手法は適用できない。また、種類の異なる複数の指示体の指示位置を区別して検出する場合、さらに複数のセンサーを設けなければならず、装置構成が大型化する。
本発明は上記事情に鑑みてなされたものであり、種類の異なる指示体の指示位置を、簡易な構成であっても撮影画像データを用いて精度よく検出することができる位置検出システム、及び、位置検出システムの制御方法を提供することを目的とする。
When optically detecting the indication position of the indicator, light does not necessarily reach uniformly from all locations in the detection region, and this affects the detection accuracy. With respect to this point, in the configuration of Patent Document 1, the accuracy is improved by obtaining the light amount distribution. However, for example, such a method cannot be applied when the detection position is detected by photographing the detection region. . Further, when the indication positions of a plurality of different types of indicators are distinguished and detected, a plurality of sensors must be provided, which increases the size of the apparatus.
The present invention has been made in view of the above circumstances, and a position detection system that can accurately detect the pointing position of different types of pointers using captured image data even with a simple configuration, and An object of the present invention is to provide a control method for a position detection system.

上記目的を達成するため、本発明の位置検出システムは、指示体の指示位置を検出する検出領域に検出光を出射する光出射装置と、前記検出領域での前記指示体の指示位置を検出する位置検出装置とを備える位置検出システムであって、前記位置検出装置は、前記検出領域を撮影する撮影部と、前記撮影部の撮影画像データから、前記指示体としての第1指示体が発する光の像と、前記指示体としての第2指示体で反射した前記検出光の像との少なくとも一方を検出し、前記第1指示体と前記光出射装置との発光タイミングに基づいて、前記第1指示体と前記第2指示体との指示位置を区別して検出する位置検出部と、を備えることを特徴とする。
本発明の構成によれば、撮影画像データから、指示体としての第1指示体が発する光の像と、指示体としての第2指示体で反射した検出光の像との少なくとも一方を検出する。また、第1指示体と光出射装置との発光タイミングに基づいて、第1指示体と第2指示体との指示位置を区別して検出する。このため、種類の異なる指示体の指示位置を、簡易な構成であっても撮影画像データを用いて精度よく検出することができる。
In order to achieve the above object, a position detection system of the present invention detects a light emitting device that emits detection light to a detection region that detects an indication position of an indicator, and detects an indication position of the indicator in the detection region. A position detection system comprising a position detection device, wherein the position detection device is a light emitted from a first indicator as the indicator from an imaging unit that images the detection region and captured image data of the imaging unit. And at least one of the image of the detection light reflected by the second indicator as the indicator, and based on the light emission timing of the first indicator and the light emitting device, the first A position detection unit that distinguishes and detects the pointing positions of the pointer and the second pointer.
According to the configuration of the present invention, at least one of an image of light emitted from the first indicator as the indicator and an image of detection light reflected by the second indicator as the indicator is detected from the captured image data. . Further, the indication positions of the first indicator and the second indicator are distinguished and detected based on the light emission timings of the first indicator and the light emitting device. For this reason, even if it is a simple structure, the indication position of the indicator from which a kind differs can be detected accurately using picked-up image data.

また、本発明は、上記構成において、前記位置検出部は、前記光出射装置の消灯後の撮影画像データに写った輝点の位置を前記第1指示体の指示位置として検出することを特徴とする。
本発明の構成によれば、第1指示体と第2指示体との区別を容易につけることができ、種類の異なる指示体の指示位置を、精度よく検出することができる。
Further, the present invention is characterized in that, in the above configuration, the position detecting unit detects the position of a bright spot reflected in the photographed image data after the light emitting device is turned off as an indication position of the first indicator. To do.
According to the configuration of the present invention, it is possible to easily distinguish between the first indicator and the second indicator, and it is possible to accurately detect the indication positions of different types of indicators.

また、本発明は、上記構成において、前記位置検出部は、複数の第1指示体が、各第1指示体に割り当てられた識別情報に応じて点滅する光を、前記撮影画像データに基づいて判定して、前記複数の第1指示体の指示位置を区別して検出することを特徴する。
本発明の構成によれば、第1指示体が複数であっても、各第1指示体の指示位置を区別して検出することができる。
Further, according to the present invention, in the configuration described above, the position detection unit is configured to detect light that a plurality of first indicators blink according to identification information assigned to each first indicator based on the captured image data. The determination is performed by distinguishing and detecting the indication positions of the plurality of first indicators.
According to the configuration of the present invention, even if there are a plurality of first indicators, it is possible to distinguish and detect the indication position of each first indicator.

また、本発明は、上記構成において、前記位置検出装置は、前記第1指示体の点灯タイミングを通知する同期用の信号を送信する第1送信部と、前記光出射装置に、前記検出光を出射させるタイミングを通知する信号を前記光出射装置に送信する第2送信部とを備えることを特徴とする。
本構成によれば、位置検出装置は、第1指示体と光出射装置との点灯タイミングに同期して、検出領域を撮影部により撮影することができる。このため、1指示体と第2指示体との指示位置を検出することができる。
According to the present invention, in the configuration described above, the position detection device transmits the detection light to a first transmission unit that transmits a synchronization signal that notifies the lighting timing of the first indicator, and the light emitting device. And a second transmitter that transmits a signal notifying the timing of emission to the light emitting device.
According to this configuration, the position detection device can photograph the detection region with the photographing unit in synchronization with the lighting timing of the first indicator and the light emitting device. For this reason, the indication position of the 1st indicator and the 2nd indicator can be detected.

本発明の位置検出システムの制御方法は、指示体の指示位置を検出する検出領域に検出光を出射する光出射装置と、前記検出領域での前記指示体の指示位置を検出する位置検出装置とを備える位置検出システムの制御方法であって、前記検出領域を撮影部により撮影するステップと、前記撮影部の撮影画像データから、前記指示体としての第1指示体が発する光の像と、前記指示体としての第2指示体で反射した前記検出光の像との少なくとも一方を検出し、前記第1指示体と前記光出射装置との発光タイミングに基づいて、前記第1指示体と前記第2指示体との指示位置を区別して検出するステップと、を有することを特徴とする。
本発明の構成によれば、撮影画像データから、指示体としての第1指示体が発する光の像と、指示体としての第2指示体で反射した検出光の像との少なくとも一方を検出する。また、第1指示体と光出射装置との発光タイミングに基づいて、第1指示体と第2指示体との指示位置を区別して検出する。このため、種類の異なる指示体の指示位置を、簡易な構成であっても撮影画像データを用いて精度よく検出することができる。
The control method of the position detection system of the present invention includes a light emitting device that emits detection light to a detection region that detects the indication position of the indicator, and a position detection device that detects the indication position of the indicator in the detection region. A method for controlling a position detection system comprising: a step of photographing the detection area by a photographing unit; an image of light emitted by a first indicator as the indicator from the photographed image data of the photographing unit; At least one of the detection light image reflected by the second indicator serving as the indicator is detected, and the first indicator and the first indicator are detected based on the light emission timings of the first indicator and the light emitting device. And a step of distinguishing and detecting a pointing position with respect to the two pointers.
According to the configuration of the present invention, at least one of an image of light emitted from the first indicator as the indicator and an image of detection light reflected by the second indicator as the indicator is detected from the captured image data. . Further, the indication positions of the first indicator and the second indicator are distinguished and detected based on the light emission timings of the first indicator and the light emitting device. For this reason, even if it is a simple structure, the indication position of the indicator from which a kind differs can be detected accurately using picked-up image data.

本発明によれば、種類の異なる指示体の指示位置を、簡易な構成であっても撮影画像データを用いて精度よく検出することができる。   According to the present invention, it is possible to accurately detect the pointing positions of different types of pointers using captured image data even with a simple configuration.

プロジェクションシステムの概略構成を示す図である。It is a figure which shows schematic structure of a projection system. プロジェクションシステムの機能ブロック図である。It is a functional block diagram of a projection system. プロジェクターの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a projector. (A)はペン型の指示体の指示位置を検出する様子を示し、(B)は指示体としての指の指示位置を検出する様子を示す図である。(A) shows a state of detecting an indication position of a pen-type indicator, and (B) is a diagram showing a state of detecting an indication position of a finger as an indicator. オートキャリブレーション画像の一例を示す図である。It is a figure which shows an example of an auto calibration image. 撮像部により撮影した撮影画像データの一例を示す図である。It is a figure which shows an example of the picked-up image data image | photographed with the imaging part. キャリブレーションデータ管理テーブルの一例を示す図である。It is a figure which shows an example of a calibration data management table. マニュアルキャリブレーション画像の一例を示す図である。It is a figure which shows an example of a manual calibration image. 背景画像作成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a background image creation process. マスク画像の一例を示す図である。It is a figure which shows an example of a mask image. マスク画像の作成方法を説明するための図である。It is a figure for demonstrating the preparation method of a mask image. 第1背景画像データの一例を示す図である。It is a figure which shows an example of 1st background image data. 第2背景画像データの一例を示す図である。It is a figure which shows an example of 2nd background image data. 指示位置検出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of an instruction | indication position detection process. (A)はマスク画像に合わせて設定した濃度しきい値を示し、(B)は(A)に示す点A〜点Dでの濃度しきい値を示す図である。(A) shows density threshold values set in accordance with the mask image, and (B) is a diagram showing density threshold values at points A to D shown in (A). 光源ノイズデータの一例を示す図である。It is a figure which shows an example of light source noise data. プロジェクター、指示体、光出射装置の発光タイミングを示す図である。It is a figure which shows the light emission timing of a projector, an indicator, and a light-emitting device.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面)の上方に設置されたプロジェクター10(位置検出装置)と、スクリーンSCの上部に設置された光出射装置(光源部)60とを備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a projection system 1 according to an embodiment to which the present invention is applied. The projection system 1 includes a projector 10 (position detection device) installed above a screen SC (projection surface) and a light emitting device (light source unit) 60 installed on the screen SC.

プロジェクター10はスクリーンSCの直上又は斜め上方に設置され、斜め下方のスクリーンSCに向けて画像を投射する。また、本実施形態で例示するスクリーンSCは、壁面に固定され、或いは床面に立設された、平板又は幕である。本発明はこの例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター10及び光出射装置60を取り付けるとよい。   The projector 10 is installed directly above or obliquely above the screen SC and projects an image toward the screen SC obliquely below. Further, the screen SC exemplified in the present embodiment is a flat plate or a curtain fixed to a wall surface or standing on a floor surface. The present invention is not limited to this example, and the wall surface can be used as the screen SC. In this case, the projector 10 and the light emitting device 60 may be attached to the upper part of the wall surface used as the screen SC.

プロジェクター10は、PC(パーソナルコンピューター)、ビデオ再生装置、DVD再生装置等の外部の画像供給装置に接続され、この画像供給装置から供給されるアナログ画像信号又はデジタル画像データに基づき、スクリーンSCに画像を投射する。また、プロジェクター10は、内蔵する記憶部110(図2)や外部接続される記憶媒体に記憶された画像データを読み出して、この画像データに基づきスクリーンSCに画像を表示する構成としてもよい。
光出射装置60は、固体光源からなる光源部61(図2)を有し、光源部61が発する光(本実施形態では赤外光)をスクリーンSCに沿って拡散させて出射(照射)する。光出射装置60の出射範囲を図1に角度θで示す。光出射装置60はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を出射し、この光はスクリーンSCに沿う光の層を形成する。本実施形態では角度θはほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と光の層とは近接していることが好ましく、本実施形態では、スクリーンSCの表面と光の層との距離は概ね10mm〜1mmの範囲内である。
The projector 10 is connected to an external image supply device such as a PC (personal computer), a video reproduction device, a DVD reproduction device, etc., and an image is displayed on the screen SC based on an analog image signal or digital image data supplied from the image supply device. Project. The projector 10 may be configured to read out image data stored in a built-in storage unit 110 (FIG. 2) or an externally connected storage medium and display an image on the screen SC based on the image data.
The light emitting device 60 includes a light source unit 61 (FIG. 2) that is a solid light source, and diffuses (emits) light emitted from the light source unit 61 (infrared light in the present embodiment) along the screen SC. . The emission range of the light emitting device 60 is shown in FIG. The light emitting device 60 is installed above the upper end of the screen SC and emits light downward in the range of the angle θ, and this light forms a layer of light along the screen SC. In this embodiment, the angle θ reaches approximately 180 degrees, and a light layer is formed on almost the entire screen SC. The surface of the screen SC and the light layer are preferably close to each other. In this embodiment, the distance between the surface of the screen SC and the light layer is approximately in the range of 10 mm to 1 mm.

プロジェクションシステム1は、スクリーンSCに対する指示操作が行われた場合に、指示位置をプロジェクター10によって検出する。
指示操作に利用される指示体は、ペン型の指示体70を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、赤外光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する赤外光に基づき、先端部71の位置を、指示位置として検出する。
The projection system 1 detects the indicated position by the projector 10 when an instruction operation is performed on the screen SC.
A pen-type indicator 70 can be used as the indicator used for the instruction operation. Since the distal end portion 71 of the indicator 70 incorporates an operation switch 75 (FIG. 2) that operates when pressed, the operation switch 75 is turned on when the distal end portion 71 is pressed against the wall or the screen SC. become. The indicator 70 is operated so that the user holds the rod-shaped shaft portion 72 in his / her hand and brings the tip portion 71 into contact with the screen SC, and an operation of pressing the tip portion 71 against the screen SC is also performed. The distal end portion 71 includes a transmission / reception unit 74 (FIG. 2) that emits infrared light. The projector 10 detects the position of the distal end portion 71 as the indication position based on the infrared light emitted from the indicator 70.

また、ユーザーの手指である指示体80で位置指示操作を行う場合、ユーザーは指をスクリーンSCに接触させる。この場合、指示体80がスクリーンSCに接触した位置が検出される。すなわち、指示体80の先端(例えば、指先)がスクリーンSCに接触するときに、光出射装置60が形成する光の層を遮る。このとき、光出射装置60が出射した光が指示体80に当たって反射し、反射光の一部は指示体80からプロジェクター10に向かって進む。プロジェクター10は、スクリーンSC側からの光、すなわち下方からの光を後述する位置検出部50により検出する機能を有するので、指示体80の反射光を検出できる。プロジェクター10は、指示体80で反射した反射光を検出することにより、指示体80によるスクリーンSCへの指示操作を検出する。また、プロジェクター10は指示体80により指示された指示位置を検出する。
光出射装置60が出射する光の層はスクリーンSCに近接しているので、指示体80において光が反射する位置は、スクリーンSCに最も近い先端、或いは指示位置と見なすことができる。このため、指示体80の反射光に基づき指示位置を特定できる。
Further, when a position indicating operation is performed with the indicator 80 that is a user's finger, the user brings the finger into contact with the screen SC. In this case, the position where the indicator 80 contacts the screen SC is detected. That is, when the tip (for example, fingertip) of the indicator 80 contacts the screen SC, the light layer formed by the light emitting device 60 is blocked. At this time, the light emitted from the light emitting device 60 strikes and reflects the indicator 80, and part of the reflected light travels from the indicator 80 toward the projector 10. Since the projector 10 has a function of detecting light from the screen SC side, that is, light from below by the position detection unit 50 described later, the reflected light of the indicator 80 can be detected. The projector 10 detects an instruction operation on the screen SC by the indicator 80 by detecting the reflected light reflected by the indicator 80. Further, the projector 10 detects the indicated position indicated by the indicator 80.
Since the light layer emitted from the light emitting device 60 is close to the screen SC, the position where the light is reflected by the indicator 80 can be regarded as the tip closest to the screen SC or the indication position. For this reason, the indicated position can be specified based on the reflected light of the indicator 80.

プロジェクションシステム1は、インタラクティブホワイトボードシステムとして機能し、ユーザーが指示体70、80により行った指示操作を検出して、指示位置を投射画像に反映させる。具体的には、プロジェクションシステム1は、指示位置に図形を描画したり文字や記号を配置したりする処理、指示位置の軌跡に沿って図形を描画する処理、描画した図形や配置した文字又は記号を消去する処理等を行う。また、スクリーンSCに描画された図形、配置された文字又は記号を画像データとして保存することもでき、外部の装置に出力することもできる。
さらに、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSCにプロジェクター10が画像を投射する画像投射領域における指示位置の座標を出力してもよい。また、この座標を用いてGUI(Graphical User Interface)操作を行ってもよい。
The projection system 1 functions as an interactive whiteboard system, detects an instruction operation performed by the user using the indicators 70 and 80, and reflects the indicated position on the projection image. Specifically, the projection system 1 performs a process of drawing a graphic or placing a character or a symbol at a designated position, a process of drawing a graphic along the locus of the designated position, a drawn figure, or a placed character or symbol. The process etc. which erases are performed. In addition, graphics drawn on the screen SC, arranged characters or symbols can be stored as image data, and can be output to an external device.
Further, it may operate as a pointing device by detecting the designated position, and output the coordinates of the designated position in the image projection area where the projector 10 projects an image on the screen SC. Further, a GUI (Graphical User Interface) operation may be performed using these coordinates.

図2は、プロジェクションシステム1を構成する各部の機能ブロック図である。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
FIG. 2 is a functional block diagram of each part constituting the projection system 1.
The projector 10 includes an I / F (interface) unit 11 and an image I / F (interface) unit 12 as interfaces connected to external devices. The I / F unit 11 and the image I / F unit 12 may include a connector for wired connection, and may include an interface circuit corresponding to the connector. The I / F unit 11 and the image I / F unit 12 may include a wireless communication interface. Examples of the connector and interface circuit for wired connection include those based on wired LAN, IEEE 1394, USB, and the like. Examples of the wireless communication interface include those that comply with a wireless LAN, Bluetooth (registered trademark), or the like. The image I / F unit 12 may be an image data interface such as an HDMI (registered trademark) interface. The image I / F unit 12 may include an interface through which audio data is input.

I/F部11は、PC等の外部の装置との間で各種データを送受信するインターフェイスである。I/F部11は、画像の投射に関する制御データ、プロジェクター10の動作を設定する設定データ、プロジェクター10が検出した指示位置の座標データ等を入出力する。後述する制御部30は、I/F部11を介して外部の装置とデータを送受信する機能を有する。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
The I / F unit 11 is an interface that transmits and receives various data to and from an external device such as a PC. The I / F unit 11 inputs and outputs control data related to image projection, setting data for setting the operation of the projector 10, coordinate data of the designated position detected by the projector 10, and the like. The control unit 30 described later has a function of transmitting / receiving data to / from an external device via the I / F unit 11.
The image I / F unit 12 is an interface through which digital image data is input. The projector 10 of the present embodiment projects an image based on digital image data input via the image I / F unit 12. The projector 10 may have a function of projecting an image based on the analog image signal. In this case, the image I / F unit 12 converts the analog image signal into digital image data and an analog image interface. And an A / D conversion circuit.

プロジェクター10は、光学的な画像の形成を行う投射部20を備える。投射部20は、光源部21、光変調装置22及び投射光学系23を有する。光源部21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、或いはレーザー光源等からなる光源を備える。また、光源部21は、光源が発した光を光変調装置22に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
The projector 10 includes a projection unit 20 that forms an optical image. The projection unit 20 includes a light source unit 21, a light modulation device 22, and a projection optical system 23. The light source unit 21 includes a light source including a xenon lamp, an ultra high pressure mercury lamp, an LED (Light Emitting Diode), a laser light source, or the like. The light source unit 21 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 22. Further, a lens group (not shown) for enhancing the optical characteristics of the projection light, a polarizing plate, or a dimming element that reduces the amount of light emitted from the light source on the path to the light modulation device 22 may be provided. Good.
The light modulation device 22 includes, for example, three transmissive liquid crystal panels corresponding to the three primary colors of RGB, and generates image light by modulating light transmitted through the liquid crystal panel. The light from the light source unit 21 is separated into three color lights of RGB, and each color light enters each corresponding liquid crystal panel. The color light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 23.

投射光学系23は、光変調装置22により変調された画像光をスクリーンSC方向へ導き、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系23は、スクリーンSCの投射画像の拡大・縮小及び焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。プロジェクター10が短焦点型である場合、投射光学系23に、画像光をスクリーンSCに向けて反射する凹面鏡を備えていてもよい。   The projection optical system 23 includes a lens group that guides the image light modulated by the light modulation device 22 toward the screen SC and forms an image on the screen SC. Further, the projection optical system 23 may include a zoom mechanism for enlarging / reducing the projected image on the screen SC and adjusting the focus, and a focus adjusting mechanism for adjusting the focus. When the projector 10 is a short focus type, the projection optical system 23 may include a concave mirror that reflects image light toward the screen SC.

投射部20には、制御部30の制御に従って光源部21を点灯させる光源駆動部45、及び制御部30の制御に従って光変調装置22を動作させる光変調装置駆動部46が接続される。光源駆動部45は、光源部21の点灯/消灯の切り替えを行い、光源部21の光量を調整する機能を有していてもよい。   The projection unit 20 is connected to a light source drive unit 45 that turns on the light source unit 21 according to the control of the control unit 30 and a light modulation device drive unit 46 that operates the light modulation device 22 according to the control of the control unit 30. The light source drive unit 45 may have a function of switching on / off the light source unit 21 and adjusting the light amount of the light source unit 21.

プロジェクター10は、投射部20が投射する画像を処理する画像処理系を備える。この画像処理系は、プロジェクター10を制御する制御部30、記憶部110、操作検出部17、画像処理部40、光源駆動部45及び光変調装置駆動部46を含む。また、画像処理部40にはフレームメモリー44が接続され、制御部30には姿勢センサー47、出射装置駆動部(第2送信部)48及び位置検出部50が接続される。これらの各部を画像処理系に含めてもよい。   The projector 10 includes an image processing system that processes an image projected by the projection unit 20. The image processing system includes a control unit 30 that controls the projector 10, a storage unit 110, an operation detection unit 17, an image processing unit 40, a light source driving unit 45, and a light modulation device driving unit 46. Further, a frame memory 44 is connected to the image processing unit 40, and an attitude sensor 47, an emission device driving unit (second transmission unit) 48, and a position detection unit 50 are connected to the control unit 30. These units may be included in the image processing system.

制御部30は、所定の制御プログラム111を実行することにより、プロジェクター10の各部を制御する。記憶部110は、制御部30が実行する制御プログラム111、及び制御部30が処理するデータを不揮発的に記憶する。記憶部110は、プロジェクター10の動作を設定するための画面の設定画面データ115、及び設定画面データ115を利用して設定された内容を示す設定データ116を記憶する。記憶部110は、この他に、オートキャリブレーション画像121、マニュアルキャリブレーション画像122を記憶する。さらに、記憶部110は、オートキャリブレーションデータ123、マニュアルキャリブレーションデータ124、初期補正データ125、マニュアル補正データ126を記憶する。これらのデータの詳細については、後述する。   The control unit 30 controls each unit of the projector 10 by executing a predetermined control program 111. The storage unit 110 stores the control program 111 executed by the control unit 30 and the data processed by the control unit 30 in a nonvolatile manner. The storage unit 110 stores setting screen data 115 of a screen for setting the operation of the projector 10 and setting data 116 indicating contents set using the setting screen data 115. In addition to this, the storage unit 110 stores an auto calibration image 121 and a manual calibration image 122. Further, the storage unit 110 stores auto calibration data 123, manual calibration data 124, initial correction data 125, and manual correction data 126. Details of these data will be described later.

画像処理部40は、制御部30の制御に従って、画像I/F部12を介して入力される画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
The image processing unit 40 processes the image data input via the image I / F unit 12 under the control of the control unit 30, and outputs an image signal to the light modulation device driving unit 46. The processing executed by the image processing unit 40 includes 3D (stereoscopic) image and 2D (planar) image discrimination processing, resolution conversion processing, frame rate conversion processing, distortion correction processing, digital zoom processing, color tone correction processing, luminance correction processing, and the like. is there. The image processing unit 40 executes processing designated by the control unit 30 and performs processing using parameters input from the control unit 30 as necessary. Of course, it is also possible to execute a combination of a plurality of processes.
The image processing unit 40 is connected to the frame memory 44. The image processing unit 40 expands the image data input from the image input I / F 12 in the frame memory 44, and executes the various processes described above on the expanded image data. The image processing unit 40 reads out the processed image data from the frame memory 44, generates R, G, B image signals corresponding to the image data, and outputs them to the light modulation device driving unit 46.
The light modulation device driving unit 46 is connected to the liquid crystal panel of the light modulation device 22. The light modulator driving unit 46 drives the liquid crystal panel based on the image signal input from the image processing unit 40 and draws an image on each liquid crystal panel.

操作検出部17は、入力デバイスとして機能するリモコン受光部18及び操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部18によって受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
The operation detection unit 17 is connected to a remote control light receiving unit 18 and an operation panel 19 that function as an input device, and detects an operation via the remote control light reception unit 18 and the operation panel 19.
The remote control light receiving unit 18 receives, by the remote control light receiving unit 18, an infrared signal transmitted in response to a button operation by a remote control (not shown) used by the user of the projector 10. The remote control light receiving unit 18 decodes the infrared signal received from the remote control, generates operation data indicating the operation content of the remote control, and outputs the operation data to the control unit 30.
The operation panel 19 is provided in the exterior housing of the projector 10 and has various switches and indicator lamps. The operation detection unit 17 appropriately turns on and off the indicator lamp of the operation panel 19 according to the operation state and setting state of the projector 10 according to the control of the control unit 30. When the switch of the operation panel 19 is operated, operation data corresponding to the operated switch is output from the operation detection unit 17 to the control unit 30.

出射装置駆動部48は、接続部49を介して光出射装置60に接続される。接続部49は、例えば複数のピンを有するコネクターであり、接続部49には光出射装置60がケーブル60aを介して接続される。出射装置駆動部48は、制御部30の制御に従ってパルス信号を生成し、接続部49を介して光出射装置60に出力する。また、出射装置駆動部48は接続部49を介して光出射装置60に電源を供給する。   The emission device driving unit 48 is connected to the light emission device 60 via the connection unit 49. The connection portion 49 is a connector having a plurality of pins, for example, and the light emitting device 60 is connected to the connection portion 49 via a cable 60a. The emission device driving unit 48 generates a pulse signal according to the control of the control unit 30 and outputs the pulse signal to the light emission device 60 via the connection unit 49. Further, the emission device driving unit 48 supplies power to the light emission device 60 through the connection unit 49.

光出射装置60は、図1に示すように略箱形のケースに、光源部61及び光学部品を収容して構成される。本実施形態の光出射装置60は、光源部61に、赤外光を発する固体光源(不図示)を備える。固体光源が発する赤外光は、平行化レンズ及びパウエルレンズによって拡散され、スクリーンSCに沿った面を形成する。また、光源部61が複数の固体光源を備え、これら複数の固体光源が発する光をそれぞれ拡散させることによって、スクリーンSCの画像投射範囲を覆うように光の層を形成してもよい。また、光出射装置60は、光源部61が発する光の層とスクリーンSCとの間の距離や角度を調整する調整機構を備えていてもよい。   As shown in FIG. 1, the light emitting device 60 is configured by housing a light source unit 61 and optical components in a substantially box-shaped case. The light emitting device 60 of the present embodiment includes a solid light source (not shown) that emits infrared light in the light source unit 61. Infrared light emitted from the solid-state light source is diffused by the collimating lens and the Powell lens to form a surface along the screen SC. The light source unit 61 may include a plurality of solid light sources, and a light layer may be formed so as to cover the image projection range of the screen SC by diffusing light emitted from the plurality of solid light sources. The light emitting device 60 may include an adjustment mechanism that adjusts the distance and angle between the light layer emitted from the light source unit 61 and the screen SC.

光出射装置60は、出射装置駆動部48から供給されるパルス信号及び電源により、光源部61を点灯させる。光源部61が点灯及び消灯するタイミングは、出射装置駆動部48が制御する。制御部30は、出射装置駆動部48を制御して、後述する撮像部51が撮影を行うタイミングに同期して光源部61を点灯させる。   The light emitting device 60 turns on the light source unit 61 by the pulse signal and the power source supplied from the emitting device driving unit 48. The emission device driving unit 48 controls the timing at which the light source unit 61 is turned on and off. The control unit 30 controls the emission device driving unit 48 to turn on the light source unit 61 in synchronization with the timing when the imaging unit 51 described later performs imaging.

位置検出部50は、指示体70、80によるスクリーンSCへの操作を検出する。位置検出部50は、撮像部(撮影部)51、送信部(第1送信部)52、撮影制御部53、撮影画像データ処理部56、フレームメモリー58、指示体検出部54及び座標算出部55の各部を備えて構成される。
撮像部51は、指示体70、80の指示位置を検出するために、スクリーンSCとその周辺部(検出領域)を撮影範囲として撮影する。また、撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。
The position detection unit 50 detects an operation on the screen SC by the indicators 70 and 80. The position detection unit 50 includes an imaging unit (imaging unit) 51, a transmission unit (first transmission unit) 52, an imaging control unit 53, a captured image data processing unit 56, a frame memory 58, a pointer detection unit 54, and a coordinate calculation unit 55. It comprises each part of.
The imaging unit 51 captures the screen SC and its peripheral part (detection area) as an imaging range in order to detect the indication positions of the indicators 70 and 80. The imaging unit 51 includes an imaging optical system, an imaging element, an interface circuit, and the like, and captures the projection direction of the projection optical system 23. The imaging optical system of the imaging unit 51 is arranged so as to face substantially the same direction as the projection optical system 23, and has an angle of view that covers a range in which the projection optical system 23 projects an image on the screen SC. Examples of the imaging device include a CCD and a CMOS that receive light in the infrared region and the visible light region. The imaging unit 51 may include a filter that blocks a part of the light incident on the imaging element. For example, when receiving infrared light, a filter that mainly transmits infrared light is provided in front of the imaging element. May be arranged. Further, the interface circuit of the imaging unit 51 reads and outputs the detection value of the imaging element.

撮影制御部53は、撮像部51により撮影を実行させて撮影画像データを生成する。撮像素子が可視光による撮影を行うと、スクリーンSC上に投射された画像が撮影される。例えば、後述するオートキャリブレーションの画像は、可視光で撮影される。また、撮影制御部53は、撮像部51により赤外光を撮影させることができ、この場合の撮影画像には指示体70が発する赤外光(赤外線信号)や、指示体80に反射した反射光が写る。   The imaging control unit 53 causes the imaging unit 51 to perform imaging and generates captured image data. When the imaging device performs imaging with visible light, an image projected on the screen SC is captured. For example, an auto-calibration image to be described later is taken with visible light. In addition, the imaging control unit 53 can cause the imaging unit 51 to capture infrared light. In this case, the captured image includes infrared light (infrared signal) emitted from the indicator 70 or reflection reflected by the indicator 80. Light is reflected.

撮影画像データ処理部56は、撮像部51によって撮影され、撮影制御部53から取得した撮影画像データをフレームメモリー58に展開する。撮影画像データ処理部56は、後述するマスク画像を記憶しており、フレームメモリー58に展開された撮影画像データに、マスク画像を重ねてマスク処理を行う。撮影画像データ処理部56は、マスク処理後の撮影画像データを指示体検出部54に出力する。   The captured image data processing unit 56 develops the captured image data captured by the imaging unit 51 and acquired from the imaging control unit 53 in the frame memory 58. The captured image data processing unit 56 stores a mask image to be described later, and performs mask processing by superimposing the mask image on the captured image data developed in the frame memory 58. The captured image data processing unit 56 outputs the captured image data after the mask processing to the indicator detection unit 54.

指示体検出部54は、撮影制御部53が撮影した撮影画像データに基づいて、スクリーンSCの位置に応じて異なる濃度しきい値を用いて、指示体70、80の指示位置を検出する。濃度しきい値は、撮像部51からスクリーンSC上の各位置までの距離に応じて異なる値に設定されている。より具体的には、濃度しきい値は、撮像部51との距離が近づくに従って、値が大きくなるように設定されている。濃度しきい値と、濃度しきい値を用いて撮影画像データから指示体70、80の指示位置を検出する処理との詳細につては、図15を参照しながら後ほど説明する。
指示体検出部54は、撮影制御部53が撮像部51によって赤外光の撮影を実行させた場合の撮影画像データから、指示体70が発した赤外光の像と、指示体80に反射した反射光の像との少なくとも一方を検出する。さらに、指示体検出部54は、検出した像を、指示体70が発した光の像であるか、指示体80の反射光の像であるか判別してもよい。
座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70、80の指示位置の座標を算出して、制御部30に出力する。座標算出部55は、また、投射部20が投射した投射画像における指示体70、80の指示位置の座標を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70、80の指示位置の座標や、画像I/F部12の入力画像データにおける指示体70、80の指示位置の座標を、算出してもよい。
The indicator detection unit 54 detects the indication positions of the indicators 70 and 80 using density threshold values that differ depending on the position of the screen SC based on the captured image data captured by the imaging control unit 53. The density threshold value is set to a different value depending on the distance from the imaging unit 51 to each position on the screen SC. More specifically, the density threshold value is set so that the value increases as the distance from the imaging unit 51 decreases. Details of the density threshold and the process of detecting the designated positions of the indicators 70 and 80 from the captured image data using the density threshold will be described later with reference to FIG.
The indicator detection unit 54 reflects the image of the infrared light emitted by the indicator 70 and the reflection of the indicator 80 from the captured image data when the imaging control unit 53 causes the imaging unit 51 to perform infrared imaging. At least one of the reflected light image is detected. Further, the indicator detection unit 54 may determine whether the detected image is an image of light emitted from the indicator 70 or an image of reflected light from the indicator 80.
The coordinate calculation unit 55 calculates the coordinates of the pointing positions of the pointers 70 and 80 in the captured image data based on the position of the image detected by the pointer detection unit 54 and outputs the calculated coordinates to the control unit 30. The coordinate calculation unit 55 may also calculate the coordinates of the indication positions of the indicators 70 and 80 in the projection image projected by the projection unit 20 and output them to the control unit 30. Further, the coordinate calculation unit 55 is configured to display the coordinates of the pointing positions of the indicators 70 and 80 in the image data drawn by the image processing unit 40 in the frame memory 44 and the indicators 70 and 80 in the input image data of the image I / F unit 12. The coordinates of the designated position may be calculated.

送信部52は、指示体検出部54の制御に従って、指示体70に対して赤外線信号を送信する。送信部52は、赤外LED等の光源を有し、この光源を指示体検出部54の制御に従って点灯及び消灯させる。   The transmission unit 52 transmits an infrared signal to the indicator 70 according to the control of the indicator detection unit 54. The transmission unit 52 has a light source such as an infrared LED, and turns on and off the light source according to the control of the indicator detection unit 54.

また、指示体70は、制御部73、送受信部74、操作スイッチ75及び電源部76を備え、これらの各部は軸部72(図1)に収容される。制御部73は、送受信部74及び操作スイッチ75に接続され、操作スイッチ75のオン/オフ状態を検出する。送受信部74は、赤外LED等の光源と、赤外光を受光する受光素子とを備え、制御部73の制御に従って光源を点灯及び消灯させるとともに、受光素子の受光状態を示す信号を制御部73に出力する。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
Moreover, the indicator 70 is provided with the control part 73, the transmission / reception part 74, the operation switch 75, and the power supply part 76, and these each part is accommodated in the axial part 72 (FIG. 1). The control unit 73 is connected to the transmission / reception unit 74 and the operation switch 75 and detects the on / off state of the operation switch 75. The transmission / reception unit 74 includes a light source such as an infrared LED and a light receiving element that receives infrared light. To 73.
The power supply unit 76 includes a dry battery or a secondary battery as a power supply, and supplies power to the control unit 73, the transmission / reception unit 74, and the operation switch 75.
The indicator 70 may include a power switch that turns on / off the power supply from the power supply unit 76.

ここで、位置検出部50と指示体70との相互の通信により、撮像部51の撮影画像データから指示体70を特定する方法について説明する。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンは、光源の点灯と消灯をデータのオンとオフに対応させて、指示体70に固有のデータを表す。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
Here, a method of specifying the indicator 70 from the captured image data of the imaging unit 51 by mutual communication between the position detection unit 50 and the indicator 70 will be described.
When detecting the position pointing operation by the pointer 70, the control unit 30 controls the pointer detection unit 54 to transmit a synchronization signal from the transmission unit 52. That is, the indicator detection unit 54 turns on the light source of the transmission unit 52 at a predetermined period in accordance with the control of the control unit 30. The infrared light periodically emitted from the transmission unit 52 functions as a synchronization signal that synchronizes the position detection unit 50 and the indicator 70.
On the other hand, after the supply of power from the power supply unit 76 is started and a predetermined initialization operation is performed, the control unit 73 receives infrared light emitted from the transmission unit 52 of the projector 10 by the transmission / reception unit 74. When the transmission / reception unit 74 receives infrared light periodically generated by the transmission unit 52, the control unit 73 lights the light source of the transmission / reception unit 74 in a preset lighting pattern in synchronization with the timing of the infrared light. (Light emission). This lighting pattern represents data specific to the indicator 70 by turning on and off the light source corresponding to ON and OFF of the data. The control unit 73 turns on and off the light source in accordance with the set pattern turn-on time and turn-off time. The control unit 73 repeatedly executes the above pattern while power is supplied from the power supply unit 76.
That is, the position detection unit 50 periodically transmits an infrared signal for synchronization to the indicator 70, and the indicator 70 synchronizes with the infrared signal transmitted by the position detection unit 50 to set the infrared signal set in advance. Send.

位置検出部50の撮影制御部53は、撮像部51による撮影タイミングを、指示体70が点灯するタイミングに合わせる制御を行う。この撮影タイミングは、指示体検出部54が送信部52を点灯させるタイミングに基づいて決定される。指示体検出部54は、撮像部51の撮影画像データに指示体70の光の像が写っているか否かにより、指示体70が点灯するパターンを特定できる。
指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、又は複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
The shooting control unit 53 of the position detection unit 50 performs control to match the shooting timing of the imaging unit 51 with the timing when the indicator 70 is turned on. This shooting timing is determined based on the timing when the indicator detection unit 54 turns on the transmission unit 52. The indicator detection unit 54 can specify a pattern in which the indicator 70 is turned on depending on whether or not the image of the light of the indicator 70 is captured in the captured image data of the imaging unit 51.
The pattern in which the indicator 70 is lit may include a pattern unique to each individual indicator 70, or a pattern common to a plurality of indicators 70 and a pattern unique to each individual. In this case, the indicator detection unit 54 can distinguish each image as an image of a different indicator 70 when the captured image data includes images of infrared light emitted from the plurality of indicators 70.

また、制御部30は、出射装置駆動部48を制御して、光源部61の点灯のタイミングを撮像部51の撮影のタイミングに同期させる。光源部61が、撮像部51の撮影タイミングに合わせてパルス点灯すると、指示体80がスクリーンSC上を指し示す場合には、撮像部51の撮影画像に指示体80の反射光が写る。光源部61を、指示体70の点灯のタイミングと区別できるパターンで点灯させれば、指示体検出部54は、撮影画像データに写る像が指示体70であるか指示体80であるかを判定できる。例えば、撮像部51の撮影タイミングの全てに同期して指示体70を点灯させ、光源部61については「1010101010」(1は点灯を、0は消灯を示す)のパターンで点灯させる場合を考える。この場合、光源部61が点灯していないときに撮影された像は、指示体70によるものであると判断できる。   In addition, the control unit 30 controls the emission device driving unit 48 to synchronize the lighting timing of the light source unit 61 with the imaging timing of the imaging unit 51. When the light source unit 61 turns on the pulse in synchronization with the imaging timing of the imaging unit 51, the reflected light of the indicator 80 appears in the captured image of the imaging unit 51 when the indicator 80 points on the screen SC. When the light source unit 61 is turned on in a pattern that can be distinguished from the lighting timing of the indicator 70, the indicator detection unit 54 determines whether the image shown in the captured image data is the indicator 70 or the indicator 80. it can. For example, consider a case in which the indicator 70 is turned on in synchronization with all the shooting timings of the imaging unit 51 and the light source unit 61 is turned on in a pattern of “1010101010” (1 indicates lighting and 0 indicates light extinction). In this case, it can be determined that the image taken when the light source unit 61 is not lit is due to the indicator 70.

さらに、指示体70が備える制御部73は、操作スイッチ75の操作状態に応じて、送受信部74を点灯させるパターンを切り替える。このため、指示体検出部54は、複数の撮影画像データに基づいて、指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。   Further, the control unit 73 included in the indicator 70 switches the pattern for lighting the transmission / reception unit 74 according to the operation state of the operation switch 75. For this reason, the indicator detection unit 54 can determine the operating state of the indicator 70, that is, whether or not the distal end portion 71 is pressed against the screen SC, based on a plurality of captured image data.

姿勢センサー47は、加速度センサーやジャイロセンサー等により構成され、制御部30に対して検出値を出力する。姿勢センサー47はプロジェクター10の本体に対して、プロジェクター10の設置方向を識別可能なように固定される。
プロジェクター10は、図1に示したように壁面や天井面から吊り下げる吊り下げ設置の他に、スクリーンSCの下方から投射を行う設置状態、机の天面などの水平面をスクリーンSCとして使用する設置状態等で使用できる。プロジェクター10の設置状態によっては光出射装置60の使用に適さないことがある。例えば、下方からスクリーンSCに投射を行う場合、ユーザーの体が光出射装置60の出射光を遮ってしまうことがあり、不適である。姿勢センサー47は、プロジェクター10の設置状態として想定される複数の設置状態を識別できるように、プロジェクター10の本体に設けられる。姿勢センサー47は、例えば、2軸のジャイロセンサー、1軸のジャイロセンサー、加速度センサー等を用いて構成される。制御部30は、姿勢センサー47の出力値に基づきプロジェクター10の設置状態を自動的に判定できる。制御部30が、光出射装置60の使用に不適な設置状態と判定した場合には、例えば、出射装置駆動部48が電源電圧やパルス信号の出力を停止する。
The attitude sensor 47 is configured by an acceleration sensor, a gyro sensor, or the like, and outputs a detection value to the control unit 30. The attitude sensor 47 is fixed to the main body of the projector 10 so that the installation direction of the projector 10 can be identified.
As shown in FIG. 1, the projector 10 is installed in a suspended state in which it is suspended from a wall surface or a ceiling surface, in an installation state in which projection is performed from below the screen SC, or in a horizontal plane such as the top surface of a desk. Can be used in situations. Depending on the installation state of the projector 10, the light emitting device 60 may not be suitable for use. For example, when the projection is performed on the screen SC from below, the user's body may block the emitted light of the light emitting device 60, which is inappropriate. The attitude sensor 47 is provided in the main body of the projector 10 so that a plurality of installation states assumed as the installation state of the projector 10 can be identified. The attitude sensor 47 is configured using, for example, a biaxial gyro sensor, a monoaxial gyro sensor, an acceleration sensor, or the like. The control unit 30 can automatically determine the installation state of the projector 10 based on the output value of the attitude sensor 47. When the control unit 30 determines that the installation state is inappropriate for the use of the light emitting device 60, for example, the emission device driving unit 48 stops outputting the power supply voltage and the pulse signal.

制御部30は、記憶部110に記憶された制御プログラム111を読み出して実行することにより投射制御部31、検出制御部32、出射制御部33及びキャリブレーション制御部39(マスク画像生成部)の機能を実現し、プロジェクター10の各部を制御する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
The control unit 30 reads and executes the control program 111 stored in the storage unit 110 to thereby execute functions of the projection control unit 31, the detection control unit 32, the emission control unit 33, and the calibration control unit 39 (mask image generation unit). To control each part of the projector 10.
The projection control unit 31 acquires the content of the operation performed by the user based on the operation data input from the operation detection unit 17. The projection control unit 31 controls the image processing unit 40, the light source driving unit 45, and the light modulation device driving unit 46 according to the operation performed by the user, and projects an image on the screen SC. The projection control unit 31 controls the image processing unit 40 to determine the above-described 3D (stereoscopic) image and 2D (planar) image, resolution conversion processing, frame rate conversion processing, distortion correction processing, digital zoom processing, and tone correction. Processing, brightness correction processing, and the like are executed. Further, the projection control unit 31 controls the light source driving unit 45 in accordance with the processing of the image processing unit 40 and controls the light amount of the light source unit 21.

検出制御部32は、位置検出部50を制御して、指示体70、80の操作位置の検出を実行させ、操作位置の座標を取得する。また、検出制御部32は、操作位置の座標とともに、指示体70の操作位置であるか指示体80の操作位置であるかを識別するデータ、及び操作スイッチ75の操作状態を示すデータを取得する。検出制御部32は、取得した座標及びデータに基づいて、予め設定された処理を実行する。例えば、画像処理部40によって、取得した座標に基づいて図形を描画させ、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる処理を行う。また、検出制御部32は、取得した座標をI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部32は、取得した座標を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部32は、座標のデータとともに、指示体70の操作位置であるか指示体80の操作位置であるかを識別するデータ、及び操作スイッチ75の操作状態を示すデータを出力してもよい。   The detection control unit 32 controls the position detection unit 50 to detect the operation positions of the indicators 70 and 80 and acquires the coordinates of the operation positions. Further, the detection control unit 32 obtains data for identifying whether it is the operation position of the indicator 70 or the operation position of the indicator 80 and data indicating the operation state of the operation switch 75 together with the coordinates of the operation position. . The detection control unit 32 executes a preset process based on the acquired coordinates and data. For example, the image processing unit 40 performs a process of drawing a figure based on the acquired coordinates and superimposing the drawn figure on an input image input to the image I / F unit 12 and projecting it. The detection control unit 32 may output the acquired coordinates to an external device such as a PC connected to the I / F unit 11. In this case, the detection control unit 32 may convert the acquired coordinates into a data format recognized as an input of the coordinate input device in the operating system of the external device connected to the I / F unit 11 and output the converted data. Good. For example, when a PC operating on a Windows (registered trademark) operating system is connected to the I / F unit 11, data processed as input data of HID (Human Interface Device) in the operating system is output. Further, the detection control unit 32 outputs the data indicating the operation position of the indicator 70 or the operation position of the indicator 80 and the data indicating the operation state of the operation switch 75 together with the coordinate data. Also good.

また、検出制御部32は、指示体80を使用した位置検出を制御する。具体的には、検出制御部32は、光出射装置60の接続の有無に基づき、光出射装置60を使用できるか否かを判定する。検出制御部32は、光出射装置60を使用できない場合に、光出射装置60の使用を不可とする設定を行う。ここで、検出制御部32は、光出射装置60を使用できないことを報知してもよい。   Further, the detection control unit 32 controls position detection using the indicator 80. Specifically, the detection control unit 32 determines whether or not the light emitting device 60 can be used based on whether or not the light emitting device 60 is connected. When the light emitting device 60 cannot be used, the detection control unit 32 performs setting so that the light emitting device 60 cannot be used. Here, the detection control unit 32 may notify that the light emitting device 60 cannot be used.

出射制御部33は、出射装置駆動部48を制御して、接続部49に接続された光出射装置60に対する電源及びパルス信号の出力を実行又は停止させる。出射制御部33は、検出制御部32の制御により、光出射装置60を使用できない又は使用しない場合に、出射装置駆動部48の電源及びパルス信号の出力を停止させる。また、光出射装置60を使用する場合、出射制御部33は出射装置駆動部48の電源及びパルス信号を出力させる。   The emission control unit 33 controls the emission device driving unit 48 to execute or stop the output of the power source and the pulse signal to the light emission device 60 connected to the connection unit 49. The emission control unit 33 controls the detection control unit 32 to stop the power supply of the emission device driving unit 48 and the output of the pulse signal when the light emission device 60 cannot be used or is not used. When the light emitting device 60 is used, the emission control unit 33 outputs the power supply and pulse signal of the emission device driving unit 48.

キャリブレーション制御部39は、指示体70及び指示体80の指示位置を検出して、画像I/F部12の入力画像における座標に変換するためのキャリブレーションを実行する。   The calibration control unit 39 detects the indication positions of the indicator 70 and the indicator 80 and executes calibration for conversion into coordinates in the input image of the image I / F unit 12.

図3に示すフローチャート及び各図を参照しながら、制御部30の処理手順、特にキャリブレーション制御部39の処理手順を説明する。   The processing procedure of the control unit 30, particularly the processing procedure of the calibration control unit 39, will be described with reference to the flowchart shown in FIG.

キャリブレーションは、プロジェクター10を最初に使用する際に初期設定の1つとして実行される。キャリブレーションは、例えば、フレームメモリー44に描画され投射部20が投射する画像における位置と、撮像部51が撮影する撮影画像データ上の位置とを対応付ける処理である。位置検出部50が撮影画像データから検出する指示体70、80の指示位置は、撮影画像データにおける位置であり、例えば撮影画像に設定される座標系における座標で示される。ユーザーはスクリーンSCに投射された投射画像を意識して指示体70、80で指示を行う。従って、プロジェクター10は、スクリーンSC上の投射画像に対する指示位置を特定する必要がある。キャリブレーションによって、撮影画像データで検出された位置の座標を投射画像データ上の座標に変換できる。この対応づけを行うデータをキャリブレーションデータとする。キャリブレーションデータは、撮影制御部53が出力する撮影画像データ上の座標と投射画像上の座標とを対応付けるデータである。具体的には、撮影画像データ上の座標と投射画像上の座標とを1対1で対応付けるテーブルであってもよいし、撮影画像データ上の座標を投射画像上の座標に変換する関数であってもよい。   The calibration is executed as one of initial settings when the projector 10 is used for the first time. For example, the calibration is a process of associating a position in an image drawn in the frame memory 44 and projected by the projection unit 20 with a position on the captured image data captured by the imaging unit 51. The indication positions of the indicators 70 and 80 detected by the position detection unit 50 from the photographed image data are positions in the photographed image data, and are indicated by coordinates in a coordinate system set for the photographed image, for example. The user gives instructions using the indicators 70 and 80 in consideration of the projection image projected on the screen SC. Therefore, the projector 10 needs to specify the designated position for the projection image on the screen SC. By calibration, the coordinates of the position detected in the captured image data can be converted into the coordinates on the projection image data. Data for performing this association is referred to as calibration data. The calibration data is data that associates the coordinates on the photographed image data output from the photographing control unit 53 with the coordinates on the projection image. Specifically, it may be a table in which the coordinates on the captured image data and the coordinates on the projected image are associated one-to-one, or a function that converts the coordinates on the captured image data into the coordinates on the projected image. May be.

キャリブレーション制御部39は、指示体の種類に応じてキャリブレーションを実行する。すなわち、指示体70の指示位置の検出に関するキャリブレーションと、指示体80の指示位置の検出に関するキャリブレーションとの2つを実行する。
図4は、指示体70、80の指示位置を検出する様子を示す説明図であり、(A)は指示体70の指示位置を検出する様子を示し、(B)は指示体80の指示位置を検出する様子を示す。
図4(A)には撮像部51がスクリーンSCを撮影する撮影方向を符号PAで示す。指示体70の位置検出を行う場合、送受信部74は、指示体70の先端の発光位置70aから赤外光を出射する。発光位置70aは、指示体70がスクリーンSCに接する接触点70bに非常に近い。このため、撮影方向PAから撮影した撮影画像データから指示体70が発する光の像を検出する場合、この像の位置を、接触点70bの位置とみなすことができる。
The calibration control unit 39 executes calibration according to the type of the indicator. That is, two calibrations are executed: calibration relating to detection of the indicated position of the indicator 70 and calibration relating to detection of the indicated position of the indicator 80.
4A and 4B are explanatory diagrams showing how the pointing positions of the pointers 70 and 80 are detected. FIG. 4A shows how the pointing position of the pointer 70 is detected. FIG. 4B shows the pointing position of the pointer 80. A state of detecting is shown.
In FIG. 4A, the imaging direction in which the imaging unit 51 captures the screen SC is indicated by symbol PA. When detecting the position of the indicator 70, the transmission / reception unit 74 emits infrared light from the light emission position 70 a at the tip of the indicator 70. The light emission position 70a is very close to the contact point 70b where the indicator 70 contacts the screen SC. For this reason, when detecting an image of light emitted from the indicator 70 from the captured image data captured from the imaging direction PA, the position of this image can be regarded as the position of the contact point 70b.

これに対し、図4(B)に示すように指示体80の指示位置を検出する場合、光出射装置60が出射する検出光Lを指示体80が反射した反射光を検出する。すなわち、撮影方向PAから撮影される撮影画像データから、検出光Lの反射光の像が検出される。検出光Lの出射方向はスクリーンSCとほぼ平行であり、検出光LはスクリーンSCから所定の距離(以下、距離G1とする)だけ離れている。距離G1はスクリーンSCに対する光出射装置60の取付位置により変化するが、構造上、距離G1をゼロにすることは困難である。このため、撮影方向PAから撮影した撮影画像データには、指示体80の先端において、スクリーンSCから距離G1だけ離れた反射位置80cで反射した反射光の像が写る。
図4(B)に示すように、反射位置80cは、撮影方向PAに対して斜めの方向に離れている。このため、撮影画像データに写る反射光の像の位置は、撮影方向PAにおいて、より離れた位置を指示体70で指示した場合の像と同じ位置になる。つまり、指示体80が接触点80bでスクリーンSCに接触した場合の反射光と、指示体70が接触点70bでスクリーンSCに接触した場合の光とが、撮像部51の撮影画像データでは同じ位置に写る。このため、指示体80が指し示す接触点80bは、撮影方向PAにおいて撮像部51から離れた接触点70bとして検出され、距離G2のずれを生じる。
On the other hand, when the indication position of the indicator 80 is detected as shown in FIG. 4B, the reflected light reflected by the indicator 80 is detected from the detection light L emitted from the light emitting device 60. That is, the reflected light image of the detection light L is detected from the captured image data captured from the capturing direction PA. The emission direction of the detection light L is substantially parallel to the screen SC, and the detection light L is separated from the screen SC by a predetermined distance (hereinafter referred to as distance G1). Although the distance G1 varies depending on the mounting position of the light emitting device 60 with respect to the screen SC, it is difficult to make the distance G1 zero due to the structure. For this reason, in the captured image data captured from the capturing direction PA, an image of the reflected light reflected at the reflection position 80c separated from the screen SC by the distance G1 is captured at the tip of the indicator 80.
As shown in FIG. 4B, the reflection position 80c is separated in a direction oblique to the imaging direction PA. For this reason, the position of the image of the reflected light reflected in the captured image data is the same position as the image in the case where the indicator 70 indicates a more distant position in the capturing direction PA. That is, the reflected light when the indicator 80 contacts the screen SC at the contact point 80b and the light when the indicator 70 contacts the screen SC at the contact point 70b are the same position in the captured image data of the imaging unit 51. It is reflected in. For this reason, the contact point 80b pointed to by the indicator 80 is detected as the contact point 70b away from the imaging unit 51 in the shooting direction PA, and a shift of the distance G2 occurs.

距離G2のずれは、撮像部51が、スクリーンSCから離れた位置から斜めに撮影を行うことに起因する。例えば、図4(A)、(B)に示す撮影方向PAと指示体70、80との位置関係は、上下方向に限らず、水平方向においても同様に発生する。本実施形態では、図1に示したようにスクリーンSCの上方に位置するプロジェクター10の本体に設けられた1つの撮像部51が、スクリーンSCを俯瞰して撮影するため、上下及び水平の両方向において距離G2のずれが発生する。   The shift in the distance G2 is caused by the imaging unit 51 taking an image obliquely from a position away from the screen SC. For example, the positional relationship between the shooting direction PA and the indicators 70 and 80 shown in FIGS. 4A and 4B occurs not only in the vertical direction but also in the horizontal direction. In the present embodiment, as shown in FIG. 1, since one imaging unit 51 provided in the main body of the projector 10 located above the screen SC shoots the screen SC in an overhead view, both in the vertical and horizontal directions. A shift of the distance G2 occurs.

そこで、プロジェクター10は、指示体80の指示位置を検出する場合に、指示体70の指示位置を検出する場合と同様に指示位置を検出した後に、検出した位置を補正する。
具体的には、キャリブレーション制御部39が、指示体70の指示位置の検出に関するキャリブレーションを行うことにより、キャリブレーションデータを生成する。このキャリブレーションデータを使用すれば、例えば図4(A)に示すように、発光位置70aがスクリーンSCとの接触点70bに近い場合に、高精度で指示位置を検出できる。
Therefore, when detecting the indication position of the indicator 80, the projector 10 corrects the detected position after detecting the indication position in the same manner as when detecting the indication position of the indicator 70.
Specifically, the calibration control unit 39 generates calibration data by performing calibration relating to the detection of the indication position of the indicator 70. By using this calibration data, for example, as shown in FIG. 4A, when the light emission position 70a is close to the contact point 70b with the screen SC, the indicated position can be detected with high accuracy.

さらに、プロジェクター10は、指示体80の指示位置を検出する場合に、キャリブレーションデータにより求めた座標を補正する補正データを使用する。補正データは、具体的には、初期補正データ125及びマニュアル補正データ126である。
補正データは、図4(B)の距離G1を定めるデータとすることができる。この場合、撮影画像データ上の座標又は投射画像上の座標ごとに、距離G1の大きさを示すデータを対応付けるテーブル形式、或いはマップデータとすることができる。また、撮影画像データ上の座標又は投射画像上の座標において予め設定された代表点について、距離G1の大きさを示すデータを対応付けるテーブル形式とすることができる。代表点から外れた座標の距離G1の大きさを求める必要がある場合は、補正対象の座標に近い代表点の距離G1を適用する方法や、補間演算により代表点の距離G1から補正対象の座標の距離G1を求める方法を利用できる。
また、例えば、補正データは、撮影画像データ上で検出された座標、又はキャリブレーションデータに基づき得られた投射画像上の座標をシフトさせるデータであってもよい。具体的には、座標のシフト量を定めるデータであってもよいし、座標を補正する関数であってもよい。また、補正データを、撮影画像データ上の座標又は投射画像上の座標ごとに異なるシフト量を実現するデータとすることもできる。この場合、補正対象の座標に、座標のシフト量を対応付けたテーブルとしてもよい。このテーブルは、撮影画像データ上の座標又は投射画像上の座標から選択される代表点にシフト量を対応付けてもよい。代表点以外の座標を補正する場合には、補正対象の座標に近い代表点のシフト量を適用する方法や、補間演算により代表点のシフト量から補正対象の座標のシフト量を求める方法を利用できる。
Further, the projector 10 uses correction data for correcting the coordinates obtained from the calibration data when detecting the indication position of the indicator 80. Specifically, the correction data is initial correction data 125 and manual correction data 126.
The correction data can be data that defines the distance G1 in FIG. In this case, it is possible to use a table format or map data in which data indicating the size of the distance G1 is associated with each coordinate on the captured image data or each coordinate on the projection image. Moreover, it can be set as the table format which matches the data which show the magnitude | size of the distance G1 about the representative point preset in the coordinate on picked-up image data, or the coordinate on a projection image. When it is necessary to determine the size of the distance G1 of the coordinates deviating from the representative point, a method of applying the distance G1 of the representative point close to the coordinates to be corrected, or the coordinates of the correction target from the distance G1 of the representative points by interpolation calculation A method for obtaining the distance G1 can be used.
Further, for example, the correction data may be data that shifts coordinates detected on the captured image data or coordinates on the projection image obtained based on the calibration data. Specifically, it may be data for determining the shift amount of coordinates or a function for correcting coordinates. Further, the correction data may be data that realizes a different shift amount for each coordinate on the captured image data or each coordinate on the projection image. In this case, it is good also as a table which matched the shift amount of the coordinate with the coordinate of correction object. In this table, the shift amount may be associated with a representative point selected from the coordinates on the captured image data or the coordinates on the projection image. When correcting coordinates other than the representative point, use the method of applying the shift amount of the representative point close to the correction target coordinate, or the method of obtaining the shift amount of the correction target coordinate from the shift amount of the representative point by interpolation calculation. it can.

キャリブレーション制御部39は、指示体70の指示位置に関するキャリブレーションとして、オートキャリブレーションとマニュアルキャリブレーションとを実行できる。
オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射して、撮像部51で撮影し、撮影画像データを用いてキャリブレーションデータを生成する処理である。オートキャリブレーションは、プロジェクター10が自動的に実行可能な処理であり、ユーザーによる指示体70、80の操作を必要としない。オートキャリブレーションは、ユーザーがリモコンまたは操作パネル19で実行を指示した場合に限らず、制御部30が制御するタイミングで実行することもできる。例えば、プロジェクター10の電源オン直後等の動作開始時に行ってもよいし、後述する通常動作中に行ってもよい。オートキャリブレーションで投射されるオートキャリブレーション画像121は、予め記憶部110に記憶されている。
The calibration control unit 39 can execute auto calibration and manual calibration as calibration related to the indication position of the indicator 70.
Auto-calibration is a process of projecting an image for auto-calibration onto the screen SC, photographing it with the imaging unit 51, and generating calibration data using the photographed image data. The auto-calibration is a process that can be automatically executed by the projector 10 and does not require the user to operate the indicators 70 and 80. The auto calibration is not limited to the case where the user gives an instruction to execute using the remote controller or the operation panel 19, but can also be executed at a timing controlled by the control unit 30. For example, it may be performed at the start of operation such as immediately after the projector 10 is turned on, or may be performed during normal operation described later. The auto calibration image 121 projected by auto calibration is stored in the storage unit 110 in advance.

図5は、オートキャリブレーション画像121の一例を示す。オートキャリブレーション画像121には、複数のマーク(シンボル)が所定の間隔で配置されている。キャリブレーション画像中のマークは、撮影画像データから検出可能な図形や記号であり、その形状やサイズは特に限定されない。
図6は、スクリーンSCに投射されたオートキャリブレーション画像121を撮像部51により撮影した撮影画像データの一例を示す。撮像部51の撮影画像データは、プロジェクター10を図1に示すように吊り下げ設置した場合に、スクリーンSCの斜め上方から撮影されるので、歪んだ画像となる。図5には、等間隔でマークが並ぶ矩形のオートキャリブレーション画像121を例示したが、図6の撮影画像データでは歪んだ形状の画像が写っており、この画像の内部に並ぶマークの間隔は、マークの位置によって異なっている。
FIG. 5 shows an example of the auto calibration image 121. In the auto calibration image 121, a plurality of marks (symbols) are arranged at predetermined intervals. The mark in the calibration image is a figure or symbol that can be detected from the captured image data, and its shape and size are not particularly limited.
FIG. 6 shows an example of photographed image data obtained by photographing the auto calibration image 121 projected on the screen SC by the imaging unit 51. The captured image data of the imaging unit 51 is a distorted image because it is captured from obliquely above the screen SC when the projector 10 is suspended and installed as shown in FIG. FIG. 5 illustrates a rectangular auto-calibration image 121 in which marks are arranged at equal intervals. However, the photographed image data in FIG. 6 shows a distorted image, and the interval between the marks arranged in the image is as follows. , Depending on the position of the mark.

キャリブレーション制御部39は、投射制御部31の機能により、記憶部110に記憶されたオートキャリブレーション画像121に基づいて、画像処理部40及び投射部20を動作させて、オートキャリブレーション画像121をスクリーンSCに投射させる。キャリブレーション制御部39は、位置検出部50を制御して撮像部51に撮影を実行させ、撮影画像データを取得する。この撮影画像データは、撮影制御部53から、図示しないメモリーに一時的に記憶され、制御部30に出力される。キャリブレーション制御部39は、撮影画像データからマークを検出し、各マークの重心位置をマークの座標値として取得する。キャリブレーション制御部39は、撮影画像データから検出されたマークと、フレームメモリー44に描画された投射画像、すなわちオートキャリブレーション画像121のマークとを対応付ける。
キャリブレーション制御部39は、撮影画像におけるマークの座標値と、投射画像におけるマークの座標値とを対応付けることにより、テーブル形式または関数形式のオートキャリブレーションデータ123を作成する。オートキャリブレーション画像121のマークの投射画像における座標値は、予めオートキャリブレーション画像121とともに、或いはオートキャリブレーション画像121に含まれて記憶部110に記憶されている。キャリブレーション制御部39は、既にオートキャリブレーションデータ123が記憶されている場合、このオートキャリブレーションデータ123を更新する。
The calibration control unit 39 operates the image processing unit 40 and the projection unit 20 on the basis of the auto calibration image 121 stored in the storage unit 110 by the function of the projection control unit 31, and displays the auto calibration image 121. Project onto the screen SC. The calibration control unit 39 controls the position detection unit 50 to cause the imaging unit 51 to perform imaging and acquire captured image data. The captured image data is temporarily stored in a memory (not shown) from the imaging control unit 53 and output to the control unit 30. The calibration control unit 39 detects the mark from the captured image data, and acquires the position of the center of gravity of each mark as the coordinate value of the mark. The calibration control unit 39 associates the mark detected from the captured image data with the projected image drawn in the frame memory 44, that is, the mark of the auto calibration image 121.
The calibration control unit 39 creates auto-calibration data 123 in a table format or a function format by associating the coordinate value of the mark in the captured image with the coordinate value of the mark in the projection image. The coordinate value in the projected image of the mark of the auto calibration image 121 is stored in advance in the storage unit 110 together with the auto calibration image 121 or included in the auto calibration image 121. The calibration control unit 39 updates the auto calibration data 123 when the auto calibration data 123 is already stored.

図7に、キャリブレーションデータを登録したキャリブレーションデータ管理テーブルの一例を示す。図7に示すキャリブレーションデータ管理テーブルテーブルは、オートキャリブレーション画像121上に配置されたマークの識別番号と、各マークのオートキャリブレーション画像121上での中心座標とを対応づけて記録したテーブルである。キャリブレーションデータ管理テーブルは、オートキャリブレーション画像121に対応付けて記憶部110に記憶される。キャリブレーション管理テーブルには、各マークの識別番号に対応付けて、各マークのフレームメモリー44上での中心座標が記録されている。なお、各マークの位置座標として、中心座標に代えて、各マークの位置する範囲の座標値(X座標、Y座標における最大値、最小値)を記録しておくものであってもよい。このキャリブレーションデータ管理テーブルに記録された座標と、位置検出部50が撮影画像データから検出した座標とに基づき、撮影画像データ上の座標とフレームメモリー44上の座標とが対応付けられ、オートキャリブレーションデータ123が生成される。   FIG. 7 shows an example of a calibration data management table in which calibration data is registered. The calibration data management table table shown in FIG. 7 is a table in which the identification numbers of the marks arranged on the auto calibration image 121 and the center coordinates of each mark on the auto calibration image 121 are recorded in association with each other. is there. The calibration data management table is stored in the storage unit 110 in association with the auto calibration image 121. In the calibration management table, the center coordinates of each mark on the frame memory 44 are recorded in association with the identification number of each mark. As the position coordinates of each mark, instead of the center coordinates, coordinate values (maximum value and minimum value in the X coordinate and Y coordinate) of the range in which each mark is located may be recorded. Based on the coordinates recorded in the calibration data management table and the coordinates detected by the position detection unit 50 from the captured image data, the coordinates on the captured image data and the coordinates on the frame memory 44 are associated with each other, and auto calibration is performed. Action data 123 is generated.

キャリブレーション制御部39は1回のキャリブレーションを実行して、1つのオートキャリブレーションデータ123の作成又は更新を行う。又は、キャリブレーション制御部39は、オートキャリブレーション画像121を切り替えて複数の撮影と座標の対応づけを行う。そして、キャリブレーション制御部39は、複数のオートキャリブレーションで得られた対応づけの結果を統合して、より高精度のオートキャリブレーションデータ123を作成してもよい。   The calibration control unit 39 executes one calibration and creates or updates one auto calibration data 123. Alternatively, the calibration control unit 39 switches the auto-calibration image 121 and associates a plurality of shootings with coordinates. Then, the calibration control unit 39 may create the auto calibration data 123 with higher accuracy by integrating the association results obtained by the plurality of auto calibrations.

本実施形態では、記憶部110には、複数のオートキャリブレーション画像121が記憶されている。キャリブレーション制御部39は、記憶部110に記憶されたオートキャリブレーション画像121の中から1のオートキャリブレーション画像121を選択する。複数のオートキャリブレーション画像121を用意しておくことで、オートキャリブレーションを複数回行って、指示体70、80による指示座標の検出精度を高めることが可能になる。例えば、1回目のオートキャリブレーションと2回目のオートキャリブレーションとにおいて、マークの位置が異なるものを使用する。指示体70、80による指示座標の検出精度を高めるためには、マークにある程度の大きさ(面積)が必要となる。このため、オートキャリブレーションを2回に分けて、さらにオートキャリブレーション画像121上のマーク位置が異なるものを使用することで、指示体70、80による指示座標の検出精度を高めることができる。また、キャリブレーション制御部39は、1回のオートキャリブレーションで、複数のオートキャリブレーション画像121を用いてもよい。なお、図5には、X字形状のマークを用いた例を示したが、マークの形状、サイズ、オートキャリブレーション画像121に含まれるマークの数、マークの配置等も限定されない。   In the present embodiment, the storage unit 110 stores a plurality of auto calibration images 121. The calibration control unit 39 selects one auto calibration image 121 from the auto calibration images 121 stored in the storage unit 110. By preparing a plurality of auto-calibration images 121, it is possible to perform auto-calibration a plurality of times and increase the detection accuracy of the indicated coordinates by the indicators 70 and 80. For example, a mark having different mark positions is used in the first auto-calibration and the second auto-calibration. In order to increase the detection accuracy of the designated coordinates by the indicators 70 and 80, the mark needs to have a certain size (area). For this reason, the detection accuracy of the designated coordinates by the indicators 70 and 80 can be increased by dividing the auto calibration into two times and using the ones having different mark positions on the auto calibration image 121. The calibration control unit 39 may use a plurality of auto calibration images 121 in one auto calibration. Although FIG. 5 shows an example using X-shaped marks, the shape and size of the marks, the number of marks included in the auto-calibration image 121, the arrangement of the marks, and the like are not limited.

マニュアルキャリブレーションは、スクリーンSCに、マニュアルキャリブレーション用の画像を投射し、投射した画像に対応する指示体70の操作を検出して、マニュアルキャリブレーションデータを生成する処理である。
図8は、マニュアルキャリブレーション画像122の一例を示す。マニュアルキャリブレーション画像122は、ユーザーに指示体70で指示をさせるため、指示位置を示すマークを含む。図8のマニュアルキャリブレーション画像122は複数の指示用のマーク(○)が配置され、ユーザーは、マークの位置を指示体70で指示する。
Manual calibration is a process of projecting an image for manual calibration on the screen SC, detecting an operation of the indicator 70 corresponding to the projected image, and generating manual calibration data.
FIG. 8 shows an example of the manual calibration image 122. The manual calibration image 122 includes a mark indicating the indicated position in order to allow the user to make an instruction with the indicator 70. In the manual calibration image 122 of FIG. 8, a plurality of instruction marks (◯) are arranged, and the user indicates the position of the mark with the indicator 70.

マニュアルキャリブレーション画像122には複数のマークが含まれるが、これらのマークは、1つずつスクリーンSCに投射される。このため、マニュアルキャリブレーション画像122は、具体的にはマークの数が異なる複数の画像の組合せで構成される。
ユーザーはスクリーンSCにマークが表示される毎に、新たに表示されたマークを指示体70で指示する。キャリブレーション制御部39はユーザーが操作を行う毎に、指示位置を検出する。そして、キャリブレーション制御部39は、撮影画像で検出した指示位置と、フレームメモリー44に描画された投射画像、すなわちマニュアルキャリブレーション画像122のマークとを対応付ける。キャリブレーション制御部39は、撮影画像データで検出した指示位置の座標値と、投射画像上のマークの座標値とを対応付けることにより、マニュアルキャリブレーションデータ124を作成する。
マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123と同様のデータ形式とすることも可能であるが、オートキャリブレーションデータ123を補正する補正データとすることができる。オートキャリブレーションデータ123は、撮影画像上の座標を投射画像上の座標に変換するデータである。これに対し、マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123を用いて変換された後の座標を、さらに補正するデータである。
The manual calibration image 122 includes a plurality of marks, and these marks are projected onto the screen SC one by one. Therefore, the manual calibration image 122 is specifically composed of a combination of a plurality of images with different numbers of marks.
Each time a mark is displayed on the screen SC, the user designates the newly displayed mark with the indicator 70. The calibration control unit 39 detects the indicated position every time the user performs an operation. Then, the calibration control unit 39 associates the designated position detected in the captured image with the projected image drawn in the frame memory 44, that is, the mark of the manual calibration image 122. The calibration control unit 39 creates the manual calibration data 124 by associating the coordinate value of the indicated position detected from the captured image data with the coordinate value of the mark on the projection image.
The manual calibration data 124 can be in the same data format as the auto calibration data 123, but can be correction data for correcting the auto calibration data 123. The auto calibration data 123 is data for converting coordinates on the captured image into coordinates on the projected image. On the other hand, the manual calibration data 124 is data for further correcting the coordinates after conversion using the auto calibration data 123.

キャリブレーション制御部39は、指示体70の指示位置の検出に関するキャリブレーションを行う場合に、オートキャリブレーション又はマニュアルキャリブレーションを実行できる。記憶部110が、過去に生成されたオートキャリブレーションデータ123を記憶している場合には、オートキャリブレーションとマニュアルキャリブレーションを選択して実行できる。ここで、オートキャリブレーションが実行された場合、キャリブレーション制御部39は記憶部110のオートキャリブレーションデータ123を更新する。また、マニュアルキャリブレーションが実行された場合、マニュアルキャリブレーションデータ124が生成又は更新される。また、記憶部110にオートキャリブレーションデータ123が記憶されていない場合は、オートキャリブレーションを実行する必要がある。オートキャリブレーションデータ123が記憶されていない状態では、マニュアルキャリブレーションデータ124を使用できないためである。   The calibration control unit 39 can execute auto calibration or manual calibration when performing calibration related to detection of the pointing position of the pointer 70. When the storage unit 110 stores auto-calibration data 123 generated in the past, auto-calibration and manual calibration can be selected and executed. Here, when auto calibration is executed, the calibration control unit 39 updates the auto calibration data 123 in the storage unit 110. When manual calibration is executed, manual calibration data 124 is generated or updated. Further, when the auto calibration data 123 is not stored in the storage unit 110, it is necessary to execute auto calibration. This is because the manual calibration data 124 cannot be used when the auto-calibration data 123 is not stored.

キャリブレーション制御部39は、指示体80の指示位置の検出に関するキャリブレーションを、指示体70のマニュアルキャリブレーションと同様に実行できる。この場合、キャリブレーション制御部39は、マニュアル補正データ126を生成する。マニュアル補正データ126は、指示体80の指示位置を検出する場合に利用される。
マニュアル補正データ126は、図4(B)を参照して説明したように、指示体70の指示位置として検出した座標を、指示体80の指示位置の座標に補正するデータである。指示体80の指示位置の検出に関し、マニュアルキャリブレーションを行わない場合には、キャリブレーション制御部39は初期補正データ125を選択する。初期補正データ125は、図4(B)の距離G1を初期値にした場合の補正データであり、予め記憶部110に記憶される。光出射装置60の設置時には、スクリーンSCと検出光Lとの距離G1が、例えば10mm〜1mmとなるように調整され、実際にはスクリーンSCの面内で変化する。初期補正データ125は、距離G1の初期値を、例えば5mmに仮定した場合の補正データであり、初期補正データ125を使用すればマニュアルキャリブレーションを行わなくても指示体80の指示位置を検出できる。マニュアルキャリブレーションで作成されるマニュアル補正データ126を用いれば、距離G1の面内における差を反写した補正を行うことで、より高精度で指示体80の指示位置を検出できる。
つまり、検出制御部32は、位置検出部50の位置検出において、指示体70の指示位置を検出する場合には、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて指示位置の座標を求める。指示体80の指示位置を検出する場合、検出制御部32は、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて座標を求める処理で、初期補正データ125又はマニュアル補正データ126で補正を行う。言い換えれば、初期補正データ125及びマニュアル補正データ126は、指示体70の指示位置から指示体80の指示位置を求める差分のデータである。
The calibration control unit 39 can execute the calibration related to the detection of the indication position of the indicator 80 in the same manner as the manual calibration of the indicator 70. In this case, the calibration control unit 39 generates manual correction data 126. The manual correction data 126 is used when detecting the indication position of the indicator 80.
As described with reference to FIG. 4B, the manual correction data 126 is data for correcting the coordinates detected as the indication position of the indicator 70 to the coordinates of the indication position of the indicator 80. When manual calibration is not performed regarding the detection of the pointing position of the pointer 80, the calibration control unit 39 selects the initial correction data 125. The initial correction data 125 is correction data when the distance G1 in FIG. 4B is set to an initial value, and is stored in the storage unit 110 in advance. When the light emitting device 60 is installed, the distance G1 between the screen SC and the detection light L is adjusted to be, for example, 10 mm to 1 mm, and actually changes in the plane of the screen SC. The initial correction data 125 is correction data when the initial value of the distance G1 is assumed to be 5 mm, for example. If the initial correction data 125 is used, the indicated position of the indicator 80 can be detected without performing manual calibration. . By using the manual correction data 126 created by the manual calibration, it is possible to detect the indication position of the indicator 80 with higher accuracy by performing the correction reflecting the difference in the plane of the distance G1.
That is, in the position detection of the position detection unit 50, the detection control unit 32 obtains the coordinates of the specified position using the auto calibration data 123 or the manual calibration data 124 when detecting the indication position of the indicator 70. . When detecting the indication position of the indicator 80, the detection control unit 32 performs correction using the initial correction data 125 or the manual correction data 126 in a process of obtaining coordinates using the auto calibration data 123 or the manual calibration data 124. . In other words, the initial correction data 125 and the manual correction data 126 are difference data for obtaining the indication position of the indicator 80 from the indication position of the indicator 70.

図3のフローチャートにおいて、オートキャリブレーションを実行するか、マニュアルキャリブレーションを実行するかがユーザーにより選択される(ステップS1)。キャリブレーション制御部39は、リモコン又は操作パネル19の操作を検出し(ステップS2)、オートキャリブレーションが選択された場合はステップS2に移行し、マニュアルキャリブレーションが選択された場合にはステップS7に移行する。なお、上述したように、記憶部110にオートキャリブレーションデータ123が記憶されていない場合、ステップS1で、オートキャリブレーションのみを選択可能なメニュー画面を投射してもよい。   In the flowchart of FIG. 3, the user selects whether to execute auto calibration or manual calibration (step S1). The calibration control unit 39 detects the operation of the remote controller or the operation panel 19 (step S2). If auto calibration is selected, the process proceeds to step S2. If manual calibration is selected, the process proceeds to step S7. Transition. As described above, when the auto-calibration data 123 is not stored in the storage unit 110, a menu screen in which only auto-calibration can be selected may be projected in step S1.

ステップS2で、キャリブレーション制御部39は、オートキャリブレーション画像121を選択する。記憶部110には、複数のオートキャリブレーション画像121が記憶されており、キャリブレーション制御部39は、記憶部110に記憶されたオートキャリブレーション画像121の中から1のオートキャリブレーション画像121を選択する。
続いて、キャリブレーション制御部39は、選択したオートキャリブレーション画像121を投射部20によりスクリーンSCに投射する(ステップS3)。オートキャリブレーション画像121がスクリーンSCに投射された状態で、ユーザーは、リモコン又は操作パネル19の操作により、オートキャリブレーション画像121がスクリーンSCの表示エリアに納まるように表示サイズや表示位置を調整してもよい。
キャリブレーション制御部39は、位置検出部50を制御して、撮像部51により撮影を実行させ(ステップS4)、撮像部51の撮影画像データを取得して、取得した撮影画像データに基づきオートキャリブレーションデータ123を作成する(ステップS5)。
In step S <b> 2, the calibration control unit 39 selects the auto calibration image 121. The storage unit 110 stores a plurality of auto calibration images 121, and the calibration control unit 39 selects one auto calibration image 121 from the auto calibration images 121 stored in the storage unit 110. To do.
Subsequently, the calibration control unit 39 projects the selected auto calibration image 121 on the screen SC by the projection unit 20 (step S3). With the auto-calibration image 121 projected on the screen SC, the user adjusts the display size and the display position so that the auto-calibration image 121 fits in the display area of the screen SC by operating the remote control or the operation panel 19. May be.
The calibration control unit 39 controls the position detection unit 50 to cause the imaging unit 51 to perform imaging (step S4), acquires captured image data of the imaging unit 51, and performs auto calibration based on the acquired captured image data. Action data 123 is created (step S5).

キャリブレーション制御部39は、背景画像作成処理を実行し(ステップS6)、ステップS15に移行する。
図9は、背景画像作成処理の詳細を示すフローチャートである。
キャリブレーション制御部39は、マスク画像を作成する(ステップS111)。マスク画像は、撮像部51が撮影した撮影画像データから、スクリーンSCの表示エリアに相当する部分の画像データを切り出すための画像である。図10に、マスク画像の一例を示す。
The calibration control unit 39 performs background image creation processing (step S6), and proceeds to step S15.
FIG. 9 is a flowchart showing details of the background image creation process.
The calibration control unit 39 creates a mask image (step S111). The mask image is an image for cutting out image data of a portion corresponding to the display area of the screen SC from the captured image data captured by the imaging unit 51. FIG. 10 shows an example of the mask image.

マスク画像の作成方法について図11を参照しながら説明する。図11には、撮影画像データの一例を示す。図11では撮影画像データの左下を原点とし、上下方向をX軸方向とし、左右方向をY軸方向としている。
キャリブレーション制御部39は、スクリーンSCの投射画像を撮影した撮影画像データから、スクリーンSCが写っている範囲を決定する。
A method for creating a mask image will be described with reference to FIG. FIG. 11 shows an example of photographed image data. In FIG. 11, the lower left of the captured image data is the origin, the vertical direction is the X axis direction, and the horizontal direction is the Y axis direction.
The calibration control unit 39 determines a range in which the screen SC is captured from captured image data obtained by capturing a projection image on the screen SC.

プロジェクター10では、既にステップS3で、投射画像がスクリーンSCの投射領域に納まるようにユーザーによって調整されている。また、キャリブレーション制御部39は、オートキャリブレーション画像121に含まれるマークのうち、上下左右の各方向で最も外側に位置するマーク列がどのマーク列であるかを示すデータを取得する。このデータは、例えばオートキャリブレーション画像121に対応付けて記憶部110に記憶されている。
図11に示す例では、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列は、マーク列Tである。キャリブレーション制御部39は、マーク列Tに含まれる各マークの中心座標を、図7に例示したキャリブレーションデータ管理テーブルから取得する。キャリブレーション制御部39は、取得した各マークの中心座標にマージンとなる所定値を加算して、スクリーンSCの左端を決定する。マーク列Tは、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列であるため、各マークのY座標値から、所定値を減算してスクリーンSC左端の座標値とする。例えば、図11に示すマーク列TのマークT3(X3、Y3)の場合、Y座標値Y3から所定値αを減算した座標T3’(X3、Y3−α)が、T3におけるスクリーンSCの左端となる。キャリブレーション制御部39は、スクリーンSCの上下左右それぞれの方向で、端部の座標値を求める。なお、マークが存在しない領域については、補完処理によって端部の座標値を求めてもよい。キャリブレーション制御部39は、求めた上下左右それぞれの方向の座標値を記憶部110に保存する。次に、キャリブレーション制御部39は、求めたスクリーンSCの範囲のデータを使用して、マスク画像を作成する。キャリブレーション制御部39は、スクリーンSCの範囲外の領域で、画素値が0になるように設定したマスク画像を生成する。キャリブレーション制御部39は、生成したマスク画像を位置検出部50の撮影画像データ処理部56に送る。
In the projector 10, the projection image has already been adjusted by the user in step S3 so that the projection image fits in the projection area of the screen SC. In addition, the calibration control unit 39 acquires data indicating which mark row is the outermost mark row in the vertical and horizontal directions among the marks included in the auto-calibration image 121. This data is stored in the storage unit 110 in association with the auto-calibration image 121, for example.
In the example shown in FIG. 11, the mark row located on the outermost side on the left side of the auto-calibration image 121 is the mark row T. The calibration control unit 39 acquires the center coordinates of each mark included in the mark row T from the calibration data management table illustrated in FIG. The calibration control unit 39 determines a left end of the screen SC by adding a predetermined value as a margin to the acquired center coordinates of each mark. Since the mark row T is the outermost mark row on the left side of the auto calibration image 121, a predetermined value is subtracted from the Y coordinate value of each mark to obtain the coordinate value at the left end of the screen SC. For example, in the case of the mark T3 (X3, Y3) in the mark row T shown in FIG. 11, the coordinate T3 ′ (X3, Y3-α) obtained by subtracting the predetermined value α from the Y coordinate value Y3 is the left end of the screen SC at T3. Become. The calibration control unit 39 obtains the coordinate value of the end in each of the top, bottom, left and right directions of the screen SC. It should be noted that for the region where no mark exists, the coordinate value of the end portion may be obtained by complement processing. The calibration control unit 39 saves the obtained coordinate values in the respective directions of up, down, left, and right in the storage unit 110. Next, the calibration control unit 39 creates a mask image using the obtained data of the range of the screen SC. The calibration control unit 39 generates a mask image set so that the pixel value becomes 0 in an area outside the range of the screen SC. The calibration control unit 39 sends the generated mask image to the captured image data processing unit 56 of the position detection unit 50.

次に、キャリブレーション制御部39は、光出射装置60の光源部61をオフにして、撮像部51に撮影範囲を撮影させる(ステップS112)。撮像部51による撮影の際には、例えば、指示体70、80で操作を行わないように注意を促すメッセージ画像を投射部20により投射させて、指示体70、80や、ユーザーが撮影されないようにする。ステップS112で撮影した、光出射装置60の光源部61をオフにして撮影した撮影画像データを、第1背景画像データと呼ぶ。図12に、第1背景画像データの一例を示す。図12に示す第1背景画像データには、スクリーンSCや、意図せずにスクリーンSCに写った反射光が記録されている。キャリブレーション制御部39は、第1背景画像データを記憶部110に保存する。   Next, the calibration control unit 39 turns off the light source unit 61 of the light emitting device 60 and causes the imaging unit 51 to capture the imaging range (step S112). At the time of shooting by the imaging unit 51, for example, the projection unit 20 projects a message image that calls attention so as not to perform an operation with the indicators 70 and 80 so that the indicators 70 and 80 and the user are not shot. To. The captured image data captured in step S112 and captured with the light source 61 of the light emitting device 60 turned off is referred to as first background image data. FIG. 12 shows an example of the first background image data. In the first background image data shown in FIG. 12, the screen SC and reflected light that is unintentionally reflected on the screen SC are recorded. The calibration control unit 39 stores the first background image data in the storage unit 110.

次に、キャリブレーション制御部39は、光出射装置60の光源部61をオンにして、撮像部51に撮影範囲を撮影させる(ステップS113)。この撮影の際にも、例えば、上記のメッセージ画像を投射部20に投射させて、指示体70、80や、ユーザーが撮影されないようにする。ステップS113で撮影した、光出射装置60の光源部61をオンにして撮影した撮影画像データを、第2背景画像データと呼ぶ。図13に、第2背景画像データの一例を示す。図13に示す第2背景画像データには、スクリーンSCや、光出射装置60の検出光がスクリーンSCに反射した反射光に加えて、光源部61の光を反射したペントレイが写っている。キャリブレーション制御部39は、第2背景画像データを記憶部110に保存する。
キャリブレーション制御部39は、第1背景画像データと第2背景画像データとを撮影すると、第2背景画像データから第1背景画像データを減算して、差分画像データを生成する(ステップS114)。なお、以下では、この差分画像データを光源ノイズデータと呼ぶ。キャリブレーション制御部39は、生成した光源ノイズデータを記憶部110に保存する。なお、第1背景画像データ及び第2背景画像データの撮影は、後述する通常動作中に行ってもよい。
Next, the calibration control unit 39 turns on the light source unit 61 of the light emitting device 60 and causes the imaging unit 51 to capture an imaging range (step S113). Also at the time of photographing, for example, the message image is projected onto the projection unit 20 so that the indicators 70 and 80 and the user are not photographed. The photographed image data photographed in step S113 and photographed with the light source unit 61 of the light emitting device 60 turned on is referred to as second background image data. FIG. 13 shows an example of the second background image data. The second background image data shown in FIG. 13 includes the screen SC and a pen tray that reflects the light from the light source unit 61 in addition to the reflected light that the detection light of the light emitting device 60 reflects on the screen SC. The calibration control unit 39 stores the second background image data in the storage unit 110.
When the calibration control unit 39 captures the first background image data and the second background image data, it subtracts the first background image data from the second background image data to generate difference image data (step S114). Hereinafter, this difference image data is referred to as light source noise data. The calibration control unit 39 stores the generated light source noise data in the storage unit 110. Note that the shooting of the first background image data and the second background image data may be performed during a normal operation described later.

一方、マニュアルキャリブレーションが選択された場合、キャリブレーション制御部39はステップS7に移行する。
ステップS7では、上述したステップS6の背景画像作成処理を実行する。図9のステップS111ではスクリーンSCにオートキャリブレーション画像121を投射して、マスク画像を作成するが、ステップS7においても同様である。
On the other hand, when manual calibration is selected, the calibration control unit 39 proceeds to step S7.
In step S7, the background image creation process in step S6 described above is executed. In step S111 in FIG. 9, the auto-calibration image 121 is projected on the screen SC to create a mask image. The same applies to step S7.

マスク画像を作成した後、キャリブレーション制御部39は、マニュアルキャリブレーション画像122を選択し(ステップS8)、選択したマニュアルキャリブレーション画像122を投射部20によりスクリーンSCに投射する(ステップS9)。マニュアルキャリブレーション画像122がスクリーンSCに投射された状態で、ユーザーは、マニュアルキャリブレーション画像122がスクリーンSCの表示エリアに納まるように表示サイズや表示位置を調整してもよい。   After creating the mask image, the calibration control unit 39 selects the manual calibration image 122 (step S8), and projects the selected manual calibration image 122 onto the screen SC by the projection unit 20 (step S9). In a state where the manual calibration image 122 is projected on the screen SC, the user may adjust the display size and the display position so that the manual calibration image 122 fits in the display area of the screen SC.

ここで、ユーザーにより、指示体70を用いた操作が行われる(ステップS10)。図8に示したように、マニュアルキャリブレーション画像122には所定のマークが配置されている。マニュアルキャリブレーション画像122がスクリーンSCに表示されると、ユーザーは、指示体70を使用して、スクリーンSCに投射されたマークを1つずつ指し示す。プロジェクター10の送信部52は、同期用の赤外線信号を周期的に送信する。指示体70は、この赤外線信号に同期して、赤外光を点灯させる。キャリブレーション制御部39は、撮像部51に、指示体70の発光タイミングに同期して撮影範囲を撮影させる。これにより、指示体70がマークを指し示している撮影画像データ(以下、第1位置検出画像データという)が撮影される。キャリブレーション制御部39は、撮影画像データを取得して指示体70の指示位置を検出する指示位置検出処理を実行する(ステップS11)。   Here, an operation using the indicator 70 is performed by the user (step S10). As shown in FIG. 8, a predetermined mark is arranged in the manual calibration image 122. When the manual calibration image 122 is displayed on the screen SC, the user uses the indicator 70 to indicate the marks projected on the screen SC one by one. The transmission unit 52 of the projector 10 periodically transmits an infrared signal for synchronization. The indicator 70 turns on the infrared light in synchronization with the infrared signal. The calibration control unit 39 causes the imaging unit 51 to capture the imaging range in synchronization with the light emission timing of the indicator 70. As a result, photographed image data (hereinafter referred to as first position detection image data) in which the indicator 70 points to the mark is photographed. The calibration control unit 39 performs a designated position detection process for acquiring photographed image data and detecting the designated position of the pointer 70 (step S11).

ステップS11の詳細について、図14に示すフローチャートを参照しながら説明する。第1背景画像データは、光出射装置60の光源部61をオフにして、指示体70やユーザーが映らないようにして撮影したスクリーンSCとその周辺の画像である。第1背景画像データには、窓から入り込む外光や、蛍光灯等の照明の光、これらの光がスクリーンSCで反射した反射光による外乱等が記録されている。これらを背景ノイズと呼ぶ。   Details of step S11 will be described with reference to the flowchart shown in FIG. The first background image data is an image of the screen SC and its surroundings taken with the light source 61 of the light emitting device 60 turned off so that the indicator 70 and the user are not reflected. In the first background image data, external light entering from a window, illumination light such as a fluorescent lamp, disturbance due to reflected light reflected by the screen SC, and the like are recorded. These are called background noise.

撮影画像データ処理部56は、撮像部51により撮影された第1位置検出画像データを取得する。撮影画像データ処理部56は、取得した第1位置検出画像データをフレームメモリー58に展開する。撮影画像データ処理部56は、第1位置検出画像データを展開したフレームメモリー58に、さらにマスク画像を重ねてマスク処理を行う(ステップS121)。なお、以下では、マスク処理されて切り出された、スクリーンSCに相当する領域の第1位置検出画像データを、切り出し画像データと呼ぶ。撮影画像データ処理部56は、マスク処理により切り出した切り出し画像データを指示体検出部54に渡す。指示体検出部54は、撮影画像データ処理部56から取得した切り出し画像データから第1背景画像データを減算して、背景ノイズを除去した差分画像データを生成する(ステップS122)。次に、指示体検出部54は、差分画像データを濃度しきい値を用いて2値化する(ステップS123)。すなわち、指示体検出部54は、差分画像データの画素値と濃度しきい値とを比較して、画素値が濃度しきい値以上の画素を検出する。図15(A)及び(B)に、濃度しきい値の一例を示す。図15(A)は、図10に示すマスク画像に合わせて設定した濃度しきい値を示し、図15(B)は、図15(A)に示す点A〜点Dでの濃度しきい値を示している。   The captured image data processing unit 56 acquires first position detection image data captured by the imaging unit 51. The captured image data processing unit 56 develops the acquired first position detection image data in the frame memory 58. The captured image data processing unit 56 performs mask processing by further superimposing a mask image on the frame memory 58 in which the first position detection image data is expanded (step S121). In the following, the first position detection image data in the area corresponding to the screen SC that has been cut out by masking will be referred to as cut-out image data. The captured image data processing unit 56 passes the cut-out image data cut out by the mask process to the indicator detection unit 54. The indicator detection unit 54 subtracts the first background image data from the cut-out image data acquired from the captured image data processing unit 56 to generate difference image data from which background noise has been removed (step S122). Next, the indicator detection unit 54 binarizes the difference image data using the density threshold value (step S123). That is, the indicator detection unit 54 compares the pixel value of the difference image data with the density threshold value, and detects a pixel whose pixel value is equal to or higher than the density threshold value. FIGS. 15A and 15B show examples of density threshold values. 15A shows density threshold values set in accordance with the mask image shown in FIG. 10, and FIG. 15B shows density threshold values at points A to D shown in FIG. Is shown.

本実施形態では、濃度しきい値を、撮像部51からの距離に応じて変更している。撮像部51によって撮影された撮影画像データでは、撮像部51から被写体までの距離が長いほど撮影画像の輝度が低く、撮像部51から被写体までの距離が近いほど輝度が高くなる傾向がある。このため、位置検出部50は、撮像部51からの距離が近い範囲の濃度しきい値が大きく、撮像部51からの距離が遠い範囲の濃度しきい値が小さく設定されている。このように濃度しきい値が傾斜を設けて設定されるため、撮影画像において、指示体70の赤外光と、その他の画像との区別がしやすくなる。図15(B)に示す例では、撮像部51からの距離が最も近い点Dにおいて濃度しきい値が最も大きく設定されており、撮像部51からの距離が最も遠い点Aにおいて濃度しきい値が最も小さく設定されている。   In the present embodiment, the density threshold value is changed according to the distance from the imaging unit 51. In the captured image data captured by the imaging unit 51, the brightness of the captured image decreases as the distance from the imaging unit 51 to the subject increases, and the brightness tends to increase as the distance from the imaging unit 51 to the subject decreases. For this reason, in the position detection unit 50, the density threshold value in the range where the distance from the imaging unit 51 is close is large, and the density threshold value in the range where the distance from the imaging unit 51 is long is set small. Since the density threshold value is set with an inclination in this way, it becomes easy to distinguish the infrared light of the indicator 70 from other images in the captured image. In the example shown in FIG. 15B, the density threshold is set to be the largest at the point D where the distance from the imaging unit 51 is the closest, and at the point A where the distance from the imaging unit 51 is the farthest. Is set to the smallest.

指示体検出部54は、2値化により検出した、画素値が濃度しきい値以上の画素を検出すると、検出された画素の塊ごとのブロックに分けて、ブロックのうち面積が所定の範囲内となるブロックの重心座標を求める(ステップS124)。重心座標とは、ブロックの位置的中心座標のことである。重心座標の算出は、例えば、ブロックに割り当てられた座標の横軸X成分及び縦軸Y成分をそれぞれ加算して、その平均を取ることによって行われる。位置検出部50は、算出した重心座標をキャリブレーション制御部39に渡す。キャリブレーション制御部39は、指示体検出部54から取得した重心座標を、撮影画像データ上の指示座標と判定する。
なお、図2に示す例では、位置検出部50がフレームメモリー58を備えている場合を例に説明した。位置検出部50がフレームメモリー58を備えていない簡易な構成の場合には、撮影画像データ処理部56は、第1位置検出画像データのうち、スクリーンSC領域の第1位置検出画像データだけを指示体検出部54に出力することで、マスク処理を行ってもよい。具体的には、撮影画像データ処理部56は、キャリブレーション制御部39から取得したマスク画像から、撮影画像データ上において、スクリーンSCに相当する領域の座標値を算出する。そして、撮影画像データ処理部56は、撮影制御部53から第1位置検出画像データを取得すると、算出した座標値に基づいて、スクリーンSCに相当する領域の第1位置検出画像データだけを指示体検出部54に出力する。
キャリブレーション制御部39は、図3に戻り、撮影画像データ上での指示座標と、対応するマークのオートキャリブレーション画像121上の座標とを対応付けて記憶部110に記憶させる(ステップS12)。
When the indicator detection unit 54 detects pixels detected by binarization and whose pixel value is equal to or higher than the density threshold value, the indicator detection unit 54 divides the detected pixels into blocks for each block, and the area of the blocks is within a predetermined range The barycentric coordinates of the block to be obtained are obtained (step S124). The barycentric coordinates are the positional center coordinates of the block. The calculation of the barycentric coordinates is performed, for example, by adding the horizontal axis X component and the vertical axis Y component of the coordinates assigned to the block and taking the average. The position detection unit 50 passes the calculated barycentric coordinates to the calibration control unit 39. The calibration control unit 39 determines the barycentric coordinates acquired from the indicator detection unit 54 as the instruction coordinates on the captured image data.
In the example illustrated in FIG. 2, the case where the position detection unit 50 includes the frame memory 58 has been described as an example. When the position detection unit 50 does not include the frame memory 58, the captured image data processing unit 56 instructs only the first position detection image data in the screen SC area out of the first position detection image data. Mask processing may be performed by outputting to the body detection unit 54. Specifically, the captured image data processing unit 56 calculates the coordinate value of the area corresponding to the screen SC on the captured image data from the mask image acquired from the calibration control unit 39. Then, when the captured image data processing unit 56 acquires the first position detection image data from the imaging control unit 53, only the first position detection image data of the area corresponding to the screen SC is indicated on the basis of the calculated coordinate value. It outputs to the detection part 54.
Returning to FIG. 3, the calibration control unit 39 stores the designated coordinates on the captured image data and the coordinates of the corresponding mark on the auto-calibration image 121 in the storage unit 110 in association with each other (step S12).

キャリブレーション制御部39は、マニュアルキャリブレーション画像122の全てのマークについて指示位置を検出したか否かを判定し(ステップS13)、未処理のマークがある場合はステップS9に戻る。また、全てのマークの指示位置の検出が済んだ場合、キャリブレーション制御部39は、ステップS12で一時的に記憶した指示位置の座標とマークの位置とに基づき、マニュアルキャリブレーションデータ124を作成する(ステップS14)。ここで作成されたマニュアルキャリブレーションデータ124は記憶部110に記憶される。その後、キャリブレーション制御部39はステップS15に移行する。   The calibration control unit 39 determines whether or not the indicated position has been detected for all the marks in the manual calibration image 122 (step S13), and if there is an unprocessed mark, the process returns to step S9. When the indication positions of all the marks have been detected, the calibration control unit 39 creates the manual calibration data 124 based on the coordinates of the indication positions and the mark positions temporarily stored in step S12. (Step S14). The manual calibration data 124 created here is stored in the storage unit 110. Thereafter, the calibration control unit 39 proceeds to step S15.

ステップS15で、キャリブレーション制御部39は、指示体80の指示位置の検出に関するマニュアルキャリブレーションを実行するか否かを選択するユーザーインターフェイスを投射部20により投射させ、ユーザーの選択入力が行われる。
キャリブレーション制御部39は、リモコン又は操作パネル19の操作を検出し、マニュアルキャリブレーションを実行するか否かを判定する(ステップS16)。
In step S <b> 15, the calibration control unit 39 causes the projection unit 20 to project a user interface for selecting whether or not to perform manual calibration related to the detection of the pointing position of the pointer 80, and the user's selection input is performed.
The calibration control unit 39 detects the operation of the remote controller or the operation panel 19 and determines whether or not to execute manual calibration (step S16).

マニュアルキャリブレーションを実行しない場合(ステップS16;No)、キャリブレーション制御部39は、初期補正データ125を選択して(ステップS17)、通常動作に移行する(ステップS18)。
通常動作とは、画像I/F部12に入力される入力画像に基づき、スクリーンSCに画像を投射し、指示体70、80により指示された指示位置を特定して、指示内容に応じた処理を行う動作である。
When manual calibration is not executed (step S16; No), the calibration control unit 39 selects the initial correction data 125 (step S17) and shifts to normal operation (step S18).
In the normal operation, an image is projected on the screen SC based on an input image input to the image I / F unit 12, an instruction position indicated by the indicators 70 and 80 is specified, and processing according to the instruction content is performed. It is an operation to perform.

指示体80の操作に関するマニュアルキャリブレーションを行う場合(ステップS16;Yes)、キャリブレーション制御部39は、マニュアルキャリブレーション画像122を選択する(ステップS19)。
続いて、キャリブレーション制御部39は、選択したマニュアルキャリブレーション画像122を投射部20によりスクリーンSCに投射する(ステップS20)。ここで、ユーザーにより、指示体80を用いた操作が行われ(ステップS21)、キャリブレーション制御部39は、指示体80の指示位置を検出する指示位置検出処理を実行する(ステップS22)。このステップS22の指示位置検出処理は、上述したステップS11の指示位置検出処理と同様の処理であり、図14のように実行される。
When performing manual calibration regarding the operation of the indicator 80 (step S16; Yes), the calibration control unit 39 selects the manual calibration image 122 (step S19).
Subsequently, the calibration control unit 39 projects the selected manual calibration image 122 on the screen SC by the projection unit 20 (step S20). Here, an operation using the indicator 80 is performed by the user (step S21), and the calibration control unit 39 executes an indication position detection process for detecting the indication position of the indicator 80 (step S22). The designated position detection process in step S22 is the same process as the designated position detection process in step S11 described above, and is executed as shown in FIG.

このステップS22の指示位置検出処理で、位置検出部50(指示体検出部54)は、第2位置検出画像データと、マスク画像、第1背景画像データ及び第2背景画像データとを用いて、指80aによって指し示された指示座標を検出する。なお、第2背景画像データは、光出射装置60の光源部61をオンして撮影したスクリーンSCとその周辺の画像である。このため、第2背景画像データには、第1背景画像データに記録された背景ノイズに加えて、光出射装置60の光源部61の発する光やその反射光が記録されている。この光源部61の発する光に起因するノイズを光源ノイズと呼ぶ。キャリブレーション制御部39は、ステップS8において、第2背景画像データから第1背景画像データを減算して光源ノイズデータを生成し、記憶部110に保存している。図16に、光源ノイズデータの一例を示す。   In the indicated position detection process in step S22, the position detection unit 50 (indicator detection unit 54) uses the second position detection image data, the mask image, the first background image data, and the second background image data, The designated coordinate pointed by the finger 80a is detected. Note that the second background image data is an image of the screen SC taken around the light source 61 of the light emitting device 60 and its surroundings. For this reason, in addition to the background noise recorded in the first background image data, the light emitted from the light source 61 of the light emitting device 60 and the reflected light thereof are recorded in the second background image data. Noise caused by the light emitted from the light source unit 61 is referred to as light source noise. In step S <b> 8, the calibration control unit 39 generates light source noise data by subtracting the first background image data from the second background image data, and stores the light source noise data in the storage unit 110. FIG. 16 shows an example of light source noise data.

位置検出部50は、第2位置検出画像データから、第1背景画像データと光源ノイズデータとを減算して、背景ノイズと光源ノイズとを除去した差分画像データを生成する。差分画像データを生成した後の処理は、図14に示す処理と同一であるため、説明を省略する。位置検出部50は、算出した重心座標をキャリブレーション制御部39に渡す。キャリブレーション制御部39は、位置検出部50から取得した重心座標を、撮影画像データ上の指示座標と判定する。そして、キャリブレーション制御部39は、撮影画像データ上の指示座標と、対応するマークのマニュアルキャリブレーション画像122上でのマークの座標値とを対応付けて記憶部110に記憶させる(ステップS23)。   The position detection unit 50 subtracts the first background image data and the light source noise data from the second position detection image data to generate difference image data from which the background noise and the light source noise are removed. The processing after generating the difference image data is the same as the processing shown in FIG. The position detection unit 50 passes the calculated barycentric coordinates to the calibration control unit 39. The calibration control unit 39 determines the center-of-gravity coordinates acquired from the position detection unit 50 as designated coordinates on the captured image data. Then, the calibration control unit 39 associates the designated coordinates on the captured image data with the coordinate values of the mark on the manual calibration image 122 of the corresponding mark and stores them in the storage unit 110 (step S23).

キャリブレーション制御部39は、マニュアルキャリブレーション画像122の全てのマークについて指示位置を検出したか否かを判定し(ステップS24)、未処理のマークがある場合はステップS20に戻る。また、全てのマークの指示位置の検出が済んだ場合、キャリブレーション制御部39は、ステップS23で記憶した指示位置の座標とマークの位置とに基づき、マニュアル補正データ126を作成する(ステップS25)。ここで作成されたマニュアル補正データ126は記憶部110に記憶される。その後、キャリブレーション制御部39はステップS18に移行して、通常動作を開始する。   The calibration control unit 39 determines whether or not the indicated position has been detected for all the marks in the manual calibration image 122 (step S24), and if there is an unprocessed mark, returns to step S20. When the indication positions of all the marks have been detected, the calibration control unit 39 creates the manual correction data 126 based on the indication position coordinates and the mark positions stored in step S23 (step S25). . The manual correction data 126 created here is stored in the storage unit 110. Thereafter, the calibration control unit 39 proceeds to step S18 and starts a normal operation.

なお、キャリブレーション制御部39が、指示体70のマニュアルキャリブレーションにより、オートキャリブレーションデータ123と同様のデータを含むマニュアルキャリブレーションデータ124を生成してもよい。この場合、キャリブレーション制御部39は、図3のステップS8〜S14の処理により、オートキャリブレーションデータ123と同様のマニュアルキャリブレーションデータ124を生成する。また、オートキャリブレーションデータ123とマニュアルキャリブレーションデータ124と同一のデータとしてもよく、この場合、ステップS14で生成されるデータにより、過去に生成されたオートキャリブレーションデータ123が上書きされる。
この構成では、キャリブレーション制御部39がオートキャリブレーションまたはマニュアルキャリブレーションのいずれかを実行すれば、指示体70の指示位置の座標を求めることが可能となる。従って、図3の動作において、オートキャリブレーションデータ123が記憶されていない状態で、ステップS1でマニュアルキャリブレーションを選択することが可能となる。
Note that the calibration control unit 39 may generate manual calibration data 124 including data similar to the auto calibration data 123 by manual calibration of the indicator 70. In this case, the calibration control unit 39 generates manual calibration data 124 similar to the auto calibration data 123 by the processing of steps S8 to S14 in FIG. The auto calibration data 123 and the manual calibration data 124 may be the same data. In this case, the auto calibration data 123 generated in the past is overwritten by the data generated in step S14.
In this configuration, if the calibration control unit 39 executes either auto calibration or manual calibration, the coordinates of the pointing position of the pointer 70 can be obtained. Therefore, in the operation of FIG. 3, it is possible to select manual calibration in step S1 in a state where the auto calibration data 123 is not stored.

次に、図17に示すシーケンス図を参照して、通常動作中におけるプロジェクター10(送信部52)、指示体70、光出射装置60(光源部61)の発光タイミングについて説明する。   Next, the light emission timings of the projector 10 (transmission unit 52), the indicator 70, and the light emitting device 60 (light source unit 61) during normal operation will be described with reference to the sequence diagram shown in FIG.

本シーケンスでは、プロジェクター10がマスター装置となり、指示体70と、光出射装置60とに発光タイミングを通知する。光出射装置60の光源部61と、指示体70とは、プロジェクター10から通知されたタイミングに従って発光する。また、本シーケンスは、第1フェーズから第4フェーズまでの4つのフェーズを備え、第1フェーズから第4フェーズを順に繰り返す。第4フェーズまで終了した場合には第1フェーズに戻り、第1フェーズから第4フェーズを再度繰り返す。これによって、プロジェクター10は、指示体70に発光タイミングを通知し、指示体70や光出射装置60の発光タイミングに同期して撮影を行うことができる。   In this sequence, the projector 10 becomes a master device, and notifies the indicator 70 and the light emitting device 60 of the light emission timing. The light source unit 61 of the light emitting device 60 and the indicator 70 emit light according to the timing notified from the projector 10. In addition, this sequence includes four phases from the first phase to the fourth phase, and the first phase to the fourth phase are repeated in order. When the process reaches the fourth phase, the process returns to the first phase, and the first to fourth phases are repeated again. Accordingly, the projector 10 can notify the indicator 70 of the light emission timing, and can perform shooting in synchronization with the light emission timing of the indicator 70 and the light emitting device 60.

第1フェーズは、同期フェーズである。第1フェーズでは、プロジェクター10の送信部52の光源を点灯させて、同期用の赤外線信号を指示体70に送信する。指示体70は、この同期用の赤外線信号を受信することで、第1フェーズの開始タイミングを認識することができる。なお、第1〜第4フェーズの各時間は、同一の時間に設定されているため、第1フェーズの開始タイミングを認識することで、指示体70は、第2〜第4フェーズの開始タイミングも認識することができる。   The first phase is a synchronization phase. In the first phase, the light source of the transmission unit 52 of the projector 10 is turned on, and an infrared signal for synchronization is transmitted to the indicator 70. The indicator 70 can recognize the start timing of the first phase by receiving the synchronization infrared signal. In addition, since each time of the 1st-4th phase is set to the same time, the indicator 70 also recognizes the start timing of the 2nd-4th phase by recognizing the start timing of the 1st phase. Can be recognized.

第2フェーズは、位置検出のフェーズであり、光出射装置60の光源部61と、指示体70とが点灯する。プロジェクター10は、光源部61と指示体70との点灯タイミングに合わせて、撮像部51により撮影範囲を撮影する。これにより、指示体80がスクリーンSC上を指し示している場合には、撮像部51の撮影画像データに指示体80の反射光が写る。また、撮像部51の撮影画像データには、指示体70の点灯光が写る。   The second phase is a position detection phase in which the light source unit 61 of the light emitting device 60 and the indicator 70 are turned on. The projector 10 captures an imaging range by the imaging unit 51 in accordance with the lighting timing of the light source unit 61 and the indicator 70. Thereby, when the indicator 80 points on the screen SC, the reflected light of the indicator 80 appears in the captured image data of the imaging unit 51. In addition, lighting light of the indicator 70 is reflected in the captured image data of the imaging unit 51.

第3フェーズは、指示体70と光出射装置60との発光タイミングに基づいて、指示体70と指示体80との指示位置を区別するために設けられたフェーズである。第3フェーズは、指示体判定のフェーズであって、指示体70が、指示体70に設定された固有の点灯パターンで点灯し、光源部61は点灯しない。このため、撮像部51の撮影画像データには、指示体70の点灯光が写る。第2フェーズで撮影された輝点のうち、光出射装置60が消灯する第3フェーズで撮影した撮影画像データに写った輝点の位置を指示体70の指示位置として検出することができる。すなわち、第2、第4フェーズで撮影した撮影画像データから検出された指示座標のうち、第3フェーズで撮影した撮影画像データから検出された指示座標に近い指示座標は、指示体70の指示座標であると判定することができる。
また、指示体70には、指示体70を識別するIDが設定されており、第3フェーズにおいて指示体70は、設定されたIDに従って点灯する。指示体70を複数使用する場合も、指示体70ごとにIDを設定し、各指示体70は、設定されたIDに従って点灯する。例えば、指示体70のIDとして「1000」が割り当てられており、「1」で指示体70を点灯させ、「0」で指示体70を消灯させる設定であるとする。この場合、指示体70は、最初の第3フェーズにおいて点灯し、その後の2回目〜4回目の第3フェーズにおいては消灯する。従って、複数の指示体70を使用して指示操作を行う場合であっても、プロジェクター10は、各指示体70の指示位置を検出することができる。
The third phase is a phase provided for distinguishing the indication positions of the indicator 70 and the indicator 80 based on the light emission timings of the indicator 70 and the light emitting device 60. The third phase is an indicator determination phase in which the indicator 70 is lit with a unique lighting pattern set in the indicator 70, and the light source unit 61 is not lit. For this reason, the lighting light of the indicator 70 is reflected in the captured image data of the imaging unit 51. Among the bright spots photographed in the second phase, the position of the bright spot reflected in the photographed image data photographed in the third phase when the light emitting device 60 is turned off can be detected as the designated position of the indicator 70. That is, among the indicated coordinates detected from the captured image data captured in the second and fourth phases, the indicated coordinates close to the indicated coordinates detected from the captured image data captured in the third phase are the indicated coordinates of the indicator 70. It can be determined that
The indicator 70 is set with an ID for identifying the indicator 70. In the third phase, the indicator 70 is turned on according to the set ID. Even when a plurality of indicators 70 are used, an ID is set for each indicator 70, and each indicator 70 is lit according to the set ID. For example, it is assumed that “1000” is assigned as the ID of the indicator 70, and the setting is such that “1” turns on the indicator 70 and “0” turns off the indicator 70. In this case, the indicator 70 is turned on in the first third phase, and is turned off in the second to fourth third phases thereafter. Therefore, even when a pointing operation is performed using a plurality of pointers 70, the projector 10 can detect the pointing position of each pointer 70.

また、第4フェーズは、第2フェーズと同様に位置検出のフェーズである。光出射装置60の光源部61と指示体70とを点灯させて、撮像部51により撮影を行う。なお、プロジェクター10は、例えば、第1フェーズ、第2フェーズ、第4フェーズにおいて、撮像部51により撮影範囲の撮影を行い、第1及び第2背景画像データを更新してもよい。通常動作中においても第1及び第2背景画像データを更新することで、指示体70、80による指示座標の検出精度を高めることができる。例えば、第1フェーズにおいて、プロジェクター10は、同期用の赤外線信号を送信した後に、撮像部51により撮影範囲を撮影する。第1フェーズで撮影した撮影画像データは、指示体70及び光出射装置60の光源部61が点灯していない画像データであるため、第1背景画像データとして使用することができる。また、第2フェーズと第4フェーズとの少なくとも一方において、プロジェクター10は、指示体70の点灯が終了した後、光出射装置60の光源部61が点灯している間に、撮像部51により撮影範囲を撮影する。撮影された撮影画像データは、指示体70が消灯し、光出射装置60の光源部61が点灯している画像データである。このため、第2背景画像データとして使用することができる。   The fourth phase is a position detection phase as in the second phase. The light source unit 61 and the indicator 70 of the light emitting device 60 are turned on, and imaging is performed by the imaging unit 51. Note that, for example, in the first phase, the second phase, and the fourth phase, the projector 10 may capture the imaging range by the imaging unit 51 and update the first and second background image data. By updating the first and second background image data even during normal operation, it is possible to improve the detection accuracy of the indicated coordinates by the indicators 70 and 80. For example, in the first phase, the projector 10 captures an imaging range by the imaging unit 51 after transmitting a synchronization infrared signal. The captured image data captured in the first phase is image data in which the indicator 70 and the light source unit 61 of the light emitting device 60 are not lit, and thus can be used as first background image data. In at least one of the second phase and the fourth phase, the projector 10 captures an image by the imaging unit 51 while the light source unit 61 of the light emitting device 60 is lit after the indicator 70 is turned on. Shoot the range. The captured image data is image data in which the indicator 70 is turned off and the light source unit 61 of the light emitting device 60 is turned on. For this reason, it can be used as the second background image data.

以上説明したように、本実施形態のプロジェクションシステム1は、指示体70、80の指示位置を検出する検出領域に検出光を出射する光出射装置60と、検出領域での指示体70、80の指示位置を検出するプロジェクター10とを備える。プロジェクター10は、撮像部51と、位置検出部50とを備える。撮像部51は、検出領域を撮影する。位置検出部50は、撮影画像データから、指示体70が発する光の像と、指示体80が反射した検出光の像との少なくとも一方を検出する。そして、位置検出部50は、指示体70と光出射装置60との発光タイミングに基づいて、指示体70と指示体80との指示位置を区別して検出する。このため、種類の異なる指示体の指示位置を、簡易な構成であっても撮影画像データを用いて精度よく検出することができる。   As described above, the projection system 1 according to the present embodiment includes the light emitting device 60 that emits detection light to the detection area for detecting the indication positions of the indicators 70 and 80 and the indicators 70 and 80 in the detection area. And a projector 10 for detecting a designated position. The projector 10 includes an imaging unit 51 and a position detection unit 50. The imaging unit 51 images the detection area. The position detection unit 50 detects at least one of an image of light emitted from the indicator 70 and an image of detection light reflected by the indicator 80 from the captured image data. The position detection unit 50 distinguishes and detects the indication positions of the indicator 70 and the indicator 80 based on the light emission timings of the indicator 70 and the light emitting device 60. For this reason, even if it is a simple structure, the indication position of the indicator from which a kind differs can be detected accurately using picked-up image data.

また、位置検出部50は、光出射装置60の消灯後に撮影された撮影画像データに写った輝点の位置を指示体70の指示位置として検出する。従って、指示体70と指示体80との区別を容易につけることができ、種類の異なる指示体70、80の指示位置を、精度よく検出することができる。   Further, the position detection unit 50 detects the position of the bright spot reflected in the captured image data captured after the light emitting device 60 is turned off as the indication position of the indicator 70. Therefore, the indicator 70 and the indicator 80 can be easily distinguished from each other, and the indication positions of the different types of indicators 70 and 80 can be detected with high accuracy.

また、位置検出部50は、複数の指示体70が、指示体70ごとに割り当てられた識別情報に応じて発する光を、撮像部51の撮影画像データに基づいて判定し、複数の指示体70の指示位置を区別して検出する。従って、指示体70が複数であっても、各指示体70を区別して、各指示体70の指示位置を検出することができる。   Further, the position detection unit 50 determines the light emitted by the plurality of indicators 70 according to the identification information assigned to each indicator 70 based on the captured image data of the imaging unit 51, and the plurality of indicators 70. The designated position is distinguished and detected. Therefore, even if there are a plurality of pointers 70, each pointer 70 can be distinguished and the pointing position of each pointer 70 can be detected.

また、プロジェクター10は、指示体70の点灯タイミングを通知する同期用の赤外線信号を送信する送信部52と、光出射装置60に、検出光を出射させるタイミングを通知する信号を光出射装置60に送信する出射装置駆動部48とを備える。このため、プロジェクター10は、指示体70と光出射装置60との点灯タイミングに同期して、検出領域を撮像部51により撮影することができる。従って、指示体70と指示体80との指示位置を検出することができる。   In addition, the projector 10 transmits to the light emitting device 60 a signal for notifying the light emitting device 60 of the timing for emitting the detection light to the transmission unit 52 that transmits a synchronization infrared signal that notifies the lighting timing of the indicator 70. And an emission device driving section 48 for transmitting. For this reason, the projector 10 can photograph the detection region by the imaging unit 51 in synchronization with the lighting timing of the indicator 70 and the light emitting device 60. Therefore, it is possible to detect the pointing positions of the indicator 70 and the indicator 80.

なお、上述した実施形態及び変形例は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。例えば、指示体は、ペン型の指示体70やユーザーの手指である指示体80に限定されず、レーザーポインターや指示棒等を用いてもよく、その形状やサイズは限定されない。
また、上記実施形態及び変形例では、光出射装置60はプロジェクター10の本体とは別体で構成され、ケーブル60aで接続される構成を例示したが、本発明はこれに限定されない。例えば、光出射装置60をプロジェクター10の本体に一体に取り付けることも、プロジェクター10の本体に内蔵する構成としてもよい。また、光出射装置60が外部から電源の供給を受け、出射装置駆動部48との間で無線通信回線により接続されてもよい。
Note that the above-described embodiments and modifications are merely examples of specific modes to which the present invention is applied, and the present invention is not limited thereto, and the present invention can be applied as different modes. For example, the indicator is not limited to the pen-type indicator 70 or the indicator 80 that is a user's finger, and a laser pointer, an indicator bar, or the like may be used, and the shape and size thereof are not limited.
Moreover, in the said embodiment and modification, although the light-projection apparatus 60 was comprised separately from the main body of the projector 10, and illustrated the structure connected with the cable 60a, this invention is not limited to this. For example, the light emitting device 60 may be integrally attached to the main body of the projector 10 or may be configured to be built in the main body of the projector 10. Further, the light emitting device 60 may be supplied with power from the outside and connected to the emitting device driving unit 48 by a wireless communication line.

また、上記実施形態では、位置検出部50は、撮像部51によりスクリーンSCを撮影して指示体70の位置を特定するものとしたが、本発明はこれに限定されない。例えば、撮像部51は、プロジェクター10の本体に設けられ、投射光学系23の投射方向を撮影するものに限定されない。撮像部51をプロジェクター10本体とは別体として配置してもよいし、撮像部51がスクリーンSCの側方や正面から撮影を行うものとしてもよい。さらに、複数の撮像部51を配置し、これら複数の撮像部51の撮影画像データに基づいて、検出制御部32が指示体70、80の位置を検出してもよい。
また、上記実施形態では、プロジェクター10から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。この構成は、電波通信や超音波無線通信により信号を送信する送信部をプロジェクター10に設け、同様の受信部を指示体70に設けることで実現できる。
Moreover, in the said embodiment, although the position detection part 50 image | photographed the screen SC by the imaging part 51 and pinpointed the position of the indicator 70, this invention is not limited to this. For example, the imaging unit 51 is not limited to the one provided in the main body of the projector 10 and photographing the projection direction of the projection optical system 23. The imaging unit 51 may be arranged separately from the main body of the projector 10, or the imaging unit 51 may perform imaging from the side or front of the screen SC. Further, a plurality of imaging units 51 may be arranged, and the detection control unit 32 may detect the positions of the indicators 70 and 80 based on the captured image data of the plurality of imaging units 51.
In the above embodiment, the configuration in which the projector 10 transmits the synchronization signal to the indicator 70 using the infrared signal emitted from the transmission unit 52 to the indicator 70 has been described. However, the synchronization signal is an infrared signal. It is not limited to. For example, a synchronization signal may be transmitted by radio wave communication or ultrasonic wireless communication. This configuration can be realized by providing the projector 10 with a transmission unit that transmits signals by radio wave communication or ultrasonic radio communication, and providing the indicator 70 with a similar reception unit.

また、上記実施形態では、光源が発した光を変調する光変調装置22として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。或いは、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調装置として1枚のみの液晶パネル又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。
上記実施形態では、ユーザーが、フロントプロジェクション型のプロジェクター10が画像を投射(表示)するスクリーンSC(投射面、表示面)に対して、指示体70、80による指示操作を行う態様について説明したが、ユーザーが、プロジェクター10以外の表示装置(表示部)が画像を表示する表示画面(表示面)に対して指示操作を行う態様であってもよい。この場合にも、光出射装置60や撮像部51は、表示装置と一体的に構成されてもよいし、表示装置とは別体で構成されてもよい。プロジェクター10以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
また、図2に示したプロジェクションシステム1の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
In the above embodiment, the light modulation device 22 that modulates the light emitted from the light source has been described by taking as an example a configuration using three transmissive liquid crystal panels corresponding to RGB colors. Is not limited to this. For example, a configuration using three reflective liquid crystal panels may be used, or a method in which one liquid crystal panel and a color wheel are combined may be used. Alternatively, a system using three digital mirror devices (DMD), a DMD system combining one digital mirror device and a color wheel, or the like may be used. When only one liquid crystal panel or DMD is used as the light modulation device, a member corresponding to a composite optical system such as a cross dichroic prism is unnecessary. In addition to the liquid crystal panel and DMD, any light modulation device capable of modulating light emitted from the light source can be employed without any problem.
In the above embodiment, a mode has been described in which the user performs an instruction operation with the indicators 70 and 80 on the screen SC (projection surface, display surface) on which the front projection type projector 10 projects (displays) an image. The user may perform an instruction operation on a display screen (display surface) on which an image is displayed on a display device (display unit) other than the projector 10. Also in this case, the light emitting device 60 and the imaging unit 51 may be configured integrally with the display device, or may be configured separately from the display device. Display devices other than the projector 10 include a rear projection type projector, a liquid crystal display, an organic EL (Electro Luminescence) display, a plasma display, a CRT (cathode ray tube) display, and a SED (Surface-conduction Electron-emitter Display). Etc. can be used.
Moreover, each function part of the projection system 1 shown in FIG. 2 shows a functional structure, and a specific mounting form is not particularly limited. That is, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to adopt a configuration in which the functions of a plurality of function units are realized by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, specific detailed configurations of other parts of the projection system 1 can be arbitrarily changed without departing from the spirit of the present invention.

1…プロジェクションシステム(位置検出システム)、10…プロジェクター(位置検出装置)、20…投射部、21…光源部、22…光変調装置、23…投射光学系、30…制御部、31…投射制御部、32…検出制御部、33…出射制御部、39…キャリブレーション制御部、40…画像処理部、48…出射装置駆動部(第2送信部)、50…位置検出部(位置検出部)、51…撮像部(撮影部)、52…送信部(第1送信部)、54…指示体検出部、55…座標算出部、60…光出射装置、70…指示体(指示体)、80…指示体(指示体)、110…記憶部、121…オートキャリブレーション画像、122…マニュアルキャリブレーション画像、123…オートキャリブレーションデータ、124…マニュアルキャリブレーションデータ、126…マニュアル補正データ、SC…スクリーン(検出領域)。   DESCRIPTION OF SYMBOLS 1 ... Projection system (position detection system), 10 ... Projector (position detection apparatus), 20 ... Projection part, 21 ... Light source part, 22 ... Light modulation apparatus, 23 ... Projection optical system, 30 ... Control part, 31 ... Projection control 32, detection control unit, 33 ... emission control unit, 39 ... calibration control unit, 40 ... image processing unit, 48 ... emission device drive unit (second transmission unit), 50 ... position detection unit (position detection unit) , 51 ... imaging unit (imaging unit), 52 ... transmission unit (first transmission unit), 54 ... indicator detection unit, 55 ... coordinate calculation unit, 60 ... light emitting device, 70 ... indicator (indicator), 80 ... Indicator (indicator) 110 ... Storage unit 121 ... Auto calibration image 122 ... Manual calibration image 123 ... Auto calibration data 124 ... Manual calibration Over data, 126 ... manual correction data, SC ... screen (detection area).

Claims (5)

指示体の指示位置を検出する検出領域に検出光を出射する光出射装置と、前記検出領域での前記指示体の指示位置を検出する位置検出装置とを備える位置検出システムであって、
前記位置検出装置は、前記検出領域を撮影する撮影部と、前記撮影部の撮影画像データから、前記指示体としての第1指示体が発する光の像と、前記指示体としての第2指示体で反射した前記検出光の像との少なくとも一方を検出し、前記第1指示体と前記光出射装置との発光タイミングに基づいて、前記第1指示体と前記第2指示体との指示位置を区別して検出する位置検出部と、
を備えることを特徴とする位置検出システム。
A position detection system comprising: a light emitting device that emits detection light to a detection region that detects an indication position of an indicator; and a position detection device that detects an indication position of the indicator in the detection region,
The position detection device includes: an imaging unit that captures the detection region; an image of light emitted by a first indicator as the indicator from a captured image data of the imaging unit; and a second indicator as the indicator And detecting at least one of the detection light image reflected at the position of the first indicator and the second indicator based on a light emission timing of the first indicator and the light emitting device. A position detection unit that detects and distinguishes;
A position detection system comprising:
前記位置検出部は、前記光出射装置の消灯後の撮影画像データに写った輝点の位置を前記第1指示体の指示位置として検出することを特徴とする請求項1記載の位置検出システム。   2. The position detection system according to claim 1, wherein the position detection unit detects a position of a bright spot reflected in captured image data after the light emitting device is turned off as an indication position of the first indicator. 前記位置検出部は、複数の第1指示体が、各第1指示体に割り当てられた識別情報に応じて点滅する光を、前記撮影画像データに基づいて判定して、前記複数の第1指示体の指示位置を区別して検出することを特徴する請求項1又は2に記載の位置検出システム。   The position detection unit determines, based on the captured image data, a light in which a plurality of first indicators blink according to identification information assigned to each first indicator, and the plurality of first indicators The position detection system according to claim 1, wherein the detection is performed by distinguishing the designated position of the body. 前記位置検出装置は、前記第1指示体の点灯タイミングを通知する同期用の信号を送信する第1送信部と、前記光出射装置に、前記検出光を出射させるタイミングを通知する信号を前記光出射装置に送信する第2送信部とを備えることを特徴とする請求項1から3のいずれか一項に記載の位置検出システム。   The position detection device transmits a signal for notifying the timing of emitting the detection light to the first transmission unit that transmits a synchronization signal for notifying the lighting timing of the first indicator, and the light emitting device. The position detection system according to claim 1, further comprising a second transmission unit that transmits to the emission device. 指示体の指示位置を検出する検出領域に検出光を出射する光出射装置と、前記検出領域での前記指示体の指示位置を検出する位置検出装置とを備える位置検出システムの制御方法であって、
前記検出領域を撮影部により撮影するステップと、
前記撮影部の撮影画像データから、前記指示体としての第1指示体が発する光の像と、前記指示体としての第2指示体で反射した前記検出光の像との少なくとも一方を検出し、前記第1指示体と前記光出射装置との発光タイミングに基づいて、前記第1指示体と前記第2指示体との指示位置を区別して検出するステップと、
を有することを特徴とする位置検出システムの制御方法。
A control method for a position detection system, comprising: a light emitting device that emits detection light to a detection region that detects an indication position of an indicator; and a position detection device that detects an indication position of the indicator in the detection region. ,
Photographing the detection area by a photographing unit;
Detecting at least one of an image of light emitted by the first indicator as the indicator and an image of the detection light reflected by the second indicator as the indicator from the captured image data of the imaging unit; Distinguishing and detecting the indication positions of the first indicator and the second indicator based on the light emission timing of the first indicator and the light emitting device;
A method for controlling a position detection system comprising:
JP2018112440A 2014-01-21 2018-06-13 Position detection system and method for controlling position detection system Active JP6562124B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014008627 2014-01-21
JP2014008627 2014-01-21

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014062102A Division JP6398248B2 (en) 2014-01-21 2014-03-25 Position detection system and method for controlling position detection system

Publications (2)

Publication Number Publication Date
JP2018160265A true JP2018160265A (en) 2018-10-11
JP6562124B2 JP6562124B2 (en) 2019-08-21

Family

ID=63795692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112440A Active JP6562124B2 (en) 2014-01-21 2018-06-13 Position detection system and method for controlling position detection system

Country Status (1)

Country Link
JP (1) JP6562124B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3629387A1 (en) 2018-08-29 2020-04-01 Seiko Epson Corporation Piezoelectric device, liquid ejection head, and printer
JP2022153981A (en) * 2021-03-30 2022-10-13 セイコーエプソン株式会社 Indicator detection method and projection system
US11614835B2 (en) * 2019-02-14 2023-03-28 Sony Group Corporation Information processing device that projects drawing information according to ratio of distances, information processing method, and recording medium
US11778152B2 (en) 2021-07-26 2023-10-03 Seiko Epson Corporation Method of controlling projector and projector

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135081A (en) * 2003-10-29 2005-05-26 Nec Viewtechnology Ltd Light pen and electronic blackboard using the same
WO2012109368A1 (en) * 2011-02-08 2012-08-16 Haworth, Inc. Multimodal touchscreen interaction apparatuses, methods and systems
JP2012256000A (en) * 2011-06-10 2012-12-27 Sanyo Electric Co Ltd Projection video display device
US20130120252A1 (en) * 2011-11-11 2013-05-16 Smart Technologies Ulc Interactive input system and method
JP2013134661A (en) * 2011-12-27 2013-07-08 Seiko Epson Corp Display device, projector, and display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135081A (en) * 2003-10-29 2005-05-26 Nec Viewtechnology Ltd Light pen and electronic blackboard using the same
WO2012109368A1 (en) * 2011-02-08 2012-08-16 Haworth, Inc. Multimodal touchscreen interaction apparatuses, methods and systems
JP2012256000A (en) * 2011-06-10 2012-12-27 Sanyo Electric Co Ltd Projection video display device
US20130120252A1 (en) * 2011-11-11 2013-05-16 Smart Technologies Ulc Interactive input system and method
JP2013134661A (en) * 2011-12-27 2013-07-08 Seiko Epson Corp Display device, projector, and display system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3629387A1 (en) 2018-08-29 2020-04-01 Seiko Epson Corporation Piezoelectric device, liquid ejection head, and printer
US11614835B2 (en) * 2019-02-14 2023-03-28 Sony Group Corporation Information processing device that projects drawing information according to ratio of distances, information processing method, and recording medium
JP2022153981A (en) * 2021-03-30 2022-10-13 セイコーエプソン株式会社 Indicator detection method and projection system
JP7338659B2 (en) 2021-03-30 2023-09-05 セイコーエプソン株式会社 Pointer detection method and projection system
US11778152B2 (en) 2021-07-26 2023-10-03 Seiko Epson Corporation Method of controlling projector and projector

Also Published As

Publication number Publication date
JP6562124B2 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
JP6398248B2 (en) Position detection system and method for controlling position detection system
JP6417690B2 (en) Projector, display device, and projector control method
JP6326895B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6349838B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6413236B2 (en) Projector, projection system, and projector control method
JP6562124B2 (en) Position detection system and method for controlling position detection system
JP6387644B2 (en) Position detection device, position detection system, and position detection method
JP2015166893A (en) Position detector and control method of position detector
CN104898894B (en) Position detection device and position detection method
JP6569259B2 (en) POSITION DETECTION DEVICE, DISPLAY DEVICE, POSITION DETECTION METHOD, AND DISPLAY METHOD
JP6340860B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6287432B2 (en) OPERATION DEVICE, POSITION DETECTION SYSTEM, AND OPERATION DEVICE CONTROL METHOD
JP6291912B2 (en) Position detection apparatus and position detection method
JP6291911B2 (en) Position detection apparatus and position detection method
JP6337558B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
US11778152B2 (en) Method of controlling projector and projector

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190708

R150 Certificate of patent or registration of utility model

Ref document number: 6562124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150