JP2015166922A - Position detection device, and position detection method - Google Patents

Position detection device, and position detection method Download PDF

Info

Publication number
JP2015166922A
JP2015166922A JP2014040898A JP2014040898A JP2015166922A JP 2015166922 A JP2015166922 A JP 2015166922A JP 2014040898 A JP2014040898 A JP 2014040898A JP 2014040898 A JP2014040898 A JP 2014040898A JP 2015166922 A JP2015166922 A JP 2015166922A
Authority
JP
Japan
Prior art keywords
unit
indicator
detection
light
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014040898A
Other languages
Japanese (ja)
Other versions
JP2015166922A5 (en
JP6291911B2 (en
Inventor
尊洋 阿野
Takahiro Ano
尊洋 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014040898A priority Critical patent/JP6291911B2/en
Priority to US14/630,094 priority patent/US9733728B2/en
Priority to CN201510088665.7A priority patent/CN104898894B/en
Priority to EP15156957.1A priority patent/EP2916201B1/en
Publication of JP2015166922A publication Critical patent/JP2015166922A/en
Publication of JP2015166922A5 publication Critical patent/JP2015166922A5/ja
Application granted granted Critical
Publication of JP6291911B2 publication Critical patent/JP6291911B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a position detection device and position detection method with which correction of indication positions can be properly performed irrespective of indicators to be used.SOLUTION: A projector 10 includes an indicator detection part 54 that determines the types of indicators 70 and 80, a coordinate calculation part 55 that detects the indication positions of the indicators 70 and 80, a storage part 110 that stores the reference variation amounts of the indication positions caused by the indicators 70 and 80 for each of the indicators 70 and 80, and a projection control part 31 that acquires the reference variation amount according to the type of the indicator determined by the indicator detection part 54 from the storage part 110, and corrects the indication positions detected by the coordination calculation part 55 on the basis of the acquired reference variation amount.

Description

本発明は、位置検出装置、及び、位置検出方法に関する。   The present invention relates to a position detection device and a position detection method.

コンピューター等の映像出力装置から出力される画像を、プロジェクターによって投射面に投写するとともに、投写された画像をカメラで撮像して、投写された画像に対して行われた操作指示をプロジェクターで認識するシステムが提案されている。例えば、特許文献1には、指示体としての発光ペンの発光を撮影装置で撮影して、発光ペンによる指示位置を特定する技術が開示されている。   An image output from a video output device such as a computer is projected onto the projection surface by the projector, and the projected image is captured by the camera, and the operation instruction performed on the projected image is recognized by the projector. A system has been proposed. For example, Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for photographing a light emission of a light-emitting pen as an indicator with an imaging device and specifying an indication position by the light-emitting pen.

特開2011−227600号公報JP 2011-227600 A

撮影装置により撮影された撮影画像により指示体の指示位置を特定する場合、特定される指示位置に変動(ぶれ)が生じる場合があるため、指示位置の変動を補正する補正処理を行う必要がある。特に、指示位置を検出する方式が異なる複数の指示体を組み合わせて使用する場合、検出方式の相違が要因となって、位置検出の精度に影響を及ぼす場合がある。
本発明は、上述した事情に鑑みてなされたものであり、使用する指示体によらずに適切に指示位置の補正を行うことができる位置検出装置、及び、位置検出方法を提供することを目的とする。
When the pointing position of the indicator is specified from the captured image captured by the imaging device, the specified pointing position may fluctuate (blur). Therefore, it is necessary to perform a correction process for correcting the fluctuation of the pointing position. . In particular, when a plurality of pointers having different methods for detecting the indicated position are used in combination, the difference in the detection method may cause the position detection accuracy.
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a position detection device and a position detection method that can appropriately correct the indicated position regardless of the indicator used. And

上記目的を達成するため、本発明の位置検出装置は、指示体の種類を判定する判定部と、前記指示体の指示位置を検出する検出部と、前記検出部が検出した指示位置の変動に関する基準変動量を、前記指示体ごとに記憶する記憶部と、前記判定部により判定した前記指示体の種類に応じた基準変動量を前記記憶部から取得し、前記検出部が検出した指示位置を、取得した前記基準変動量に基づいて補正する補正部と、を備えることを特徴とする。
本構成によれば、使用する指示体によらずに適切に指示位置の補正を行うことができる。
In order to achieve the above object, a position detection apparatus of the present invention relates to a determination unit that determines the type of a pointer, a detection unit that detects a pointing position of the pointer, and a change in a pointing position detected by the detection unit. A storage unit that stores a reference variation amount for each indicator, and a reference variation amount corresponding to the type of the indicator determined by the determination unit is acquired from the storage unit, and an indication position detected by the detection unit is obtained. And a correction unit that corrects based on the acquired reference fluctuation amount.
According to this configuration, it is possible to appropriately correct the indicated position regardless of the indicator used.

また、本発明は、上記位置検出装置において、前記補正部は、前記指示位置の変動が前記基準変動量の範囲内の場合に、前記変動を補償する補正を行うことを特徴とする。
本構成によれば、指示位置の変動を補償することができる。
Further, the present invention is characterized in that, in the position detection device, the correction unit performs correction to compensate for the change when the change in the designated position is within the range of the reference change amount.
According to this configuration, it is possible to compensate for changes in the designated position.

また、本発明は、上記位置検出装置において、前記記憶部は、指示位置に応じた複数の基準変動量を記憶し、前記補正部は、前記検出部が検出した指示位置に応じた基準変動量を前記記憶部から取得して、前記検出部が検出した指示位置を、取得した前記基準変動量に基づいて補正することを特徴とする。
本構成によれば、指示位置ごとに適切な基準変動量を用いて指示位置を補正することができる。
According to the present invention, in the position detection device, the storage unit stores a plurality of reference fluctuation amounts according to the designated position, and the correction unit is a reference fluctuation amount according to the designated position detected by the detection unit. Is acquired from the storage unit, and the indicated position detected by the detection unit is corrected based on the acquired reference variation amount.
According to this configuration, it is possible to correct the designated position using an appropriate reference variation amount for each designated position.

また、本発明は、上記位置検出装置において、前記補正部は、前記記憶部が記憶する前記基準変動量を指示位置に応じて調整し、前記検出部が検出した指示位置を、調整後の基準変動量に基づいて補正することを特徴とする。
本構成によれば、指示位置の補正精度を高めることができる。
Further, according to the present invention, in the position detection device, the correction unit adjusts the reference variation amount stored in the storage unit according to an instruction position, and the indication position detected by the detection unit is used as an adjusted reference. The correction is based on the fluctuation amount.
According to this configuration, it is possible to improve the correction accuracy of the indicated position.

また、本発明は、上記位置検出装置において、前記検出部が検出した指示位置の変動に基づいて前記基準変動量を算出する算出部をさらに備え、前記記憶部は、前記算出部で算出された前記基準変動量を記憶することを特徴とする。
本構成によれば、検出部が検出した指示位置の変動に基づいて基準変動量を算出して記憶部に記憶させることができる。
In the position detection device, the present invention further includes a calculation unit that calculates the reference variation amount based on a variation in the indicated position detected by the detection unit, and the storage unit is calculated by the calculation unit. The reference variation amount is stored.
According to this configuration, it is possible to calculate the reference variation amount based on the variation in the designated position detected by the detection unit and store the reference variation amount in the storage unit.

また、本発明は、上記位置検出装置において、前記指示体の指示位置を検出する検出領域に検出光を出射する光出射部と、前記検出領域を撮影する撮影部と、を備え、前記検出部は、前記撮影部の撮影画像データから、前記指示体としての第1指示体が発する光の像と、前記指示体としての第2指示体で反射した前記検出光の像との少なくとも一方を検出し、前記第1指示体と前記光出射部との発光タイミングに基づいて、前記第1指示体と前記第2指示体との指示位置を区別して検出することを特徴とする。
本構成によれば、第1指示体と第2指示体との識別精度を向上させることができ、使用する指示体によらずに適切に各指示体の指示位置の補正を行うことができる。
Further, the present invention provides the above-described position detection device, comprising: a light emitting unit that emits detection light to a detection region that detects an indication position of the indicator; and a photographing unit that captures the detection region. Detects at least one of an image of light emitted by the first indicator as the indicator and an image of the detection light reflected by the second indicator as the indicator from the photographed image data of the imaging unit And based on the light emission timing of the said 1st indicator and the said light emission part, the indication position of the said 1st indicator and the said 2nd indicator is distinguished and detected, It is characterized by the above-mentioned.
According to this configuration, the identification accuracy between the first indicator and the second indicator can be improved, and the indication position of each indicator can be appropriately corrected regardless of the indicator used.

また、本発明は、上記位置検出装置において、前記検出部は、前記光出射部の消灯時の撮影画像データに写った輝点の位置を前記第1指示体の指示位置として検出することを特徴とする。
本構成によれば、第1指示体と第2指示体とを区別する精度を向上させることができ、使用する指示体によらずに適切に各指示体の指示位置の補正を行うことができる。
In the position detection device according to the present invention, the detection unit detects a position of a bright spot in the captured image data when the light emitting unit is turned off as an indication position of the first indicator. And
According to this structure, the precision which distinguishes a 1st indicator and a 2nd indicator can be improved, and the indication position of each indicator can be corrected appropriately irrespective of the indicator to be used. .

本発明の位置検出方法は、指示体の種類を判定するステップと、前記指示体の指示位置を検出するステップと、検出した指示位置の変動に関する基準変動量を前記指示体ごとに記憶する記憶部から、判定した前記指示体の種類に応じた基準変動量を取得し、検出した指示位置を、取得した前記基準変動量に基づいて補正するステップと、を備えることを特徴とする。
本構成によれば、使用する指示体によらずに適切に指示位置の補正を行うことができる。
The position detection method of the present invention includes a step of determining a type of an indicator, a step of detecting an indication position of the indicator, and a storage unit that stores, for each indicator, a reference variation amount relating to the detected indication position variation. And acquiring a reference variation amount corresponding to the determined type of the indicator and correcting the detected indicated position based on the acquired reference variation amount.
According to this configuration, it is possible to appropriately correct the indicated position regardless of the indicator used.

本発明によれば、使用する指示体によらずに適切に指示位置の補正を行うことができる。   According to the present invention, it is possible to appropriately correct the indicated position regardless of the indicator used.

実施形態に係るプロジェクションシステムの概略構成図である。1 is a schematic configuration diagram of a projection system according to an embodiment. プロジェクションシステムの機能ブロック図である。It is a functional block diagram of a projection system. 各部の発光タイミングを示すシーケンス図である。It is a sequence diagram which shows the light emission timing of each part. 指示体の指示位置を検出する様子を示す説明図である。It is explanatory drawing which shows a mode that the indication position of a pointer is detected. 傾斜したスクリーン上の指示位置を検出する様子を示す図である。It is a figure which shows a mode that the indication position on the inclined screen is detected. 指示位置の相違による検出位置の相違を示す図である。It is a figure which shows the difference in the detection position by the difference in an instruction | indication position. (A)は基準変動量算出用画像の一例を示す図であり、(B)は撮影画像データを領域分割した様子を示す図である。(A) is a figure which shows an example of the image for a reference | standard variation | change_quantity calculation, (B) is a figure which shows a mode that the imaging | photography image data was divided into areas. 基準変動量の算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of a reference | standard variation | change_quantity. 基準変動量を用いて指示位置を補正する手順を示すフローチャートである。It is a flowchart which shows the procedure which correct | amends an indication position using a reference | standard variation | change_quantity.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面)の上方に設置されたプロジェクター10と、スクリーンSCの上部に設置された光出射装置60(光出射部)とを備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a projection system 1 according to an embodiment to which the present invention is applied. The projection system 1 includes a projector 10 installed above a screen SC (projection surface) and a light emitting device 60 (light emitting unit) installed above the screen SC.

プロジェクター10はスクリーンSCの直上又は斜め上方に設置され、斜め下方のスクリーンSCに向けて画像を投射する。また、本実施形態で例示するスクリーンSCは、壁面に固定され、或いは床面に立設された平板又は幕である。本発明はこの例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター10及び光出射装置60を取り付けるとよい。   The projector 10 is installed directly above or obliquely above the screen SC and projects an image toward the screen SC obliquely below. Further, the screen SC exemplified in the present embodiment is a flat plate or curtain fixed to a wall surface or standing on a floor surface. The present invention is not limited to this example, and the wall surface can be used as the screen SC. In this case, the projector 10 and the light emitting device 60 may be attached to the upper part of the wall surface used as the screen SC.

プロジェクター10は、PC(パーソナルコンピューター)、ビデオ再生装置、DVD(Digital Versatile Disk)再生装置等の外部の画像供給装置に接続されている。プロジェクター10は、この画像供給装置から供給されるアナログ画像信号又はデジタル画像データに基づき、スクリーンSCに画像を投射する。また、プロジェクター10は、内蔵する記憶部110(図2)や外部接続される記憶媒体に記憶された画像データを読み出して、この画像データに基づきスクリーンSCに画像を表示する構成としてもよい。
光出射装置60は、固体光源からなる光源部61(図2)を有し、光源部61が発する光をスクリーンSCに沿って拡散させて出射(照射)する。光出射装置60の出射範囲を図1に角度θで示す。光出射装置60はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を出射する。光出射装置60の出射する光はスクリーンSCに沿う光の層を形成する。本実施形態では角度θはほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と光の層とは近接していることが好ましく、本実施形態では、スクリーンSCの表面と光の層との距離は概ね10mm〜1mmの範囲内である。また、光出射装置60が出射する光は可視領域外の光であり、本実施形態では赤外光とする。
The projector 10 is connected to an external image supply device such as a PC (personal computer), a video playback device, and a DVD (Digital Versatile Disk) playback device. The projector 10 projects an image on the screen SC based on the analog image signal or digital image data supplied from the image supply device. The projector 10 may be configured to read out image data stored in a built-in storage unit 110 (FIG. 2) or an externally connected storage medium and display an image on the screen SC based on the image data.
The light emitting device 60 has a light source unit 61 (FIG. 2) made of a solid light source, and diffuses (emits) light emitted from the light source unit 61 along the screen SC. The emission range of the light emitting device 60 is shown in FIG. The light emitting device 60 is installed above the upper end of the screen SC, and emits light downward in the range of the angle θ. The light emitted from the light emitting device 60 forms a light layer along the screen SC. In this embodiment, the angle θ reaches approximately 180 degrees, and a light layer is formed on almost the entire screen SC. The surface of the screen SC and the light layer are preferably close to each other. In this embodiment, the distance between the surface of the screen SC and the light layer is approximately in the range of 10 mm to 1 mm. The light emitted from the light emitting device 60 is light outside the visible region, and is infrared light in this embodiment.

プロジェクションシステム1は、スクリーンSCに対する指示操作が行われた場合に、指示位置をプロジェクター10によって検出する。
指示操作に利用される指示体は、ペン型の指示体70(第1指示体)又はユーザーの手指である指示体80(第2指示体)を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する光に基づき、先端部71の位置を、指示位置として検出する。指示体70が発する光は可視領域外の光であり、本実施形態では赤外光とする。
The projection system 1 detects the indicated position by the projector 10 when an instruction operation is performed on the screen SC.
As the indicator used for the instruction operation, a pen-type indicator 70 (first indicator) or an indicator 80 (second indicator) which is a user's finger can be used. Since the distal end portion 71 of the indicator 70 incorporates an operation switch 75 (FIG. 2) that operates when pressed, the operation switch 75 is turned on when the distal end portion 71 is pressed against the wall or the screen SC. become. The indicator 70 is operated so that the user holds the rod-shaped shaft portion 72 in his / her hand and brings the tip portion 71 into contact with the screen SC, and an operation of pressing the tip portion 71 against the screen SC is also performed. The distal end portion 71 includes a transmission / reception unit 74 (FIG. 2) that emits light. The projector 10 detects the position of the distal end portion 71 as the indication position based on the light emitted from the indicator 70. The light emitted from the indicator 70 is light outside the visible region, and is infrared light in this embodiment.

また、ユーザーの手指である指示体80で位置指示操作を行う場合、ユーザーは指をスクリーンSCに接触させる。この場合、指示体80がスクリーンSCに接触した位置が検出される。
すなわち、指示体80の先端(例えば、指先)がスクリーンSCに接触するときに、光出射装置60が形成する光の層を遮る。このとき、光出射装置60が出射した光が指示体80に当たって反射し、反射光の一部は指示体80からプロジェクター10に向かって進む。プロジェクター10は、スクリーンSC側からの光、すなわち下方からの光を後述する位置検出部50により検出する機能を有するので、指示体80の反射光を検出できる。プロジェクター10は、指示体80で反射した反射光を検出することにより、指示体80によるスクリーンSCへの指示操作を検出する。また、プロジェクター10は指示体80により指示された指示位置を検出する。
光出射装置60が出射する光の層はスクリーンSCに近接しているので、指示体80において光が反射する位置は、スクリーンSCに最も近い先端、或いは指示位置と見なすことができる。このため、指示体80の反射光に基づき指示位置を特定できる。
Further, when a position indicating operation is performed with the indicator 80 that is a user's finger, the user brings the finger into contact with the screen SC. In this case, the position where the indicator 80 contacts the screen SC is detected.
That is, when the tip (for example, fingertip) of the indicator 80 contacts the screen SC, the light layer formed by the light emitting device 60 is blocked. At this time, the light emitted from the light emitting device 60 strikes and reflects the indicator 80, and part of the reflected light travels from the indicator 80 toward the projector 10. Since the projector 10 has a function of detecting light from the screen SC side, that is, light from below by the position detection unit 50 described later, the reflected light of the indicator 80 can be detected. The projector 10 detects an instruction operation on the screen SC by the indicator 80 by detecting the reflected light reflected by the indicator 80. Further, the projector 10 detects the indicated position indicated by the indicator 80.
Since the light layer emitted from the light emitting device 60 is close to the screen SC, the position where the light is reflected by the indicator 80 can be regarded as the tip closest to the screen SC or the indication position. For this reason, the indicated position can be specified based on the reflected light of the indicator 80.

プロジェクションシステム1は、インタラクティブホワイトボードシステムとして機能し、ユーザーが指示体70、80により行った操作指示を検出して、指示位置を投射画像に反映させる。具体的には、プロジェクションシステム1は、指示位置に図形を描画したり文字や記号を配置したりする処理、指示位置の軌跡に沿って図形を描画する処理、描画した図形や配置した文字又は記号を消去する処理等を行う。また、スクリーンSCに描画された図形、配置された文字又は記号を画像データとして保存することもでき、外部の装置に出力することもできる。
さらに、プロジェクションシステム1は、指示位置を検出することによりポインティングデバイスとして動作し、プロジェクター10が画像を投射するスクリーンSCの投射領域における指示位置の座標を出力してもよい。また、プロジェクションシステム1は、指示位置の座標を用いてGUI(Graphical User Interface)操作を行うこともできる。
The projection system 1 functions as an interactive whiteboard system, detects an operation instruction given by the user with the indicators 70 and 80, and reflects the indicated position on the projection image. Specifically, the projection system 1 performs a process of drawing a graphic or placing a character or a symbol at a designated position, a process of drawing a graphic along the locus of the designated position, a drawn figure, or a placed character or symbol. The process etc. which erase | eliminate are performed. In addition, graphics drawn on the screen SC, arranged characters or symbols can be stored as image data, and can be output to an external device.
Further, the projection system 1 may operate as a pointing device by detecting the designated position, and output the coordinates of the designated position in the projection area of the screen SC on which the projector 10 projects an image. The projection system 1 can also perform a GUI (Graphical User Interface) operation using the coordinates of the designated position.

図2は、プロジェクションシステム1を構成する各部の機能ブロック図である。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
FIG. 2 is a functional block diagram of each part constituting the projection system 1.
The projector 10 includes an I / F (interface) unit 11 and an image I / F (interface) unit 12 as interfaces connected to external devices. The I / F unit 11 and the image I / F unit 12 may include a connector for wired connection, and may include an interface circuit corresponding to the connector. The I / F unit 11 and the image I / F unit 12 may include a wireless communication interface. Examples of the connector and interface circuit for wired connection include those based on wired LAN, IEEE 1394, USB, and the like. Examples of the wireless communication interface include those that comply with a wireless LAN, Bluetooth (registered trademark), or the like. The image I / F unit 12 may be an image data interface such as an HDMI (registered trademark) interface. The image I / F unit 12 may include an interface through which audio data is input.

I/F部11は、PC等の外部の装置との間で各種データを送受信するインターフェイスである。I/F部11は、画像の投射に関する制御データ、プロジェクター10の動作を設定する設定データ、プロジェクター10が検出した指示位置の座標データ等を入出力する。後述する制御部30は、I/F部11を介して外部の装置とデータを送受信する機能を有する。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
The I / F unit 11 is an interface that transmits and receives various data to and from an external device such as a PC. The I / F unit 11 inputs and outputs control data related to image projection, setting data for setting the operation of the projector 10, coordinate data of the designated position detected by the projector 10, and the like. The control unit 30 described later has a function of transmitting / receiving data to / from an external device via the I / F unit 11.
The image I / F unit 12 is an interface through which digital image data is input. The projector 10 of the present embodiment projects an image based on digital image data input via the image I / F unit 12. The projector 10 may have a function of projecting an image based on the analog image signal. In this case, the image I / F unit 12 converts the analog image signal into digital image data and an analog image interface. And an A / D conversion circuit.

プロジェクター10は、光学的な画像の形成を行う投射部20を備える。投射部20は、光源部21、光変調装置22及び投射光学系23を有する。光源部21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、或いはレーザー光源等からなる光源を備える。また、光源部21は、光源が発した光を光変調装置22に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
投射光学系23は、光変調装置22により変調された画像光をスクリーンSC方向へ導き、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系23は、スクリーンSCの投射画像の拡大・縮小及び焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。プロジェクター10が短焦点型である場合、投射光学系23に、画像光をスクリーンSCに向けて反射する凹面鏡を備えていてもよい。
The projector 10 includes a projection unit 20 that forms an optical image. The projection unit 20 includes a light source unit 21, a light modulation device 22, and a projection optical system 23. The light source unit 21 includes a light source including a xenon lamp, an ultra high pressure mercury lamp, an LED (Light Emitting Diode), a laser light source, or the like. The light source unit 21 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 22. Further, a lens group (not shown) for enhancing the optical characteristics of the projection light, a polarizing plate, or a dimming element that reduces the amount of light emitted from the light source on the path to the light modulation device 22 may be provided. Good.
The light modulation device 22 includes, for example, three transmissive liquid crystal panels corresponding to the three primary colors of RGB, and generates image light by modulating light transmitted through the liquid crystal panel. The light from the light source unit 21 is separated into three color lights of RGB, and each color light enters each corresponding liquid crystal panel. The color light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 23.
The projection optical system 23 includes a lens group that guides the image light modulated by the light modulation device 22 toward the screen SC and forms an image on the screen SC. Further, the projection optical system 23 may include a zoom mechanism for enlarging / reducing the projected image on the screen SC and adjusting the focus, and a focus adjusting mechanism for adjusting the focus. When the projector 10 is a short focus type, the projection optical system 23 may include a concave mirror that reflects image light toward the screen SC.

投射部20には、制御部30の制御に従って光源部21を点灯させる光源駆動部45、及び制御部30の制御に従って光変調装置22を動作させる光変調装置駆動部46が接続される。光源駆動部45は、光源部21の点灯/消灯の切り替えを行い、光源部21の光量を調整する機能を有していてもよい。   The projection unit 20 is connected to a light source drive unit 45 that turns on the light source unit 21 according to the control of the control unit 30 and a light modulation device drive unit 46 that operates the light modulation device 22 according to the control of the control unit 30. The light source drive unit 45 may have a function of switching on / off the light source unit 21 and adjusting the light amount of the light source unit 21.

プロジェクター10は、投射部20が投射する画像を処理する画像処理系を備える。この画像処理系は、プロジェクター10を制御する制御部30、記憶部110、操作検出部17、画像処理部40、光源駆動部45、及び光変調装置駆動部46を含む。また、画像処理部40にはフレームメモリー44が接続され、制御部30には姿勢センサー47、出射装置駆動部48、及び位置検出部50が接続される。これらの各部を画像処理系に含めてもよい。   The projector 10 includes an image processing system that processes an image projected by the projection unit 20. The image processing system includes a control unit 30 that controls the projector 10, a storage unit 110, an operation detection unit 17, an image processing unit 40, a light source driving unit 45, and a light modulation device driving unit 46. In addition, a frame memory 44 is connected to the image processing unit 40, and an attitude sensor 47, an emission device driving unit 48, and a position detection unit 50 are connected to the control unit 30. These units may be included in the image processing system.

制御部30は、所定の制御プログラム111を実行することにより、プロジェクター10の各部を制御する。記憶部110は、制御部30が実行する制御プログラム111、及び制御部30が処理するデータを不揮発的に記憶する。記憶部110は、プロジェクター10の動作を設定するための画面の設定画面データ112、及び設定画面データ112を利用して設定された内容を示す設定データ113を記憶する。
また、記憶部110には、基準変動量算出用画像114、第1基準変動量115、第2基準変動量116、第1キャリブレーションデータ117、第2キャリブレーションデータ118等が記憶されている。これらのデータについては後述する。
The control unit 30 controls each unit of the projector 10 by executing a predetermined control program 111. The storage unit 110 stores the control program 111 executed by the control unit 30 and the data processed by the control unit 30 in a nonvolatile manner. The storage unit 110 stores screen setting screen data 112 for setting the operation of the projector 10 and setting data 113 indicating the contents set using the setting screen data 112.
Further, the storage unit 110 stores a reference fluctuation amount calculation image 114, a first reference fluctuation amount 115, a second reference fluctuation amount 116, first calibration data 117, second calibration data 118, and the like. These data will be described later.

画像処理部40は、制御部30の制御に従って、画像I/F部12を介して入力される画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
The image processing unit 40 processes the image data input via the image I / F unit 12 under the control of the control unit 30, and outputs an image signal to the light modulation device driving unit 46. The processing executed by the image processing unit 40 includes 3D (stereoscopic) image and 2D (planar) image discrimination processing, resolution conversion processing, frame rate conversion processing, distortion correction processing, digital zoom processing, color tone correction processing, luminance correction processing, and the like. is there. The image processing unit 40 executes processing designated by the control unit 30 and performs processing using parameters input from the control unit 30 as necessary. Of course, it is also possible to execute a combination of a plurality of processes.
The image processing unit 40 is connected to the frame memory 44. The image processing unit 40 expands the image data input from the image input I / F 12 in the frame memory 44, and executes the various processes described above on the expanded image data. The image processing unit 40 reads out the processed image data from the frame memory 44, generates R, G, B image signals corresponding to the image data, and outputs them to the light modulation device driving unit 46.
The light modulation device driving unit 46 is connected to the liquid crystal panel of the light modulation device 22. The light modulator driving unit 46 drives the liquid crystal panel based on the image signal input from the image processing unit 40 and draws an image on each liquid crystal panel.

操作検出部17は、入力デバイスとして機能するリモコン受光部18及び操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部18によって受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
The operation detection unit 17 is connected to a remote control light receiving unit 18 and an operation panel 19 that function as an input device, and detects an operation via the remote control light reception unit 18 and the operation panel 19.
The remote control light receiving unit 18 receives, by the remote control light receiving unit 18, an infrared signal transmitted in response to a button operation by a remote control (not shown) used by the user of the projector 10. The remote control light receiving unit 18 decodes the infrared signal received from the remote control, generates operation data indicating the operation content on the remote control, and outputs the operation data to the control unit 30.
The operation panel 19 is provided in the exterior housing of the projector 10 and has various switches and indicator lamps. The operation detection unit 17 appropriately turns on and off the indicator lamp of the operation panel 19 according to the operation state and setting state of the projector 10 according to the control of the control unit 30. When the switch of the operation panel 19 is operated, operation data corresponding to the operated switch is output from the operation detection unit 17 to the control unit 30.

表示部16は、制御部30の制御に従って情報を表示する。例えば、表示部16には、基準変動量を算出する指示体70、80を選択する選択画面が表示される。   The display unit 16 displays information according to the control of the control unit 30. For example, the display unit 16 displays a selection screen for selecting the indicators 70 and 80 for calculating the reference variation amount.

出射装置駆動部48は、接続部49を介して光出射装置60に接続される。接続部49は、例えば複数のピンを有するコネクターであり、接続部49には光出射装置60がケーブル60aを介して接続される。出射装置駆動部48は、制御部30の制御に従ってパルス信号を生成し、接続部49を介して光出射装置60に出力する。また、出射装置駆動部48は接続部49を介して光出射装置60に電源を供給する。   The emission device driving unit 48 is connected to the light emission device 60 via the connection unit 49. The connection portion 49 is a connector having a plurality of pins, for example, and the light emitting device 60 is connected to the connection portion 49 via a cable 60a. The emission device driving unit 48 generates a pulse signal according to the control of the control unit 30 and outputs the pulse signal to the light emission device 60 via the connection unit 49. Further, the emission device driving unit 48 supplies power to the light emission device 60 through the connection unit 49.

光出射装置60は、図1に示すように略箱形のケースに、光源部61及び光学部品を収容して構成される。本実施形態の光出射装置60は、光源部61に、赤外光を発する固体光源(不図示)を備える。固体光源が発する赤外光は、平行化レンズ及びパウエルレンズによって拡散され、スクリーンSCに沿った面を形成する。また、光源部61が複数の固体光源を備え、これら複数の固体光源が発する光をそれぞれ拡散させることによって、スクリーンSCの画像投射範囲を覆うように光の層を形成してもよい。また、光出射装置60は、光源部61が発する光の層とスクリーンSCとの間の距離や角度を調整する調整機構を備えていてもよい。   As shown in FIG. 1, the light emitting device 60 is configured by housing a light source unit 61 and optical components in a substantially box-shaped case. The light emitting device 60 of the present embodiment includes a solid light source (not shown) that emits infrared light in the light source unit 61. Infrared light emitted from the solid-state light source is diffused by the collimating lens and the Powell lens to form a surface along the screen SC. The light source unit 61 may include a plurality of solid light sources, and a light layer may be formed so as to cover the image projection range of the screen SC by diffusing light emitted from the plurality of solid light sources. The light emitting device 60 may include an adjustment mechanism that adjusts the distance and angle between the light layer emitted from the light source unit 61 and the screen SC.

光出射装置60は、出射装置駆動部48から供給されるパルス信号及び電源により、光源部61を点灯させる。光源部61が点灯及び消灯するタイミングは、出射装置駆動部48が制御する。制御部30は、出射装置駆動部48を制御して、後述する撮像部51が撮影を行うタイミングに同期して光源部61を点灯させる。   The light emitting device 60 turns on the light source unit 61 by the pulse signal and the power source supplied from the emitting device driving unit 48. The emission device driving unit 48 controls the timing at which the light source unit 61 is turned on and off. The control unit 30 controls the emission device driving unit 48 to turn on the light source unit 61 in synchronization with the timing when the imaging unit 51 described later performs imaging.

位置検出部50は、指示体70、80によるスクリーンSCへの操作を検出する。位置検出部50は、撮像部51、送信部52、撮影制御部53、指示体検出部54及び座標算出部55の各部を備えて構成される。   The position detection unit 50 detects an operation on the screen SC by the indicators 70 and 80. The position detection unit 50 includes an imaging unit 51, a transmission unit 52, an imaging control unit 53, a pointer detection unit 54, and a coordinate calculation unit 55.

撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。   The imaging unit 51 includes an imaging optical system, an imaging element, an interface circuit, and the like, and images the projection direction of the projection optical system 23. The imaging optical system of the imaging unit 51 is arranged so as to face substantially the same direction as the projection optical system 23, and has an angle of view that covers a range in which the projection optical system 23 projects an image on the screen SC. Examples of the imaging device include a CCD and a CMOS that receive light in the infrared region and the visible light region. The imaging unit 51 may include a filter that blocks a part of the light incident on the imaging element. For example, when receiving infrared light, a filter that mainly transmits infrared light is provided in front of the imaging element. May be arranged. Further, the interface circuit of the imaging unit 51 reads and outputs the detection value of the imaging element.

撮影制御部53は、撮像部51により撮影を実行させて撮影画像データを生成する。撮像素子が可視光による撮影を行うと、スクリーンSC上に投射された画像が撮影される。また、撮影制御部53は、撮像部51により赤外光を撮影させることができ、この場合の撮影画像には指示体70が発する赤外光(赤外線信号)や、指示体80に反射した反射光が写る。   The imaging control unit 53 causes the imaging unit 51 to perform imaging and generates captured image data. When the imaging device performs imaging with visible light, an image projected on the screen SC is captured. In addition, the imaging control unit 53 can cause the imaging unit 51 to capture infrared light. In this case, the captured image includes infrared light (infrared signal) emitted from the indicator 70 or reflection reflected by the indicator 80. Light is reflected.

指示体検出部54は、撮影制御部53が撮像部51に撮影させた撮影画像データに基づいて指示体70、80の指示位置を検出する。指示体検出部54は、撮影制御部53が撮像部51によって赤外光の撮影を実行させた場合の撮影画像データから、指示体70が発した赤外光の像と、指示体80に反射した反射光の像との少なくとも一方を検出する。さらに、指示体検出部54は、検出した像が、指示体70が発した光の像であるのか、指示体80の反射光の像であるのかを判別する。すなわち、指示体検出部54は、操作指示が、指示体70より行われたものであるのか、指示体80により行われたものであるのかを判定する。指示体検出部54による指示体70、80の判別方法については後述する。指示体検出部54は、検出した像が、指示体70の像であるのか、指示体80の反射光の像であるのかを示す種類情報を生成して、座標算出部55に渡す。また、指示体検出部54は、指示体70の備える操作スイッチ75の操作状態を、撮影画像データから判定する。指示体70は、指示体70の備える操作スイッチ75の操作状態に応じて、指示体70の点灯パターンを切り替える。指示体検出部54は、複数の撮影画像データに基づいて、指示体70の点灯パターンを判定し、操作スイッチ75の操作状態を判定する。指示体検出部54は、判定した操作状態を示すデータを座標算出部55に渡す。   The indicator detection unit 54 detects the indication positions of the indicators 70 and 80 based on the captured image data that the imaging control unit 53 has captured by the imaging unit 51. The indicator detection unit 54 reflects the image of the infrared light emitted by the indicator 70 and the reflection of the indicator 80 from the captured image data when the imaging control unit 53 causes the imaging unit 51 to perform infrared imaging. At least one of the reflected light image is detected. Further, the indicator detection unit 54 determines whether the detected image is an image of light emitted from the indicator 70 or an image of reflected light of the indicator 80. That is, the indicator detection unit 54 determines whether the operation instruction is issued from the indicator 70 or the indicator 80. A method of discriminating the indicators 70 and 80 by the indicator detection unit 54 will be described later. The indicator detection unit 54 generates type information indicating whether the detected image is an image of the indicator 70 or an image of reflected light of the indicator 80 and passes it to the coordinate calculation unit 55. In addition, the indicator detection unit 54 determines the operation state of the operation switch 75 included in the indicator 70 from the captured image data. The indicator 70 switches the lighting pattern of the indicator 70 according to the operation state of the operation switch 75 provided in the indicator 70. The indicator detection unit 54 determines the lighting pattern of the indicator 70 based on the plurality of captured image data, and determines the operation state of the operation switch 75. The indicator detection unit 54 passes data indicating the determined operation state to the coordinate calculation unit 55.

座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70、80の指示位置の座標値を算出して、制御部30に出力する。また、座標算出部55は、投射部20が投射した投射画像における指示体70、80の指示位置の座標値を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70、80の指示位置の座標や、画像I/F部12の入力画像データにおける指示体70、80の指示位置の座標を算出してもよい。座標算出部55は、指示体検出部54から入力した種類情報を、算出した指示位置の座標値とともに制御部30に出力する。また、座標算出部55は、指示体検出部54から操作スイッチ75の操作状態を示すデータを入力した場合には、この操作状態を示すデータを制御部30に出力する。   The coordinate calculation unit 55 calculates the coordinate value of the indication position of the indicators 70 and 80 in the captured image data based on the position of the image detected by the indicator detection unit 54, and outputs it to the control unit 30. Further, the coordinate calculation unit 55 may calculate the coordinate value of the indication position of the indicators 70 and 80 in the projection image projected by the projection unit 20 and output the calculated coordinate value to the control unit 30. Further, the coordinate calculation unit 55 is configured to display the coordinates of the pointing positions of the indicators 70 and 80 in the image data drawn by the image processing unit 40 in the frame memory 44 and the indicators 70 and 80 in the input image data of the image I / F unit 12. The coordinates of the designated position may be calculated. The coordinate calculation unit 55 outputs the type information input from the indicator detection unit 54 to the control unit 30 together with the calculated coordinate value of the indicated position. In addition, when the data indicating the operation state of the operation switch 75 is input from the indicator detection unit 54, the coordinate calculation unit 55 outputs the data indicating the operation state to the control unit 30.

送信部52は、指示体検出部54の制御に従って、指示体70に対して赤外線信号を送信する。送信部52は、赤外LED等の光源を有し、この光源を指示体検出部54の制御に従って点灯及び消灯させる。   The transmission unit 52 transmits an infrared signal to the indicator 70 according to the control of the indicator detection unit 54. The transmission unit 52 has a light source such as an infrared LED, and turns on and off the light source according to the control of the indicator detection unit 54.

また、指示体70は、制御部73、送受信部74、操作スイッチ75及び電源部76を備え、これらの各部は軸部72(図1)に収容される。制御部73は、送受信部74及び操作スイッチ75に接続され、操作スイッチ75の状態(オン又はオフ)を検出する。送受信部74は、赤外LED等の光源と、赤外光を受光する受光素子とを備え、制御部73の制御に従って光源を点灯及び消灯させるとともに、受光素子の受光状態を示す信号を制御部73に出力する。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン又はオフする電源スイッチを備えていてもよい。
Moreover, the indicator 70 is provided with the control part 73, the transmission / reception part 74, the operation switch 75, and the power supply part 76, and these each part is accommodated in the axial part 72 (FIG. 1). The control unit 73 is connected to the transmission / reception unit 74 and the operation switch 75, and detects the state (ON or OFF) of the operation switch 75. The transmission / reception unit 74 includes a light source such as an infrared LED and a light receiving element that receives infrared light. The transmission / reception unit 74 turns on and off the light source according to the control of the control unit 73, and transmits a signal indicating a light receiving state of the light receiving element. To 73.
The power supply unit 76 includes a dry battery or a secondary battery as a power supply, and supplies power to the control unit 73, the transmission / reception unit 74, and the operation switch 75.
The indicator 70 may include a power switch that turns on or off the power supply from the power supply unit 76.

ここで、位置検出部50と指示体70との相互の通信により、撮像部51の撮影画像データから指示体70を特定する方法について説明する。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンは、光源の点灯と消灯をデータのオンとオフに対応させた、指示体70に固有のデータを表す。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
Here, a method of specifying the indicator 70 from the captured image data of the imaging unit 51 by mutual communication between the position detection unit 50 and the indicator 70 will be described.
When detecting the position pointing operation by the pointer 70, the control unit 30 controls the pointer detection unit 54 to transmit a synchronization signal from the transmission unit 52. That is, the indicator detection unit 54 turns on the light source of the transmission unit 52 at a predetermined period in accordance with the control of the control unit 30. The infrared light periodically emitted from the transmission unit 52 functions as a synchronization signal that synchronizes the position detection unit 50 and the indicator 70.
On the other hand, after the supply of power from the power supply unit 76 is started and a predetermined initialization operation is performed, the control unit 73 receives infrared light emitted from the transmission unit 52 of the projector 10 by the transmission / reception unit 74. When the transmission / reception unit 74 receives infrared light periodically generated by the transmission unit 52, the control unit 73 lights the light source of the transmission / reception unit 74 in a preset lighting pattern in synchronization with the timing of the infrared light. (Light emission). This lighting pattern represents data specific to the indicator 70 in which lighting and extinguishing of the light source are associated with ON and OFF of the data. The control unit 73 turns on and off the light source in accordance with the set pattern turn-on time and turn-off time. The control unit 73 repeatedly executes the above pattern while power is supplied from the power supply unit 76.
That is, the position detection unit 50 periodically transmits an infrared signal for synchronization to the indicator 70, and the indicator 70 synchronizes with the infrared signal transmitted by the position detection unit 50 to set the infrared signal set in advance. Send.

位置検出部50の撮影制御部53は、撮像部51による撮影タイミングを、指示体70が点灯するタイミングに合わせる制御を行う。この撮影タイミングは、指示体検出部54が送信部52を点灯させるタイミングに基づいて決定される。指示体検出部54は、撮像部51の撮影画像データに指示体70の光の像が写っているか否かにより、指示体70が点灯するパターンを特定できる。
指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、又は複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
The shooting control unit 53 of the position detection unit 50 performs control to match the shooting timing of the imaging unit 51 with the timing when the indicator 70 is turned on. This shooting timing is determined based on the timing when the indicator detection unit 54 turns on the transmission unit 52. The indicator detection unit 54 can specify a pattern in which the indicator 70 is turned on depending on whether or not the image of the light of the indicator 70 is captured in the captured image data of the imaging unit 51.
The pattern in which the indicator 70 is lit may include a pattern unique to each individual indicator 70, or a pattern common to a plurality of indicators 70 and a pattern unique to each individual. In this case, the indicator detection unit 54 can distinguish each image as an image of a different indicator 70 when the captured image data includes images of infrared light emitted from the plurality of indicators 70.

また、制御部30は、出射装置駆動部48を制御して、光源部61の点灯のタイミングを撮像部51の撮影のタイミングに同期させる。光源部61が、撮像部51の撮影タイミングに合わせてパルス点灯すると、指示体80がスクリーンSC上を指し示す場合には、撮像部51の撮影画像に指示体80の反射光が写る。光源部61を、指示体70の点灯のタイミングと区別できるパターンで点灯させれば、指示体検出部54は、撮影画像データに写る像が指示体70であるのか指示体80であるのかを判定できる。光源部61の点灯のタイミングについては、図3を参照して後述する。   In addition, the control unit 30 controls the emission device driving unit 48 to synchronize the lighting timing of the light source unit 61 with the imaging timing of the imaging unit 51. When the light source unit 61 turns on the pulse in synchronization with the imaging timing of the imaging unit 51, the reflected light of the indicator 80 appears in the captured image of the imaging unit 51 when the indicator 80 points on the screen SC. If the light source unit 61 is turned on in a pattern that can be distinguished from the lighting timing of the indicator 70, the indicator detection unit 54 determines whether the image shown in the captured image data is the indicator 70 or the indicator 80. it can. The lighting timing of the light source unit 61 will be described later with reference to FIG.

さらに、指示体70が備える制御部73は、操作スイッチ75の操作状態に応じて、送受信部74を点灯させるパターンを切り替える。このため、指示体検出部54は、複数の撮影画像データに基づいて、指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。指示体検出部54は、操作スイッチ75の操作状態を示すデータを、座標算出部55を介して制御部30に出力する。   Further, the control unit 73 included in the indicator 70 switches the pattern for lighting the transmission / reception unit 74 according to the operation state of the operation switch 75. For this reason, the indicator detection unit 54 can determine the operating state of the indicator 70, that is, whether or not the distal end portion 71 is pressed against the screen SC, based on a plurality of captured image data. The indicator detection unit 54 outputs data indicating the operation state of the operation switch 75 to the control unit 30 via the coordinate calculation unit 55.

姿勢センサー47は、加速度センサーやジャイロセンサー等により構成され、制御部30に対して検出値を出力する。姿勢センサー47はプロジェクター10の本体に対して、プロジェクター10の設置方向を識別可能なように固定される。
プロジェクター10は、図1に示したように壁面や天井面から吊り下げる吊り下げ設置の他に、スクリーンSCの下方から投射を行う設置状態、机の天面などの水平面をスクリーンSCとして使用する設置状態等で使用できる。プロジェクター10の設置状態によっては光出射装置60の使用に適さないことがある。例えば、プロジェクター10及び光出射装置60がスクリーンSCの下方に設置され、下方からスクリーンSCに投射を行う場合、ユーザーの体が光出射装置60の出射光を遮ってしまうことがあり、不適である。姿勢センサー47は、プロジェクター10の設置状態として想定される複数の設置状態を識別できるように、プロジェクター10の本体に設けられる。姿勢センサー47は、例えば、2軸のジャイロセンサー、1軸のジャイロセンサー、加速度センサー等を用いて構成される。制御部30は、姿勢センサー47の出力値に基づきプロジェクター10の設置状態を自動的に判定できる。制御部30が、光出射装置60の使用に不適な設置状態と判定した場合には、例えば、出射装置駆動部48が電源電圧やパルス信号の出力を停止する。
The attitude sensor 47 is configured by an acceleration sensor, a gyro sensor, or the like, and outputs a detection value to the control unit 30. The attitude sensor 47 is fixed to the main body of the projector 10 so that the installation direction of the projector 10 can be identified.
As shown in FIG. 1, the projector 10 is installed in a suspended state in which it is suspended from a wall surface or a ceiling surface, in an installation state in which projection is performed from below the screen SC, or in a horizontal plane such as the top surface of a desk. Can be used in situations. Depending on the installation state of the projector 10, the light emitting device 60 may not be suitable for use. For example, when the projector 10 and the light emitting device 60 are installed below the screen SC and the projection is performed on the screen SC from below, the user's body may block the emitted light from the light emitting device 60, which is inappropriate. . The attitude sensor 47 is provided in the main body of the projector 10 so that a plurality of installation states assumed as the installation state of the projector 10 can be identified. The attitude sensor 47 is configured using, for example, a biaxial gyro sensor, a monoaxial gyro sensor, an acceleration sensor, or the like. The control unit 30 can automatically determine the installation state of the projector 10 based on the output value of the attitude sensor 47. When the control unit 30 determines that the installation state is inappropriate for the use of the light emitting device 60, for example, the emission device driving unit 48 stops outputting the power supply voltage and the pulse signal.

制御部30は、記憶部110に記憶された制御プログラム111を読み出して実行することにより、投射制御部31、検出制御部32、出射制御部33及びキャリブレーション制御部34の機能を実現し、プロジェクター10の各部を制御する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
また、投射制御部31は、位置検出部50により検出された指示位置の座標値を、記憶部110に記憶された第1基準変動量115又は第2基準変動量116を用いて補正する。
The control unit 30 reads and executes the control program 111 stored in the storage unit 110, thereby realizing the functions of the projection control unit 31, the detection control unit 32, the emission control unit 33, and the calibration control unit 34, and the projector. 10 parts are controlled.
The projection control unit 31 acquires the content of the operation performed by the user based on the operation data input from the operation detection unit 17. The projection control unit 31 controls the image processing unit 40, the light source driving unit 45, and the light modulation device driving unit 46 according to the operation performed by the user, and projects an image on the screen SC. The projection control unit 31 controls the image processing unit 40 to determine the above-described 3D (stereoscopic) image and 2D (planar) image, resolution conversion processing, frame rate conversion processing, distortion correction processing, digital zoom processing, and tone correction. Processing, brightness correction processing, and the like are executed. Further, the projection control unit 31 controls the light source driving unit 45 in accordance with the processing of the image processing unit 40 and controls the light amount of the light source unit 21.
In addition, the projection control unit 31 corrects the coordinate value of the indicated position detected by the position detection unit 50 using the first reference variation 115 or the second reference variation 116 stored in the storage unit 110.

検出制御部32は、位置検出部50を制御して、指示体70、80の指示位置の検出を実行させる。検出制御部32は、位置検出部50から指示位置の座標値と、ユーザーが操作指示に用いた指示体70、80の種類を示す種類情報とを取得する。また、検出制御部32は、指示体70による操作指示が行われた場合には、操作スイッチ75の操作状態を示すデータを位置検出部50から取得する。検出制御部32は、取得した座標値と種類情報とを用いて、座標値を補正する補正処理を実行する。また、検出制御部32は、補正処理により補正した座標値と、操作スイッチ75の操作状態を示すデータとに基づいて、予め設定された処理を実行する。例えば、画像処理部40が、取得した座標に基づいて図形を描画し、描画した図形を画像I/F部12に入力される入力画像に重畳して投射する処理を行う。また、検出制御部32は、取得した座標をI/F部11に接続されたPC等の外部の装置に出力してもよい。この場合、検出制御部32は、取得した座標を、I/F部11に接続された外部の装置のオペレーティングシステムにおいて、座標入力デバイスの入力として認識されるデータフォーマットに変換して出力してもよい。例えば、I/F部11にWindows(登録商標)オペレーティングシステムで動作するPCが接続された場合、オペレーティングシステムにおいてHID(Human Interface Device)の入力データとして処理されるデータを出力する。また、検出制御部32は、座標のデータとともに、指示体70の操作位置であるか指示体80の操作位置であるかを識別するデータ及び操作スイッチ75の操作状態を示すデータを出力してもよい。   The detection control unit 32 controls the position detection unit 50 to execute detection of the pointing positions of the pointers 70 and 80. The detection control unit 32 acquires the coordinate value of the indicated position from the position detection unit 50 and type information indicating the type of the indicators 70 and 80 used by the user for the operation instruction. Further, the detection control unit 32 acquires data indicating the operation state of the operation switch 75 from the position detection unit 50 when an operation instruction by the indicator 70 is performed. The detection control unit 32 executes correction processing for correcting the coordinate value using the acquired coordinate value and type information. Further, the detection control unit 32 executes a preset process based on the coordinate value corrected by the correction process and the data indicating the operation state of the operation switch 75. For example, the image processing unit 40 performs a process of drawing a figure based on the acquired coordinates and projecting the drawn figure superimposed on an input image input to the image I / F unit 12. The detection control unit 32 may output the acquired coordinates to an external device such as a PC connected to the I / F unit 11. In this case, the detection control unit 32 may convert the acquired coordinates into a data format recognized as an input of the coordinate input device in the operating system of the external device connected to the I / F unit 11 and output the converted data. Good. For example, when a PC operating on a Windows (registered trademark) operating system is connected to the I / F unit 11, data processed as input data of HID (Human Interface Device) in the operating system is output. Further, the detection control unit 32 may output data for identifying whether it is the operation position of the indicator 70 or the operation position of the indicator 80 and data indicating the operation state of the operation switch 75 together with the coordinate data. Good.

また、検出制御部32は、指示体80を使用した位置検出を制御する。具体的には、検出制御部32は、光出射装置60の接続の有無に基づき、光出射装置60を使用できるか否かを判定する。検出制御部32は、光出射装置60を使用できない場合に、光出射装置60の使用を不可とする設定を行う。ここで、検出制御部32は、光出射装置60を使用できないことを報知してもよい。   Further, the detection control unit 32 controls position detection using the indicator 80. Specifically, the detection control unit 32 determines whether or not the light emitting device 60 can be used based on whether or not the light emitting device 60 is connected. When the light emitting device 60 cannot be used, the detection control unit 32 performs setting so that the light emitting device 60 cannot be used. Here, the detection control unit 32 may notify that the light emitting device 60 cannot be used.

出射制御部33は、出射装置駆動部48を制御して、接続部49に接続された光出射装置60に対する電源及びパルス信号の出力を実行又は停止させる。出射制御部33は、検出制御部32の制御により、光出射装置60を使用できない又は使用しない場合に、出射装置駆動部48の電源及びパルス信号の出力を停止させる。また、光出射装置60を使用する場合、出射制御部33は出射装置駆動部48の電源及びパルス信号を出力させる。   The emission control unit 33 controls the emission device driving unit 48 to execute or stop the output of the power source and the pulse signal to the light emission device 60 connected to the connection unit 49. The emission control unit 33 controls the detection control unit 32 to stop the power supply of the emission device driving unit 48 and the output of the pulse signal when the light emission device 60 cannot be used or is not used. When the light emitting device 60 is used, the emission control unit 33 outputs the power supply and pulse signal of the emission device driving unit 48.

キャリブレーション制御部34は、キャリブレーションを実行する。キャリブレーションとは、スクリーンSCに投射した投写画像と、撮像部51で撮影した撮像画像データとの位置の対応付けを行うための処理である。キャリブレーション制御部34は、指示体70又は80の指示位置に関するキャリブレーションとして、オートキャリブレーションとマニュアルキャリブレーションとを実行できる。オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射して、撮像部51で撮影し、撮影画像データを用いて第1キャリブレーションデータ117を生成する処理である。オートキャリブレーション用の画像には、複数のマークが表示されている。キャリブレーション制御部34は、撮影画像データから検出されたマークと、フレームメモリー44に描画された投射画像、すなわちオートキャリブレーション用の画像のマークとを対応付けて、第1キャリブレーションデータ117を生成する。
また、キャリブレーション制御部34は、マニュアルキャリブレーションを実行する場合には、スクリーンSCに、マニュアルキャリブレーション用の画像を投射する。マニュアルキャリブレーション用の画像にも複数のマークが表示されている。キャリブレーション制御部34は、投射した画像に対する指示体70又は80の操作を検出して、第2キャリブレーションデータ118を生成する。すなわち、キャリブレーション制御部34は、撮影画像データで検出した指示位置の座標値と、投写画像上のマークの座標値とを対応付けることにより、第2キャリブレーションデータ118を作成する。
The calibration control unit 34 performs calibration. Calibration is a process for associating positions of a projected image projected on the screen SC and captured image data captured by the imaging unit 51. The calibration control unit 34 can execute auto calibration and manual calibration as calibration related to the pointing position of the pointer 70 or 80. Auto-calibration is a process of projecting an image for auto-calibration onto the screen SC, photographing it with the imaging unit 51, and generating first calibration data 117 using the photographed image data. A plurality of marks are displayed on the image for auto calibration. The calibration control unit 34 generates first calibration data 117 by associating the mark detected from the captured image data with the projected image drawn in the frame memory 44, that is, the mark of the image for auto calibration. To do.
The calibration control unit 34 projects an image for manual calibration on the screen SC when performing manual calibration. A plurality of marks are also displayed on the image for manual calibration. The calibration control unit 34 detects the operation of the indicator 70 or 80 on the projected image and generates second calibration data 118. That is, the calibration control unit 34 creates the second calibration data 118 by associating the coordinate value of the designated position detected in the captured image data with the coordinate value of the mark on the projected image.

ここで、図3を参照しながら指示体検出部54による指示体70、80の判別方法について説明する。
本実施形態のプロジェクションシステム1は、指示体70の発した光の像と、光出射装置60の出力する光の指示体80での反射光の像との少なくとも一方を撮像部51で撮影して、指示体70、80の指示位置を特定する。本実施形態のプロジェクションシステムは、指示体70の発した光の像と、指示体80での反射光の像とを区別するため、所定の発光シーケンスで、指示体70と、光出射装置60とを点灯させる。本実施形態のプロジェクションシステム1の発光シーケンスは、第1フェーズから第4フェーズまでの4つのフェーズで構成され、これら第1フェーズから第4フェーズを順に繰り返す。本実施形態では、第1〜第4フェーズの長さは同一の時間に設定されている。また、送信部52の1回の発光時間は1フェーズの1/4、指示体70の1回の発光時間は1フェーズの1/8、光出射装置60の1回の発光時間は1フェーズ分に設定されているが、これはあくまで一例である。
Here, a method of discriminating the indicators 70 and 80 by the indicator detection unit 54 will be described with reference to FIG.
In the projection system 1 of the present embodiment, at least one of an image of light emitted from the indicator 70 and an image of light reflected by the indicator 80 of light output from the light emitting device 60 is captured by the imaging unit 51. The pointing positions of the pointers 70 and 80 are specified. In the projection system of the present embodiment, the indicator 70, the light emitting device 60, and the light emitting device 60 are arranged in a predetermined light emission sequence in order to distinguish between an image of light emitted from the indicator 70 and an image of reflected light from the indicator 80. Lights up. The light emission sequence of the projection system 1 of the present embodiment is composed of four phases from the first phase to the fourth phase, and the first phase to the fourth phase are repeated in order. In the present embodiment, the lengths of the first to fourth phases are set to the same time. In addition, the light emission time of the transmission unit 52 is 1/4 of one phase, the light emission time of the indicator 70 is 1/8 of one phase, and the light emission time of the light emitting device 60 is one phase. This is just an example.

第1フェーズは、同期フェーズである。第1フェーズでは、プロジェクター10の送信部52が発光して、同期用の赤外線信号を送信する。指示体70の制御部73は、同期用の赤外線信号を送受信部74で検出し、第1フェーズの開始タイミングを認識する。
第2フェーズは、位置検出のフェーズであり、光出射装置60の光源部61と、指示体70の送受信部74とが点灯する。プロジェクター10は、光出射装置60と指示体70の発光タイミングに合わせて、撮像部51により撮影範囲を撮影する。例えば、第2フェーズで指示体70が発光するタイミングで撮像部51が撮影を行うと、指示体70の発光と、指示体80で反射した検出光とが撮影画像に写る。また、指示体70が発光しないタイミングで撮像部51が撮影を行えば、撮影画像には指示体80の反射光が写る。
The first phase is a synchronization phase. In the first phase, the transmission unit 52 of the projector 10 emits light and transmits an infrared signal for synchronization. The control part 73 of the indicator 70 detects the infrared signal for a synchronization with the transmission / reception part 74, and recognizes the start timing of a 1st phase.
The second phase is a position detection phase in which the light source unit 61 of the light emitting device 60 and the transmission / reception unit 74 of the indicator 70 are turned on. The projector 10 captures an imaging range by the imaging unit 51 in accordance with the light emission timing of the light emitting device 60 and the indicator 70. For example, when the imaging unit 51 performs shooting at the timing when the indicator 70 emits light in the second phase, light emission of the indicator 70 and detection light reflected by the indicator 80 appear in the captured image. Further, if the imaging unit 51 performs shooting at a timing when the indicator 70 does not emit light, the reflected light of the indicator 80 appears in the captured image.

撮像部51の撮影タイミング及び撮影間隔は予め設定されていて、1フェーズあたりの撮影回数は1回でもよいし複数回であってもよい。図3のように指示体70が1フェーズあたり1回発光する場合は、少なくとも、各フェーズで指示体70が発光するタイミングで撮影することが望ましい。また、撮像部51の撮影タイミングと各部の発光タイミングの調整方法は任意である。一般に、撮像部51の撮影タイミング及び撮影間隔を可変とすることは容易でないことが多いので、出射制御部33が、送信部52の発光のタイミングを、撮像部51の撮影タイミングを考慮して調整するとよい。   The shooting timing and shooting interval of the imaging unit 51 are set in advance, and the number of shootings per phase may be one time or multiple times. When the indicator 70 emits light once per phase as shown in FIG. 3, it is desirable to photograph at least the timing at which the indicator 70 emits light in each phase. Moreover, the adjustment method of the imaging | photography timing of the imaging part 51 and the light emission timing of each part is arbitrary. Generally, since it is often not easy to make the shooting timing and shooting interval of the imaging unit 51 variable, the emission control unit 33 adjusts the timing of light emission of the transmission unit 52 in consideration of the shooting timing of the imaging unit 51. Good.

第3フェーズは、指示体判定のフェーズである。第3フェーズでは指示体70が発光する一方、光出射装置60は発光しない。このため第3フェーズで撮像部51が撮影する撮影画像には、指示体70が発する光の像が写り、指示体80の反射光は写らない。
第4フェーズは、第2フェーズと同様の位置検出のフェーズであり、光出射装置60の光源部61と、指示体70の送受信部74とが点灯する。
従って、第3フェーズの撮影画像と、第2フェーズ及び第4フェーズの撮影画像とを比較することで、検出制御部32は、第2フェーズ及び第4フェーズの撮影画像に写る光の像が、指示体70の光の像か指示体80の反射光の像かを識別できる。各フェーズの時間が十分に短い場合には、連続する第2、第3及び第4フェーズの撮影画像に写る像の位置が近くなる。このため、指示体70の光と指示体80の反射光の識別は容易である。
The third phase is a pointer determination phase. In the third phase, the indicator 70 emits light, while the light emitting device 60 does not emit light. For this reason, the image of the light emitted from the indicator 70 appears in the captured image taken by the imaging unit 51 in the third phase, and the reflected light of the indicator 80 does not appear.
The fourth phase is a position detection phase similar to the second phase, and the light source unit 61 of the light emitting device 60 and the transmission / reception unit 74 of the indicator 70 are turned on.
Therefore, by comparing the captured image of the third phase with the captured images of the second phase and the fourth phase, the detection control unit 32 determines that the image of the light reflected in the captured images of the second phase and the fourth phase is It is possible to distinguish between the light image of the indicator 70 and the reflected light image of the indicator 80. When the time of each phase is sufficiently short, the positions of the images appearing in the captured images of the second, third, and fourth phases are close. For this reason, the light of the indicator 70 and the reflected light of the indicator 80 are easily distinguished.

さらに、プロジェクションシステム1で複数の指示体70を使用する場合に、各々の指示体70の発光を、撮像部51の撮影画像において識別することも可能である。すなわち、予め各々の指示体70に対し異なる発光タイミングを設定すればよい。具体的には、第3フェーズで発光するか否かを指示体70毎に設定すればよい。例えば、1番の指示体70には、第1〜第4フェーズを4回実行する間に、第3フェーズの発光又は非発光を「1000」(1は発光を示し、0は非発光を示す)と設定する。2番の指示体70には、第1〜第4フェーズを4回実行する間の第3フェーズの発光又は非発光を「1010」と設定する。この場合、第1〜第4フェーズを4回実行する間に撮影される、4枚の第3フェーズの撮影画像を比較することで、1番の指示体70と2番の指示体70とを識別できる。   Further, when a plurality of indicators 70 are used in the projection system 1, the light emission of each indicator 70 can be identified in the captured image of the imaging unit 51. That is, different light emission timings may be set for each indicator 70 in advance. Specifically, whether or not to emit light in the third phase may be set for each indicator 70. For example, the first indicator 70 indicates “1000” (1 indicates light emission and 0 indicates no light emission) while the first to fourth phases are executed four times. ) And set. In the second indicator 70, the light emission or non-light emission of the third phase while the first to fourth phases are executed four times is set to “1010”. In this case, the first indicator 70 and the second indicator 70 are compared by comparing the four third-phase captured images that are captured while the first to fourth phases are executed four times. Can be identified.

次に、図4を参照しながら指示体70、80の指示位置の検出方法について説明する。図4(A)に、指示体70の指示位置を検出する様子を示し、図4(B)に、指示体80の指示位置を検出する様子を示す。
撮像部51がスクリーンSCを撮影する撮影方向を符号PAで示す。指示体70の位置検出を行う場合、送受信部74は、指示体70の先端の発光位置70aから赤外光を出射する。発光位置70aは、指示体70がスクリーンSCに接する接触点70bに非常に近い。このため、撮影方向PAから撮影した撮影画像データから指示体70が発する光の像を検出する場合、この像の位置を、接触点70bの位置とみなすことができる。
Next, a method for detecting the pointing position of the pointers 70 and 80 will be described with reference to FIG. FIG. 4A shows a state where the pointing position of the pointer 70 is detected, and FIG. 4B shows a state where the pointing position of the pointer 80 is detected.
A shooting direction in which the imaging unit 51 captures the screen SC is indicated by a symbol PA. When detecting the position of the indicator 70, the transmission / reception unit 74 emits infrared light from the light emission position 70 a at the tip of the indicator 70. The light emission position 70a is very close to the contact point 70b where the indicator 70 contacts the screen SC. For this reason, when detecting an image of light emitted from the indicator 70 from the captured image data captured from the imaging direction PA, the position of this image can be regarded as the position of the contact point 70b.

これに対し、図4(B)に示すように指示体80の指示位置を検出する場合には、検出光Lが指示体80で反射した反射光を検出する。すなわち、撮影方向PAから撮影される撮影画像データから、検出光Lの反射光の像が検出される。検出光Lの出射方向はスクリーンSCとほぼ平行であり、検出光LはスクリーンSCから所定の距離(以下、距離G1とする)だけ離れている。距離G1はスクリーンSCに対する光出射装置60の取付位置により変化するが、構造上、距離G1をゼロにすることは困難である。このため、撮影方向PAから撮影した撮影画像データには、指示体80の先端において、スクリーンSCから距離G1だけ離れた反射位置80aで反射した反射光の像が写る。図4(B)に示すように、反射位置80aは、撮影方向PAに対して斜めの方向に離れている。このため、撮影画像データに写る反射光の像の位置は、撮影方向PAにおいて、より離れた位置を指示体70で指示した場合の像と同じ位置になる。つまり、指示体80が接触点80bでスクリーンSCに接触した場合の反射光と、指示体70が接触点70bでスクリーンSCに接触した場合の光とが、撮像部51の撮影画像データでは同じ位置に写る。このため、指示体80が指し示す接触点80bは、撮影方向PAにおいて撮像部51から離れた接触点70bとして検出され、距離G2のずれを生じる。
距離G2のずれは、撮像部51が、スクリーンSCから離れた位置から斜めに撮影を行うことに起因する。例えば、図4(A)、(B)に示す撮影方向PAと指示体70、80との位置関係は、上下方向に限らず、水平方向においても同様に発生する。本実施形態では、図1に示したようにスクリーンSCの上方に位置するプロジェクター10の本体に設けられた1つの撮像部51が、スクリーンSCを俯瞰して撮影するため、上下及び水平の両方向において距離G2のずれが発生する。
On the other hand, when the indication position of the indicator 80 is detected as shown in FIG. 4B, the reflected light reflected by the indicator 80 is detected. That is, the reflected light image of the detection light L is detected from the captured image data captured from the capturing direction PA. The emission direction of the detection light L is substantially parallel to the screen SC, and the detection light L is separated from the screen SC by a predetermined distance (hereinafter referred to as distance G1). Although the distance G1 varies depending on the mounting position of the light emitting device 60 with respect to the screen SC, it is difficult to make the distance G1 zero due to the structure. For this reason, in the captured image data captured from the capturing direction PA, an image of the reflected light reflected at the reflection position 80a separated from the screen SC by the distance G1 is captured at the tip of the indicator 80. As shown in FIG. 4B, the reflection position 80a is away from the imaging direction PA in an oblique direction. For this reason, the position of the image of the reflected light reflected in the captured image data is the same position as the image in the case where the indicator 70 indicates a more distant position in the capturing direction PA. That is, the reflected light when the indicator 80 contacts the screen SC at the contact point 80b and the light when the indicator 70 contacts the screen SC at the contact point 70b are the same position in the captured image data of the imaging unit 51. It is reflected in. For this reason, the contact point 80b pointed to by the indicator 80 is detected as the contact point 70b away from the imaging unit 51 in the shooting direction PA, and a shift of the distance G2 occurs.
The shift in the distance G2 is caused by the imaging unit 51 taking an image obliquely from a position away from the screen SC. For example, the positional relationship between the shooting direction PA and the indicators 70 and 80 shown in FIGS. 4A and 4B occurs not only in the vertical direction but also in the horizontal direction. In the present embodiment, as shown in FIG. 1, since one imaging unit 51 provided in the main body of the projector 10 located above the screen SC shoots the screen SC in an overhead view, both in the vertical and horizontal directions. A shift of the distance G2 occurs.

また、図5に示すように、スクリーンSCが、鉛直方向に対して傾いて設置されると、光出射装置60の出射する検出光LとスクリーンSCとの距離が、光出射装置60からの距離に応じて異なる。すなわち、赤外光である検出光Lは直進性が高いため、スクリーンSCが傾いて設置された場合、指示位置により検出光LとスクリーンSCとの距離が異なる場合がある。このため、指示体80によって示されたスクリーンSC上の位置によって、撮像部51の撮影画像データから検出される指示位置の誤差が異なることになる。
例えば、図5において、スクリーンSC上の位置80cが指し示された場合、この位置80cは、撮影方向PAにおいて撮像部51から離れた位置70cとして検出され、距離G3のずれを生じる。また、スクリーンSC上の位置80dが指し示された場合、この位置80dは、撮影方向PAにおいて撮像部51から離れた位置70dとして検出され、距離G4のずれを生じる。図5に示すように、光出射装置60から離れるに従って検出光LとスクリーンSCとの距離が大きくなる場合、距離G3と距離G4とを比較すると明らかなように、ユーザーの指し示すスクリーンSC上の位置が光出射装置60から離れるに従って、撮像部51の撮影画像データから検出される指示位置の誤差が大きくなる。
また、スクリーンSCが、鉛直方向に対して傾いて設置されていなくても、指示体70、80によってスクリーンSCが押され、スクリーンSCが鉛直方向に対して傾いた状態で撮像部51により撮影される場合がある。このような場合、スクリーンSCが、鉛直方向に対して傾いて設置された場合と同様に、指示体70、80によって示されたスクリーンSC上の位置と、撮像部51の撮影画像データから検出される指示位置とに誤差が生じてしまう。すなわち、撮像部51の撮影画像データから検出される指示位置が変動することとなる。
Further, as shown in FIG. 5, when the screen SC is installed inclined with respect to the vertical direction, the distance between the detection light L emitted from the light emitting device 60 and the screen SC is the distance from the light emitting device 60. Depending on. That is, since the detection light L that is infrared light has high straightness, the distance between the detection light L and the screen SC may be different depending on the indicated position when the screen SC is installed with an inclination. For this reason, the error of the indicated position detected from the captured image data of the imaging unit 51 differs depending on the position on the screen SC indicated by the indicator 80.
For example, in FIG. 5, when a position 80c on the screen SC is pointed, this position 80c is detected as a position 70c away from the imaging unit 51 in the shooting direction PA, and a shift of the distance G3 occurs. When the position 80d on the screen SC is pointed, the position 80d is detected as a position 70d away from the imaging unit 51 in the shooting direction PA, and a shift of the distance G4 occurs. As shown in FIG. 5, when the distance between the detection light L and the screen SC increases as the distance from the light emitting device 60 increases, the position on the screen SC indicated by the user is clear as compared with the distance G3 and the distance G4. As the distance from the light emitting device 60 increases, the error in the indicated position detected from the captured image data of the imaging unit 51 increases.
Even if the screen SC is not inclined with respect to the vertical direction, the screen SC is pushed by the indicators 70 and 80, and the image is taken by the imaging unit 51 in a state where the screen SC is inclined with respect to the vertical direction. There is a case. In such a case, the screen SC is detected from the position on the screen SC indicated by the indicators 70 and 80 and the captured image data of the imaging unit 51, as in the case where the screen SC is installed inclined with respect to the vertical direction. An error occurs in the indicated position. That is, the indicated position detected from the captured image data of the imaging unit 51 varies.

また、ユーザーの操作特性や、撮像部51の撮影タイミングによっても検出される指示位置にずれが生じる場合がある。
例えば、指示体80をスクリーンSCに接触させることなく指示位置を指し示した場合(図6(A)参照)と、指示体80をスクリーンSCに接触させて指示位置を指し示した場合(図6(B)参照)とでは、検出光Lが当たる指示体80の位置が異なる。このため、撮像部51の撮影画像データにより検出される指示位置にもずれが生じる。なお、図6(A)及び(B)に示す位置aが指示体80によりユーザーが実際に指示したスクリーンSC上の位置を示し、位置bが撮像部51の撮影画像データにより検出されるスクリーンSC上の位置を示す。
また、撮像部51の撮影タイミングによっても同様のことが起こる。例えば、撮像部51の撮影タイミングが、図6(A)に示す指示体80がスクリーンSCに接触していないタイミングである場合と、図6(B)に示す指示体80がスクリーンSCに接触しているタイミングである場合とでは、検出される指示位置にずれが生じる。
In addition, there may be a deviation in the indicated position that is detected depending on the operation characteristics of the user and the shooting timing of the imaging unit 51.
For example, when the pointing position is pointed to without pointing the indicator 80 to the screen SC (see FIG. 6A), and when the pointing point 80 is pointed to the screen SC with the pointing position (see FIG. 6B). ))), The position of the indicator 80 to which the detection light L hits is different. For this reason, deviation also occurs in the indicated position detected from the captured image data of the imaging unit 51. 6A and 6B indicates a position on the screen SC that is actually instructed by the user using the indicator 80, and the position b is detected by the captured image data of the imaging unit 51. The upper position is shown.
The same thing occurs depending on the shooting timing of the imaging unit 51. For example, when the imaging timing of the imaging unit 51 is a timing when the indicator 80 shown in FIG. 6A is not in contact with the screen SC, and when the indicator 80 shown in FIG. 6B is in contact with the screen SC. The detected indication position is deviated from the detected timing.

このような指示位置の変動を補正するため、プロジェクター10は、例えば、図7(A)に示す基準変動量算出用画像114をスクリーンSCに投射して、基準変動量算出用画像114上の各位置において検出される指示位置の基準変動量を算出する。基準変動量算出用画像114は、所定のマーク(本実施形態ではA〜Fの文字)が複数表示された画像である。制御部30は、この基準変動量算出用画像114をスクリーンSCに表示することにより、マークが表示された複数のマーク位置で指示体70と指示体80との少なくとも一方による押圧操作をユーザーに行わせる。
ユーザーは、指示を行う指示体70又は80を操作パネル19により入力した後に、マークが表示された各マーク位置を選択した指示体70又は80により、例えば、2秒間ずつ押圧する。ユーザーの押圧操作は、撮像部51によってマーク位置ごとに複数回撮像される。位置検出部50は、指示体70が選択されている場合には、撮像部51が撮像した各撮像画像内で指示体70が発光した位置の座標値をそれぞれに算出する。また、位置検出部50は、指示体80が選択されている場合には、撮像部51が撮影した各撮影画像内において、指示体80で反射した反射光の位置の座標値をそれぞれに算出する。位置検出部50は、マーク位置ごとに算出した複数の座標値を制御部30に出力する。制御部30の検出制御部32は、ユーザーにより入力された指示体70又は80の種類情報と、マーク位置ごとに複数取得した座標値とを用いて、各マーク位置における座標値の基準変動量を算出する。基準変動量は、指示体70と指示体80とでそれぞれ別々に生成される。マーク位置における基準変動量は、例えば、複数回撮影した撮影画像データからそれぞれに算出した座標値のX座標とY座標値とをそれぞれに比較して求める。例えば、検出制御部32は、同一のマーク位置で検出した複数の座標値のX座標値とY座標値との最大値と最小値とをそれぞれに求める。なお、X座標、Y座標は、座標算出部55が算出した、撮影画像データにおける指示体70、80の指示位置の座標値であるが、投射画像における指示位置の座標値としてもよい。また、X座標、Y座標は、フレームメモリー44に描画した画像データにおける指示位置の座標値としてもよい。検出制御部32は、求めたX座標値の最大値と最小値との差と、Y座標値の最大値と最小値との差を該当のマーク位置における基準変動量として算出する。
また、検出制御部32は、基準変動量を算出すると、算出した基準変動量を記憶部110に記憶させる。検出制御部32は、指示体70が選択されている場合には、検出した指示体70の基準変動量を第1基準変動量115として記憶部110に記憶させる。また、検出制御部32は、指示体80が選択されている場合には、指示体80の基準変動量を第2基準変動量116として記憶部110に記憶させる。さらに、検出制御部32は、算出した各マーク位置における基準変動量を、このマークを含む領域の基準変動量として記憶部110に記憶させる。例えば、図7(A)に示す基準変動量算出用画像114では、A〜Fの6カ所の基準変動量が求められている。検出制御部32は、例えば、撮影画像データを図7(B)に示すように9分割して、9分割した各領域に含まれるマークの基準変動量を、当該領域の基準変動量として記憶部110に記憶させる。例えば、検出制御部32は、図7(A)に示すマーク位置Aの基準変動量は、図7(B)に示す第1領域の基準変動量として記憶部110に記憶させる。同様に、検出制御部32は、図7(A)に示すマーク位置B,C、D、E,Fの基準変動量は、図7(B)に示す第2領域、第3領域、第4領域、第5領域、第6領域の基準変動量として記憶部110に記憶させる。
また、検出制御部32は、マークが存在しない撮影画像データの領域の基準変動量を、この領域に近接する領域の基準変動量を用いた補間処理により求める。例えば、図7(B)に示す例では、撮影画像データの中央領域である第7、8、9領域にはマークが含まれていない。このため、検出制御部32は、第7領域に近接する領域である、第1領域と第2領域との基準変動量の平均値を求め、求めた平均値を第7領域の基準変動量として記憶部110に記憶させる。また、検出制御部32は、第8領域、第9領域についても同様に基準変動量を求め、求めた基準変動量を記憶部110に記憶させる。
In order to correct such a change in the indicated position, the projector 10 projects, for example, a reference fluctuation amount calculation image 114 shown in FIG. A reference fluctuation amount of the indicated position detected at the position is calculated. The reference variation amount calculation image 114 is an image in which a plurality of predetermined marks (characters A to F in the present embodiment) are displayed. The control unit 30 displays the reference variation amount calculation image 114 on the screen SC, so that the user performs a pressing operation using at least one of the indicator 70 and the indicator 80 at a plurality of mark positions where the marks are displayed. Make it.
After the user inputs an indicator 70 or 80 for giving an instruction using the operation panel 19, the user presses the indicator 70 or 80 for selecting each mark position where the mark is displayed, for example, for 2 seconds. The user's pressing operation is imaged a plurality of times for each mark position by the imaging unit 51. When the indicator 70 is selected, the position detector 50 calculates the coordinate value of the position where the indicator 70 emits light in each captured image captured by the imaging unit 51. Further, when the indicator 80 is selected, the position detector 50 calculates the coordinate value of the position of the reflected light reflected by the indicator 80 in each captured image captured by the imaging unit 51. . The position detection unit 50 outputs a plurality of coordinate values calculated for each mark position to the control unit 30. The detection control unit 32 of the control unit 30 uses the type information of the indicator 70 or 80 input by the user and the plurality of coordinate values acquired for each mark position to calculate the reference fluctuation amount of the coordinate value at each mark position. calculate. The reference variation amount is generated separately for each of the indicator 70 and the indicator 80. The reference variation amount at the mark position is obtained, for example, by comparing the X-coordinate value and the Y-coordinate value of the coordinate values calculated from the captured image data captured a plurality of times. For example, the detection control unit 32 obtains a maximum value and a minimum value of the X coordinate value and the Y coordinate value of a plurality of coordinate values detected at the same mark position, respectively. The X and Y coordinates are the coordinate values of the designated positions of the pointers 70 and 80 in the captured image data calculated by the coordinate calculation unit 55, but may be the coordinate values of the designated positions in the projection image. Further, the X coordinate and the Y coordinate may be coordinate values of the designated position in the image data drawn in the frame memory 44. The detection control unit 32 calculates the difference between the maximum value and the minimum value of the obtained X coordinate value and the difference between the maximum value and the minimum value of the Y coordinate value as the reference fluctuation amount at the corresponding mark position.
In addition, after calculating the reference variation amount, the detection control unit 32 stores the calculated reference variation amount in the storage unit 110. When the indicator 70 is selected, the detection control unit 32 stores the detected reference variation amount of the indicator 70 in the storage unit 110 as the first reference variation amount 115. Further, when the indicator 80 is selected, the detection control unit 32 stores the reference variation amount of the indicator 80 in the storage unit 110 as the second reference variation amount 116. Further, the detection control unit 32 stores the calculated reference fluctuation amount at each mark position in the storage unit 110 as the reference fluctuation amount of the region including the mark. For example, in the reference variation amount calculation image 114 shown in FIG. 7A, six reference variation amounts A to F are obtained. For example, the detection control unit 32 divides the photographed image data into nine as shown in FIG. 7B, and stores the reference variation amount of the mark included in each of the nine divided regions as the reference variation amount of the region. 110 is stored. For example, the detection control unit 32 stores the reference variation amount of the mark position A illustrated in FIG. 7A in the storage unit 110 as the reference variation amount of the first region illustrated in FIG. 7B. Similarly, the detection control unit 32 uses the second region, the third region, and the fourth region shown in FIG. 7B for the reference variation amounts at the mark positions B, C, D, E, and F shown in FIG. It is stored in the storage unit 110 as the reference variation amounts of the area, the fifth area, and the sixth area.
Further, the detection control unit 32 obtains the reference variation amount of the area of the captured image data where no mark exists by interpolation processing using the reference variation amount of the area close to this area. For example, in the example shown in FIG. 7B, no marks are included in the seventh, eighth, and ninth areas that are the central areas of the captured image data. For this reason, the detection control unit 32 obtains an average value of reference fluctuation amounts of the first area and the second area, which are areas close to the seventh area, and uses the obtained average value as a reference fluctuation amount of the seventh area. The data is stored in the storage unit 110. Further, the detection control unit 32 similarly obtains the reference variation amount for the eighth region and the ninth region, and stores the obtained reference variation amount in the storage unit 110.

次に、図8に示すフローチャートを参照しながら基準変動量の算出手順を説明する。なお、本処理は、キャリブレーション制御部34が行うマニュアルキャリブレーションとともに実行してもよいし、マニュアルキャリブレーション又はオートキャリブレーションの実行後に行ってもよい。
まず、制御部30の投射制御部31は、基準変動量を算出する指示体70、80を選択する選択画面を表示部16に表示させる(ステップS1)。指示体70、80の選択入力を操作パネル19により受け付けた場合、又はリモコンの操作入力をリモコン受光部18で受光した場合(ステップS2;YES)、投射制御部31は、基準変動量算出用画像114をスクリーンSCに投射する(ステップS3)。基準変動量算出用画像114には、指示体70又は80による指示位置を指定する複数のマークが表示されている。制御部30の検出制御部32は、基準変動量算出用画像114がスクリーンSCに投射されると、撮影制御部53に撮影を開始させる指示を出力する。
Next, the reference variation amount calculation procedure will be described with reference to the flowchart shown in FIG. This process may be performed together with manual calibration performed by the calibration control unit 34, or may be performed after performing manual calibration or auto calibration.
First, the projection control unit 31 of the control unit 30 causes the display unit 16 to display a selection screen for selecting the indicators 70 and 80 for calculating the reference variation amount (step S1). When the selection input of the indicators 70 and 80 is received by the operation panel 19 or when the operation input of the remote control is received by the remote control light receiving unit 18 (step S2; YES), the projection control unit 31 displays the reference fluctuation amount calculation image. 114 is projected onto the screen SC (step S3). In the reference fluctuation amount calculation image 114, a plurality of marks for specifying the position indicated by the indicator 70 or 80 are displayed. When the reference variation amount calculation image 114 is projected on the screen SC, the detection control unit 32 of the control unit 30 outputs an instruction to start the shooting to the shooting control unit 53.

位置検出部50の撮影制御部53は、撮像部51に、スクリーンSCを含む領域である検出領域を撮影させ、撮像部51の撮影した撮影画像データを入力する(ステップS4)。撮影制御部53は、入力した撮影画像データを指示体検出部54に渡す。指示体検出部54は、撮影制御部53が撮影した撮影画像データから指示体70が発した赤外光の像、又は指示体80に反射した反射光の像を検出する。座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70又は80の指示位置の座標値を算出し、算出した座標値を制御部30に出力する。また、指示体検出部54は、撮影画像データから、指示体70が発した赤外光の像又は指示体80に反射した反射光の像を検出することができなかった場合には、エラー通知を座標算出部55に通知する。座標算出部55は、指示体検出部54から入力したエラー通知を制御部30に出力する。   The imaging control unit 53 of the position detection unit 50 causes the imaging unit 51 to capture a detection area that is an area including the screen SC, and inputs captured image data captured by the imaging unit 51 (step S4). The imaging control unit 53 passes the input captured image data to the indicator detection unit 54. The indicator detection unit 54 detects an infrared light image emitted by the indicator 70 or a reflected light image reflected by the indicator 80 from the captured image data captured by the imaging control unit 53. The coordinate calculation unit 55 calculates the coordinate value of the indication position of the indicator 70 or 80 in the captured image data based on the position of the image detected by the indicator detection unit 54, and outputs the calculated coordinate value to the control unit 30. . When the indicator detection unit 54 cannot detect the infrared light image emitted from the indicator 70 or the reflected light image reflected by the indicator 80 from the captured image data, the indicator detection unit 54 notifies the error. Is sent to the coordinate calculation unit 55. The coordinate calculation unit 55 outputs the error notification input from the indicator detection unit 54 to the control unit 30.

制御部30の検出制御部32は、座標算出部55から所定回連続して座標値を入力した場合には、2秒以上の接触を検出したと判定して(ステップS5;YES)、該当マークの表示を「検出済み」に変更する(ステップS6)。また、検出制御部32は、位置検出部50からエラー通知を入力した場合等、所定回連続して座標値を入力することができなかった場合には、撮影制御部53に撮影を開始させる指示を出力する。
次に、検出制御部32は、座標値を入力したマーク位置における基準変動量を算出する(ステップS7)。例えば、検出制御部32は、座標算出部55から所定回連続して入力する座標値のX座標、Y座標それぞれの最大値、最小値を求め、求めた最大値と最小値との差を、該当のマーク位置における基準変動量として算出する。なお、座標値の基準変動量が±5ピクセルの場合には、座標値に変動が生じていないと判定するようにしてもよい。検出制御部32は、当該マーク位置における基準変動量を算出すると、算出したマーク位置の基準変動量と、基準変動量を算出した指示体70又は80の種類情報とを対応付けて記憶部110に記憶させる(ステップS8)。なお、検出制御部32は、算出したマーク位置における基準変動量を、このマークを含む領域の基準変動量として記憶部110に記憶させる。例えば、図7(A)に示すマーク位置Aの基準変動量である場合、検出制御部32は、図7(B)に示す第1領域の基準変動量として記憶部110に記憶させる。
次に、検出制御部32は、全てのマーク位置で基準変動量を算出したか否かを判定する(ステップS9)。全てのマーク位置での基準変動量を算出していないと判定すると(ステップS9;NO)、検出制御部32は、ステップS4に戻り、撮影制御部53に撮影を開始させる指示を出力する。また、全てのマーク位置での補正値を算出済みであると判定すると(ステップS9;YES)、検出制御部32は、補間処理により、マークを含む領域以外の領域の基準変動量を算出する(ステップS10)。検出制御部32は、算出した基準変動量を記憶部110に記憶させる。
The detection control unit 32 of the control unit 30 determines that a contact for 2 seconds or more has been detected when coordinate values are continuously input from the coordinate calculation unit 55 a predetermined number of times (step S5; YES), and the corresponding mark Is changed to “detected” (step S6). Further, the detection control unit 32 instructs the shooting control unit 53 to start shooting when the coordinate value cannot be continuously input a predetermined number of times, such as when an error notification is input from the position detection unit 50. Is output.
Next, the detection control unit 32 calculates a reference variation amount at the mark position where the coordinate value is input (step S7). For example, the detection control unit 32 obtains the maximum value and the minimum value of the X coordinate and the Y coordinate of the coordinate value continuously input from the coordinate calculation unit 55 a predetermined number of times, and calculates the difference between the calculated maximum value and the minimum value, Calculated as the reference fluctuation amount at the corresponding mark position. If the reference fluctuation amount of the coordinate value is ± 5 pixels, it may be determined that there is no fluctuation in the coordinate value. When the detection control unit 32 calculates the reference variation amount at the mark position, the detection control unit 32 associates the calculated reference variation amount at the mark position with the type information of the indicator 70 or 80 that calculated the reference variation amount in the storage unit 110. Store (step S8). The detection control unit 32 stores the calculated reference fluctuation amount at the mark position in the storage unit 110 as the reference fluctuation amount of the region including the mark. For example, in the case of the reference variation amount at the mark position A shown in FIG. 7A, the detection control unit 32 stores the reference variation amount in the first region shown in FIG. 7B in the storage unit 110.
Next, the detection control unit 32 determines whether or not the reference fluctuation amount has been calculated at all mark positions (step S9). If it is determined that the reference fluctuation amounts at all the mark positions have not been calculated (step S9; NO), the detection control unit 32 returns to step S4 and outputs an instruction to start shooting to the shooting control unit 53. If it is determined that the correction values at all the mark positions have been calculated (step S9; YES), the detection control unit 32 calculates a reference variation amount in a region other than the region including the mark by interpolation processing (step S9; YES). Step S10). The detection control unit 32 stores the calculated reference variation amount in the storage unit 110.

次に、図9に示すフローチャートを参照しながら指示体70、80により指示された座標値を補正する処理の詳細について説明する。
例えば、画像I/F12を介して入力した画像データに基づく画像がスクリーンSCに投射されると、撮影制御部53は、制御部30の制御により撮像部51に検出領域を撮影させる。位置検出部50は、撮像部51で撮影された撮影画像データから、指示体70が発した赤外光の像、又は指示体80に反射した反射光の像を検出して指示体70又は80による指示位置の座標値を算出する。また、位置検出部50は、指示体70と光出射装置60との発光タイミングに基づいて、検出した像が、指示体70が発した赤外光の像であるのか、指示体80に反射した反射光の像であるのかを判定する。位置検出部50は、検出した座標値と、使用された指示体70又は80の種類を示す種類情報とを制御部30に出力する。
まず、投射制御部31は、位置検出部50から座標値(以下、入力座標値という)と、操作に使用された指示体70又は80の種類情報とを入力したか否かを判定する(ステップS11)。投射制御部31は、種類情報と入力座標値とを入力すると(ステップS11;YES)、種類情報に基づいて、操作指示が指示体70によるものであるのか、指示体80によるものであるのかを判定する(ステップS12)。投射制御部31は、指示体70による操作であると判定する場合には、入力座標値を含む領域に設定された第1基準変動量を記憶部110から取得する(ステップS13)。また、制御部30の投射制御部31は、指示体80による操作であると判定する場合には、入力座標値を含む領域に設定された第2基準変動量を記憶部110から取得する(ステップS13)。投射制御部31は、第1基準変動量又は第2基準変動量を取得すると、取得した基準変動量により位置検出部50から入力した入力座標値を補正する(ステップS14)。投射制御部31は、補正後の入力座標値を画像処理部40に渡す(ステップS15)。例えば、投射制御部31は、前回の入力座標値と、今回の入力座標値との差を算出する。そして、投射制御部31は、算出した座標値の差が、記憶部110から取得した第1基準変動量又は第2基準変動量の範囲内にあるか否かを判定する。算出した座標値の差が、取得した第1基準変動量又は第2基準変動量の範囲内にある場合、投射制御部31は、座標値の変化(変動)はないものと判定し、前回の入力座標値をそのまま画像処理部40に渡す。言い換えれば、投射制御部31は、今回の入力座標値に対して、前回の入力座標値からの変化を補償する補正(変化を0にする補正)を行って画像処理部40に渡す。また、算出した座標値の差が、取得した第1基準変動量又は第2基準変動量の範囲内にない場合、投射制御部31は、座標値が変化したと判定し、今回の入力座標値を画像処理部40に渡す。画像処理部40は、投射制御部31から取得した座標値に基づいて図形を描画させ、描画した図形を画像I/F部12に入力される入力画像に重畳して投射させる。
Next, details of the process of correcting the coordinate values designated by the indicators 70 and 80 will be described with reference to the flowchart shown in FIG.
For example, when an image based on the image data input via the image I / F 12 is projected onto the screen SC, the imaging control unit 53 causes the imaging unit 51 to image the detection area under the control of the control unit 30. The position detection unit 50 detects the infrared light image emitted from the indicator 70 or the reflected light image reflected by the indicator 80 from the captured image data captured by the imaging unit 51 to indicate the indicator 70 or 80. The coordinate value of the indicated position is calculated. Further, the position detection unit 50 reflects the detected image on the indicator 80 to determine whether the detected image is an infrared light image emitted by the indicator 70 based on the light emission timing of the indicator 70 and the light emitting device 60. It is determined whether the image is reflected light. The position detection unit 50 outputs the detected coordinate value and type information indicating the type of the indicator 70 or 80 used to the control unit 30.
First, the projection control unit 31 determines whether or not the coordinate value (hereinafter referred to as input coordinate value) and the type information of the indicator 70 or 80 used for the operation are input from the position detection unit 50 (step) S11). When the type information and the input coordinate value are input (step S11; YES), the projection control unit 31 determines whether the operation instruction is based on the indicator 70 or the indicator 80 based on the type information. Determination is made (step S12). When determining that the operation is performed by the indicator 70, the projection control unit 31 acquires the first reference variation amount set in the area including the input coordinate value from the storage unit 110 (step S13). Further, when determining that the operation is performed by the indicator 80, the projection control unit 31 of the control unit 30 acquires the second reference variation amount set in the region including the input coordinate value from the storage unit 110 (Step S1). S13). When the projection control unit 31 acquires the first reference variation amount or the second reference variation amount, the projection control unit 31 corrects the input coordinate value input from the position detection unit 50 based on the acquired reference variation amount (step S14). The projection control unit 31 passes the corrected input coordinate value to the image processing unit 40 (step S15). For example, the projection control unit 31 calculates the difference between the previous input coordinate value and the current input coordinate value. Then, the projection control unit 31 determines whether or not the difference between the calculated coordinate values is within the range of the first reference variation amount or the second reference variation amount acquired from the storage unit 110. When the calculated coordinate value difference is within the range of the acquired first reference variation amount or second reference variation amount, the projection control unit 31 determines that there is no change (variation) in the coordinate value, and The input coordinate value is passed to the image processing unit 40 as it is. In other words, the projection control unit 31 performs a correction for correcting a change from the previous input coordinate value (a correction for setting the change to 0) for the current input coordinate value, and passes the correction to the image processing unit 40. In addition, when the difference between the calculated coordinate values is not within the range of the acquired first reference variation amount or second reference variation amount, the projection control unit 31 determines that the coordinate value has changed, and this input coordinate value To the image processing unit 40. The image processing unit 40 draws a figure based on the coordinate value acquired from the projection control unit 31 and superimposes the drawn figure on the input image input to the image I / F unit 12 and projects it.

以上説明したように本実施形態は、撮像部51の撮影画像データから、指示体70又は80の像を検出すると、指示体検出部54が操作に使用された指示体が指示体70であるのか、指示体80であるのかを判断する。そして、指示体検出部54により判定した指示体70、80の種類、及び指示位置に応じた基準変動量を記憶部110から取得して、座標算出部55が検出した指示位置を投射制御部31で補正する。従って、使用する指示体70、80によらずに適切な指示を検出することができる。このため指示体70又は80によるタッチ、リリース、ドラッグ等の操作の反応性の低下を抑制することができる。   As described above, in the present embodiment, when the image of the indicator 70 or 80 is detected from the captured image data of the imaging unit 51, whether the indicator used for the operation by the indicator detection unit 54 is the indicator 70. It is determined whether the indicator 80 is used. Then, the reference variation amount corresponding to the types of the pointers 70 and 80 determined by the pointer detection unit 54 and the pointing position is acquired from the storage unit 110, and the pointing position detected by the coordinate calculation unit 55 is obtained from the projection control unit 31. Correct with. Therefore, an appropriate instruction can be detected regardless of the indicators 70 and 80 to be used. For this reason, it is possible to suppress a decrease in reactivity of operations such as touch, release, and drag by the indicator 70 or 80.

本発明を適用した実施形態のプロジェクター10は、指示体検出部54、座標算出部55、記憶部110、投射制御部31を備えている。指示体検出部54は、指示体70、80の種類を判定する。座標算出部55は、指示体70、80の指示位置を検出する。記憶部110は、指示体70、80による指示位置の基準変動量を、指示体70、80ごとに記憶する。投射制御部31は、指示体検出部54により判定した指示体70、80の種類に応じた基準変動量を記憶部110から取得し、座標算出部55が検出した指示位置を補正する。従って、使用する指示体70、80によらずに適切に指示位置の補正を行うことができる。   The projector 10 according to the embodiment to which the present invention is applied includes a pointer detection unit 54, a coordinate calculation unit 55, a storage unit 110, and a projection control unit 31. The indicator detection unit 54 determines the types of the indicators 70 and 80. The coordinate calculation unit 55 detects the indication positions of the indicators 70 and 80. The storage unit 110 stores the reference position reference variation amount by the indicators 70 and 80 for each of the indicators 70 and 80. The projection control unit 31 acquires a reference variation amount corresponding to the type of the indicators 70 and 80 determined by the indicator detection unit 54 from the storage unit 110, and corrects the indication position detected by the coordinate calculation unit 55. Therefore, it is possible to appropriately correct the indicated position regardless of the indicators 70 and 80 to be used.

また、投射制御部31は、指示位置の変動が基準変動量の範囲内の場合に、変動を補償する補正を行う。すなわち、投射制御部31は、前回の入力座標値からの変化を補償する補正(変化を0にする補正)を行う。このため、指示位置に変動がないことを検出することができる。   In addition, the projection control unit 31 performs correction to compensate for the variation when the variation in the designated position is within the range of the reference variation amount. That is, the projection control unit 31 performs correction (correction to make the change 0) to compensate for the change from the previous input coordinate value. For this reason, it can be detected that there is no change in the indicated position.

また、記憶部110には、指示位置に応じた複数の基準変動量が記憶されている。投射制御部31は、座標算出部55が検出した指示位置に応じた基準変動量を記憶部110から取得して、座標算出部55が検出した指示位置を補正する。従って、指示体70、80の指示位置ごとに適切な基準変動量を用いて指示位置を補正することができる。   Further, the storage unit 110 stores a plurality of reference fluctuation amounts corresponding to the designated positions. The projection control unit 31 acquires a reference variation amount corresponding to the designated position detected by the coordinate calculating unit 55 from the storage unit 110, and corrects the designated position detected by the coordinate calculating unit 55. Therefore, it is possible to correct the indicated position using an appropriate reference fluctuation amount for each indicated position of the indicators 70 and 80.

また、投射制御部31は、記憶部110の記憶する基準変動量を指示位置に応じて調整し、指示体検出部54が検出した指示位置を、調整後の基準変動量に基づいて補正する。従って、指示位置の補正精度を高めることができる。   In addition, the projection control unit 31 adjusts the reference variation amount stored in the storage unit 110 according to the designated position, and corrects the designated position detected by the indicator detection unit 54 based on the adjusted reference variation amount. Therefore, the correction accuracy of the designated position can be increased.

また、検出制御部32は、指示体検出部54が検出した指示位置の変動に基づいて基準変動量を算出し、記憶部110に、算出した基準変動量を記憶させる。従って、指示体検出部54が検出した指示位置の変動に基づいて基準変動量を算出し、記憶部に記憶させることができる。   In addition, the detection control unit 32 calculates a reference variation amount based on the variation of the indicated position detected by the indicator detection unit 54 and causes the storage unit 110 to store the calculated reference variation amount. Accordingly, the reference variation amount can be calculated based on the variation of the designated position detected by the indicator detection unit 54 and stored in the storage unit.

また、プロジェクター10は、光出射装置60と、撮像部51とを備えている。光出射装置60は、指示体70、80の指示位置を検出する検出領域に検出光を出射する。撮像部51は、検出領域を撮影する。指示体検出部54は、撮像部51の撮影画像データから、指示体70が発する光の像と、指示体80で反射した検出光の像との少なくとも一方を検出する。そして、指示体検出部54は、指示体70と光出射装置60との発光タイミングに基づいて、指示体70と指示体80との指示位置を区別して検出する。従って、使用する指示体70、80によらずに適切に指示位置の補正を行うことができる。   In addition, the projector 10 includes a light emitting device 60 and an imaging unit 51. The light emitting device 60 emits detection light to a detection region that detects the indication positions of the indicators 70 and 80. The imaging unit 51 images the detection area. The indicator detection unit 54 detects at least one of an image of light emitted from the indicator 70 and an image of detection light reflected by the indicator 80 from the captured image data of the imaging unit 51. The indicator detection unit 54 distinguishes and detects the indication positions of the indicator 70 and the indicator 80 based on the light emission timings of the indicator 70 and the light emitting device 60. Therefore, it is possible to appropriately correct the indicated position regardless of the indicators 70 and 80 to be used.

また、指示体検出部54は、光出射装置60の消灯時の撮影画像データに写った輝点の位置を指示体70の指示位置として検出する。従って、指示体70と、指示体80とを区別する精度を向上させることができる。   Further, the indicator detection unit 54 detects the position of the bright spot reflected in the captured image data when the light emitting device 60 is turned off as the indication position of the indicator 70. Therefore, the accuracy of distinguishing the indicator 70 and the indicator 80 can be improved.

なお、上述した実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。例えば、上記実施形態では、基準変動量を指示体70、80ごと及び領域ごとに記憶部110に記憶させておき、座標値を補正する際に、指示体70、80及び領域に応じた基準変動量を取得するようにしているが、この態様に限定されない。例えば、指示体70、80ごとに1つの基準変動量を記憶させておくとともに、領域ごとに調整量(例えば、基準変動量との差分)を記憶させておく。そして、座標値を補正する際に、指示体70、80に応じて取得した基準変動量を、領域に応じた調整量を用いて調整し、調整後の基準変動量を用いて補正する態様とすることも可能である。
また、上記実施形態では、基準変動量を算出する際に、座標値の最大値と最小値の差を基準変動量としているが、これに限定されない。例えば、座標値の最大値と最小値の差に所定の値を加えた値を基準変動量としてもよい。
また、上記実施形態では、基準変動量を算出する際に、基準変動量算出用画像114上の各マークに指示体70、80を所定の設定時間(2秒)以上接触させるようにしているが、設定時間は2秒に限定されず、それ以下であってもそれ以上であってもよい。
The above-described embodiments are merely examples of specific modes to which the present invention is applied, and the present invention is not limited thereto, and the present invention can be applied as different modes. For example, in the above embodiment, the reference variation amount is stored in the storage unit 110 for each indicator 70 and 80 and for each region, and when the coordinate value is corrected, the reference variation corresponding to the indicators 70 and 80 and the region is used. The amount is acquired, but is not limited to this mode. For example, one reference variation amount is stored for each of the indicators 70 and 80, and an adjustment amount (for example, a difference from the reference variation amount) is stored for each region. Then, when correcting the coordinate value, the reference fluctuation amount acquired according to the indicators 70 and 80 is adjusted using the adjustment amount according to the area, and corrected using the adjusted reference fluctuation amount; It is also possible to do.
Moreover, in the said embodiment, when calculating the reference | standard variation | change_quantity, although the difference of the maximum value of coordinate value and the minimum value is made into the reference | standard variation | change_quantity, it is not limited to this. For example, a value obtained by adding a predetermined value to the difference between the maximum value and the minimum value of the coordinate values may be used as the reference fluctuation amount.
In the above-described embodiment, when the reference fluctuation amount is calculated, the indicators 70 and 80 are brought into contact with each mark on the reference fluctuation amount calculation image 114 for a predetermined set time (2 seconds) or longer. The set time is not limited to 2 seconds, and may be shorter or longer.

また、上記実施形態では、フロントプロジェクション型のプロジェクター10から画像が投射(表示)されるスクリーンSCに対して、ユーザーが指示体70、80による指示操作を行う態様について説明した。これ以外に、プロジェクター10以外の表示装置が表示する表示画面に対して指示操作を行う態様であってもよい。
プロジェクター10以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイを用いることができる。また、表示装置としては、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
Further, in the above-described embodiment, the aspect in which the user performs an instruction operation using the indicators 70 and 80 on the screen SC on which an image is projected (displayed) from the front projection type projector 10 has been described. In addition to this, a mode in which an instruction operation is performed on a display screen displayed by a display device other than the projector 10 may be used.
As a display device other than the projector 10, a rear projection (rear projection) type projector, a liquid crystal display, and an organic EL (Electro Luminescence) display can be used. As the display device, a plasma display, a CRT (cathode ray tube) display, a surface-conduction electron-emitter display (SED), or the like can be used.

また、指示体70として、発光させないよう設定した指示体70を用いてもよい。また、指示体は、ペン型の指示体70やユーザーの手指である指示体80に限定されず、レーザーポインターや指示棒等を用いてもよく、その形状やサイズは限定されない。また、基準変動量算出用画像114中のマークは、図7に示す文字に限定されるものではなく、他の文字や図形などであってもよい。
また、上記実施形態では、光出射装置60はプロジェクター10の本体とは別体で構成され、ケーブル60aで接続される構成を例示したが、本発明はこれに限定されない。例えば、光出射装置60をプロジェクター10の本体に一体に取り付けることも、プロジェクター10の本体に内蔵する構成としてもよい。また、光出射装置60が外部から電源の供給を受け、出射装置駆動部48との間で無線通信回線により接続されてもよい。
また、上記実施形態では、プロジェクター10から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。この構成は、電波通信や超音波無線通信により信号を送信する送信部をプロジェクター10に設け、同様の受信部を指示体70に設けることで実現できる。
Further, as the indicator 70, an indicator 70 set so as not to emit light may be used. Further, the indicator is not limited to the pen-type indicator 70 or the indicator 80 that is a user's finger, and a laser pointer, an indicator bar, or the like may be used, and the shape and size thereof are not limited. Further, the mark in the reference variation amount calculation image 114 is not limited to the characters shown in FIG. 7, and may be other characters or figures.
Moreover, in the said embodiment, although the light-projection apparatus 60 was comprised separately from the main body of the projector 10, and illustrated the structure connected with the cable 60a, this invention is not limited to this. For example, the light emitting device 60 may be integrally attached to the main body of the projector 10 or may be configured to be built in the main body of the projector 10. Further, the light emitting device 60 may be supplied with power from the outside and connected to the emitting device driving unit 48 by a wireless communication line.
In the above embodiment, the configuration in which the projector 10 transmits the synchronization signal to the indicator 70 using the infrared signal emitted from the transmission unit 52 to the indicator 70 has been described. However, the synchronization signal is an infrared signal. It is not limited to. For example, a synchronization signal may be transmitted by radio wave communication or ultrasonic wireless communication. This configuration can be realized by providing the projector 10 with a transmission unit that transmits signals by radio wave communication or ultrasonic radio communication, and providing the indicator 70 with a similar reception unit.

また、上記実施形態では、位置検出部50は、撮像部51によりスクリーンSCを撮影して指示体70の位置を特定するものとしたが、本発明はこれに限定されない。例えば、撮像部51は、プロジェクター10の本体に設けられ、投射光学系23の投射方向を撮影するものに限定されない。撮像部51をプロジェクター10本体とは別体として配置してもよいし、撮像部51がスクリーンSCの側方や正面から撮影を行うものとしてもよい。さらに、複数の撮像部51を配置し、これら複数の撮像部51の撮影画像データに基づいて、検出制御部32が指示体70、80の位置を検出してもよい。   Moreover, in the said embodiment, although the position detection part 50 image | photographed the screen SC by the imaging part 51 and pinpointed the position of the indicator 70, this invention is not limited to this. For example, the imaging unit 51 is not limited to the one provided in the main body of the projector 10 and photographing the projection direction of the projection optical system 23. The imaging unit 51 may be arranged separately from the main body of the projector 10, or the imaging unit 51 may perform imaging from the side or front of the screen SC. Further, a plurality of imaging units 51 may be arranged, and the detection control unit 32 may detect the positions of the indicators 70 and 80 based on the captured image data of the plurality of imaging units 51.

また、上記実施形態では、光源が発した光を変調する光変調装置22として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。或いは、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調装置として1枚のみの液晶パネル又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。
また、図2に示したプロジェクションシステム1の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
In the above embodiment, the light modulation device 22 that modulates the light emitted from the light source has been described by taking as an example a configuration using three transmissive liquid crystal panels corresponding to RGB colors. Is not limited to this. For example, a configuration using three reflective liquid crystal panels may be used, or a method in which one liquid crystal panel and a color wheel are combined may be used. Alternatively, a system using three digital mirror devices (DMD), a DMD system combining one digital mirror device and a color wheel, or the like may be used. When only one liquid crystal panel or DMD is used as the light modulation device, a member corresponding to a composite optical system such as a cross dichroic prism is unnecessary. In addition to the liquid crystal panel and DMD, any light modulation device capable of modulating light emitted from the light source can be employed without any problem.
Moreover, each function part of the projection system 1 shown in FIG. 2 shows a functional structure, and a specific mounting form is not particularly limited. That is, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to adopt a configuration in which the functions of a plurality of function units are realized by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, specific detailed configurations of other parts of the projection system 1 can be arbitrarily changed without departing from the spirit of the present invention.

1…プロジェクションシステム、10…プロジェクター(位置検出装置)、20…投射部、21…光源部、22…光変調装置、23…投射光学系、30…制御部、31…投射制御部(補正部)、32…検出制御部(算出部)、33…出射制御部、39…キャリブレーション制御部、40…画像処理部、50…位置検出部、54…指示体検出部(判定部)、55…座標算出部(検出部)、60…光出射装置(光出射部)、70…指示体(第1指示体)、80…指示体(第2指示体)、110…記憶部、SC…スクリーン(検出領域)。   DESCRIPTION OF SYMBOLS 1 ... Projection system, 10 ... Projector (position detection apparatus), 20 ... Projection part, 21 ... Light source part, 22 ... Light modulation apparatus, 23 ... Projection optical system, 30 ... Control part, 31 ... Projection control part (correction part) , 32 ... detection control unit (calculation unit), 33 ... emission control unit, 39 ... calibration control unit, 40 ... image processing unit, 50 ... position detection unit, 54 ... indicator detection unit (determination unit), 55 ... coordinates Calculation unit (detection unit), 60 ... light emitting device (light emitting unit), 70 ... indicator (first indicator), 80 ... indicator (second indicator), 110 ... storage unit, SC ... screen (detection) region).

Claims (8)

指示体の種類を判定する判定部と、
前記指示体の指示位置を検出する検出部と、
前記検出部が検出した指示位置の変動に関する基準変動量を、前記指示体ごとに記憶する記憶部と、
前記判定部により判定した前記指示体の種類に応じた基準変動量を前記記憶部から取得し、前記検出部が検出した指示位置を、取得した前記基準変動量に基づいて補正する補正部と、
を備えることを特徴とする位置検出装置。
A determination unit for determining the type of the indicator;
A detection unit for detecting an indication position of the indicator;
A storage unit that stores, for each indicator, a reference variation amount related to a change in the indication position detected by the detection unit;
A correction unit that acquires a reference variation amount according to the type of the indicator determined by the determination unit from the storage unit, and corrects the indicated position detected by the detection unit based on the acquired reference variation amount;
A position detection device comprising:
前記補正部は、前記指示位置の変動が前記基準変動量の範囲内の場合に、前記変動を補償する補正を行うことを特徴とする請求項1記載の位置検出装置。   The position detection apparatus according to claim 1, wherein the correction unit performs correction to compensate for the change when the change in the designated position is within the range of the reference change amount. 前記記憶部は、指示位置に応じた複数の基準変動量を記憶し、
前記補正部は、前記検出部が検出した指示位置に応じた基準変動量を前記記憶部から取得して、前記検出部が検出した指示位置を、取得した前記基準変動量に基づいて補正することを特徴とする請求項1又は2記載の位置検出装置。
The storage unit stores a plurality of reference fluctuation amounts according to the designated position,
The correction unit acquires a reference variation amount corresponding to the indicated position detected by the detection unit from the storage unit, and corrects the indicated position detected by the detection unit based on the acquired reference variation amount. The position detection device according to claim 1, wherein
前記補正部は、前記記憶部が記憶する前記基準変動量を指示位置に応じて調整し、前記検出部が検出した指示位置を、調整後の基準変動量に基づいて補正することを特徴とする請求項1又は2記載の位置検出装置。   The correction unit adjusts the reference variation amount stored in the storage unit according to an indicated position, and corrects the indicated position detected by the detection unit based on the adjusted reference variation amount. The position detection device according to claim 1 or 2. 前記検出部が検出した指示位置の変動に基づいて前記基準変動量を算出する算出部をさらに備え、
前記記憶部は、前記算出部で算出された前記基準変動量を記憶することを特徴とする請求項1から4のいずれか一項に記載の位置検出装置。
A calculation unit that calculates the reference fluctuation amount based on a change in the indicated position detected by the detection unit;
The position detection device according to claim 1, wherein the storage unit stores the reference variation amount calculated by the calculation unit.
前記指示体の指示位置を検出する検出領域に検出光を出射する光出射部と、
前記検出領域を撮影する撮影部と、を備え、
前記検出部は、前記撮影部の撮影画像データから、前記指示体としての第1指示体が発する光の像と、前記指示体としての第2指示体で反射した前記検出光の像との少なくとも一方を検出し、前記第1指示体と前記光出射部との発光タイミングに基づいて、前記第1指示体と前記第2指示体との指示位置を区別して検出することを特徴とする請求項1から5のいずれか一項に記載の位置検出装置。
A light emitting unit that emits detection light to a detection region that detects an indication position of the indicator;
An imaging unit for imaging the detection area;
The detection unit includes at least one of an image of light emitted by the first indicator as the indicator and an image of the detection light reflected by the second indicator as the indicator from the captured image data of the imaging unit. One of them is detected, and the indication positions of the first indicator and the second indicator are distinguished and detected based on the light emission timings of the first indicator and the light emitting unit. The position detection device according to any one of 1 to 5.
前記検出部は、前記光出射部の消灯時の撮影画像データに写った輝点の位置を前記第1指示体の指示位置として検出することを特徴とする請求項6記載の位置検出装置。   The position detection device according to claim 6, wherein the detection unit detects a position of a bright spot reflected in captured image data when the light emitting unit is turned off as an indication position of the first indicator. 指示体の種類を判定するステップと、
前記指示体の指示位置を検出するステップと、
検出した指示位置の変動に関する基準変動量を前記指示体ごとに記憶する記憶部から、判定した前記指示体の種類に応じた基準変動量を取得し、検出した指示位置を、取得した前記基準変動量に基づいて補正するステップと、
を備えることを特徴とする位置検出方法。
Determining the type of indicator;
Detecting an indication position of the indicator;
A reference variation amount corresponding to the determined type of the indicator is acquired from a storage unit that stores, for each indicator, a reference variation amount related to the detected variation in the indication position, and the detected indication position is obtained from the acquired reference variation. Correcting based on the amount;
A position detection method comprising:
JP2014040898A 2014-03-03 2014-03-03 Position detection apparatus and position detection method Expired - Fee Related JP6291911B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014040898A JP6291911B2 (en) 2014-03-03 2014-03-03 Position detection apparatus and position detection method
US14/630,094 US9733728B2 (en) 2014-03-03 2015-02-24 Position detecting device and position detecting method
CN201510088665.7A CN104898894B (en) 2014-03-03 2015-02-26 Position detection device and position detection method
EP15156957.1A EP2916201B1 (en) 2014-03-03 2015-02-27 Position detecting device and position detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014040898A JP6291911B2 (en) 2014-03-03 2014-03-03 Position detection apparatus and position detection method

Publications (3)

Publication Number Publication Date
JP2015166922A true JP2015166922A (en) 2015-09-24
JP2015166922A5 JP2015166922A5 (en) 2017-03-30
JP6291911B2 JP6291911B2 (en) 2018-03-14

Family

ID=54257766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014040898A Expired - Fee Related JP6291911B2 (en) 2014-03-03 2014-03-03 Position detection apparatus and position detection method

Country Status (1)

Country Link
JP (1) JP6291911B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017126145A (en) * 2016-01-13 2017-07-20 セイコーエプソン株式会社 Projector and control method for the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011122867A (en) * 2009-12-09 2011-06-23 Seiko Epson Corp Optical position detection device and display device with position detection function
JP2013097464A (en) * 2011-10-28 2013-05-20 Nintendo Co Ltd Coordinate processing program, coordinate processing device, coordinate processing system, and coordinate processing method
WO2013104060A1 (en) * 2012-01-11 2013-07-18 Smart Technologies Ulc Interactive input system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011122867A (en) * 2009-12-09 2011-06-23 Seiko Epson Corp Optical position detection device and display device with position detection function
JP2013097464A (en) * 2011-10-28 2013-05-20 Nintendo Co Ltd Coordinate processing program, coordinate processing device, coordinate processing system, and coordinate processing method
WO2013104060A1 (en) * 2012-01-11 2013-07-18 Smart Technologies Ulc Interactive input system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017126145A (en) * 2016-01-13 2017-07-20 セイコーエプソン株式会社 Projector and control method for the same
US9787961B2 (en) 2016-01-13 2017-10-10 Seiko Epson Corporation Projector and method for controlling projector

Also Published As

Publication number Publication date
JP6291911B2 (en) 2018-03-14

Similar Documents

Publication Publication Date Title
JP6398248B2 (en) Position detection system and method for controlling position detection system
JP6326895B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6349838B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6417690B2 (en) Projector, display device, and projector control method
JP6387644B2 (en) Position detection device, position detection system, and position detection method
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6562124B2 (en) Position detection system and method for controlling position detection system
CN104898894B (en) Position detection device and position detection method
JP6569259B2 (en) POSITION DETECTION DEVICE, DISPLAY DEVICE, POSITION DETECTION METHOD, AND DISPLAY METHOD
JP6291911B2 (en) Position detection apparatus and position detection method
JP6291912B2 (en) Position detection apparatus and position detection method
JP6340860B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6337558B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6524741B2 (en) Position detection device, display device, control method of position detection device, and control method of display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180129

R150 Certificate of patent or registration of utility model

Ref document number: 6291911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees