JP2017134730A - Projector and position detection method - Google Patents

Projector and position detection method Download PDF

Info

Publication number
JP2017134730A
JP2017134730A JP2016015668A JP2016015668A JP2017134730A JP 2017134730 A JP2017134730 A JP 2017134730A JP 2016015668 A JP2016015668 A JP 2016015668A JP 2016015668 A JP2016015668 A JP 2016015668A JP 2017134730 A JP2017134730 A JP 2017134730A
Authority
JP
Japan
Prior art keywords
threshold value
projector
indicator
mode
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016015668A
Other languages
Japanese (ja)
Inventor
道 越橋
Toru Koshihashi
道 越橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016015668A priority Critical patent/JP2017134730A/en
Publication of JP2017134730A publication Critical patent/JP2017134730A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To more accurately detect the position of an indicator even when a plurality of projectors are arranged side by side and used.SOLUTION: A projector comprises: projection means that projects a video on a projection surface; imaging means that photographs the projection surface irradiated by irradiation means with detection light; and detection means that detects, from the image photographed by the imaging means, the position of an indicator on the projection surface by using a threshold for specifying the detection light reflected on the indicator. When an operation mode is a first mode, the detection means uses a first threshold having a relatively low value, and when the operation mode is a second mode, uses a second threshold having a relatively high value.SELECTED DRAWING: Figure 2

Description

本発明は、投写面における指示体の位置を検知する技術に関する。   The present invention relates to a technique for detecting the position of an indicator on a projection surface.

ペンや指などの指示体の位置を検知し、検知された位置に応じた処理を行う、いわゆるインタラクティブプロジェクターが知られている。指示体の位置を検知する方法は種々のものが提案されている。例えば特許文献1には、装置から光を照射し、指示体で反射された光を検知することにより位置を検知することが記載されている。   A so-called interactive projector that detects the position of an indicator such as a pen or a finger and performs processing according to the detected position is known. Various methods for detecting the position of the indicator have been proposed. For example, Patent Document 1 describes that a position is detected by irradiating light from an apparatus and detecting light reflected by an indicator.

特開2015−158886号公報Japanese Patent Laying-Open No. 2015-158886

特許文献1のプロジェクターを複数台並べて使用する際、2台のプロジェクターの境界付近では各プロジェクターからの検出光が交わるため他の領域よりも明るくなり、指示体の位置を正しく検知することができないという問題があった。   When a plurality of projectors of Patent Document 1 are used side by side, the detection light from each projector crosses near the boundary between the two projectors, so that it is brighter than the other areas, and the position of the indicator cannot be detected correctly. There was a problem.

これに対し本発明は、プロジェクターを複数台並べて使用する場合であっても、より正確に指示体の位置を検出する技術を提供する。   In contrast, the present invention provides a technique for more accurately detecting the position of the indicator even when a plurality of projectors are used side by side.

本発明は、投写面に映像を投写する投写手段と、照射手段から検出光が照射された前記投写面を撮影する撮影手段と、前記撮影手段により撮影された画像から、指示体で反射された前記検出光を特定するためのしきい値を用いて、前記投写面上の前記指示体の位置を検知する検知手段とを有し、前記検知手段は、動作モードが第1モードの場合には、値が相対的に低い第1しきい値を用い、前記動作モードが第2モードの場合には、値が相対的に高い第2しきい値を用いることを特徴とするプロジェクターを提供する。
このプロジェクターによれば、プロジェクターを複数台並べて使用する場合であっても、より正確に指示体の位置を検知することができる。
In the present invention, a projection unit that projects an image on a projection surface, a photographing unit that photographs the projection surface irradiated with detection light from the irradiation unit, and an image captured by the photographing unit are reflected by the indicator. Detecting means for detecting the position of the indicator on the projection surface by using a threshold value for specifying the detection light, and the detecting means is provided when the operation mode is the first mode. A projector having a relatively low first threshold value and a relatively high second threshold value when the operation mode is the second mode is provided.
According to this projector, even when a plurality of projectors are used side by side, the position of the indicator can be detected more accurately.

前記第1モードは、前記プロジェクターを単体で使用する動作モードであり、前記第2モードは、複数のプロジェクターを並べて使用する動作モードであってもよい。
このプロジェクターによれば、プロジェクターを単体で使用する場合であっても、複数台並べて使用する場合であっても、より正確に指示体の位置を検知することができる。
The first mode may be an operation mode in which the projector is used alone, and the second mode may be an operation mode in which a plurality of projectors are used side by side.
According to this projector, it is possible to detect the position of the indicator more accurately even when the projector is used alone or when a plurality of projectors are used side by side.

前記第1しきい値は、前記投写面において前記照射手段からの距離が短いほど高くなるように定義されており、前記第2しきい値と前記第1しきい値との差は、他のプロジェクターが有する照射手段からの距離が短いほど大きくなってもよい。
このプロジェクターによれば、照射手段からの距離に応じたしきい値を用いて指示体の位置を検出することができる。
The first threshold value is defined to be higher as the distance from the irradiating means is shorter on the projection plane, and the difference between the second threshold value and the first threshold value is the other It may be larger as the distance from the irradiation means of the projector is shorter.
According to this projector, the position of the indicator can be detected using a threshold value corresponding to the distance from the irradiation unit.

前記第1しきい値は、前記撮影手段から前記投写面までの距離が短いほど高くなるように定義されていてもよい。
このプロジェクターによれば、撮影手段から投写面までの距離に応じたしきい値を用いて指示体の位置を検出することができる。
The first threshold value may be defined so as to increase as the distance from the photographing unit to the projection plane decreases.
According to this projector, the position of the indicator can be detected using a threshold value corresponding to the distance from the photographing means to the projection plane.

前記照射手段は、前記検出光を照射しない第1期間および前記検出光を照射する第2期間を含む複数の期間を繰り返し、前記検知手段は、前記動作モードが前記第2モードの場合に、前記第2期間では前記第2しきい値を用いて前記指示体で反射された前記検出光を特定し、前記第1期間では前記第1しきい値を用いて前記指示体が発した光を特定してもよい。
このプロジェクターによれば、検出光を照射しない第1期間と検出光を照射する第2期間の双方において正確に指示体の位置を検知することができる。
The irradiating means repeats a plurality of periods including a first period in which the detection light is not radiated and a second period in which the detection light is radiated, and the detecting means has the second mode when the operation mode is the second mode. In the second period, the detection light reflected by the indicator is specified using the second threshold, and in the first period, the light emitted by the indicator is specified using the first threshold. May be.
According to this projector, the position of the indicator can be accurately detected both in the first period in which the detection light is not emitted and in the second period in which the detection light is emitted.

また、本発明は、プロジェクターが投写面に映像を投写するステップと、照射手段から検出光が照射された前記投写面を撮影するステップと、前記撮影された画像から、指示体で反射された前記検出光を特定するためのしきい値を用いて、前記投写面上の前記指示体の位置を検知するステップとを有し、前記指示体の位置を検知するステップにおいて、動作モードが第1モードの場合には、値が相対的に低い第1しきい値を用い、前記動作モードが第2モードの場合には、値が相対的に高い第2しきい値を用いて前記指示体の位置を検知することを特徴とする検知方法を提供する。
この位置検知方法によれば、プロジェクターを複数台並べて使用する場合であっても、より正確に指示体の位置を検出することができる。
According to another aspect of the invention, the projector projects the image on the projection surface, the step of photographing the projection surface irradiated with the detection light from the irradiating means, and the reflected image from the photographed image by the indicator. Detecting the position of the indicator on the projection plane using a threshold value for specifying the detection light, and in the step of detecting the position of the indicator, the operation mode is the first mode. In this case, the first threshold value having a relatively low value is used, and when the operation mode is the second mode, the second threshold value having a relatively high value is used to position the indicator. Provided is a detection method characterized by detecting the above.
According to this position detection method, the position of the indicator can be detected more accurately even when a plurality of projectors are used side by side.

一実施形態に係るプロジェクター1の概要を示す図。1 is a diagram showing an outline of a projector 1 according to an embodiment. プロジェクター1の機能構成を例示する図。FIG. 3 is a diagram illustrating a functional configuration of the projector 1. プロジェクター1のハードウェア構成を例示する図。FIG. 3 is a diagram illustrating a hardware configuration of the projector 1. 検出光の概要を示す図(正面)。The figure which shows the outline | summary of a detection light (front). 検出光の概要を示す図(断面)。The figure which shows the outline | summary of a detection light (cross section). 指示体の位置検出の概要を示す図。The figure which shows the outline | summary of the position detection of a pointer. プロジェクター1の動作モード設定処理を示すフローチャート。6 is a flowchart showing an operation mode setting process of the projector. 動作モードの設定画面を例示する図。The figure which illustrates the setting screen of an operation mode. 指示体の位置検知処理を示すフローチャート。The flowchart which shows the position detection process of a pointer. 位置検出用の撮影画像を例示する図。The figure which illustrates the picked-up image for position detection. 参照用の撮影画像を例示する図。The figure which illustrates the picked-up image for a reference. マスク処理後の位置検出用の撮影画像を例示する図。The figure which illustrates the picked-up image for position detection after a mask process. マスク処理後の参照用の撮影画像を例示する図。The figure which illustrates the picked-up image for a reference after a mask process. 差分データにより示される画像を例示する図。The figure which illustrates the image shown by difference data. 基準しきい値を例示する図。The figure which illustrates a standard threshold. 基準しきい値をより詳細に例示する図。The figure which illustrates a reference | standard threshold value in detail. 左側用補正値を例示する図。The figure which illustrates the left side correction value. 左側用補正値をより詳細に例示する図。The figure which illustrates the left side correction value in detail. 左側用、右側用、および中央用の補正値の概要を示す図。The figure which shows the outline | summary of the correction value for left side, right side, and center.

1.構成
図1は、一実施形態に係るプロジェクター1の概要を示す図である。この例で、プロジェクター1はいわゆる短焦点のプロジェクターであり、投写面SCとなる壁面に設置されている。プロジェクター1の下側に映像が投写される。また、プロジェクター1はいわゆるインタラクティブプロジェクターであり、指示体(図1では略)の位置に応じた処理を行う。より具体的には、プロジェクター1は、指示体の位置の軌跡に応じた画像オブジェクトを投写する。指示体としては、例えばユーザーの指が用いられる。ユーザーの指の検知には、いわゆるレーザーカーテンが用いられる。レーザーカーテンとは、投写面SCに沿ってレーザー光を張り巡らせることをいう。投写面SCに指を近づけると、レーザー光が指で反射される。プロジェクターはカメラで投写面SCを撮影し、反射光から指の位置を検知する。
1. Configuration FIG. 1 is a diagram illustrating an outline of a projector 1 according to an embodiment. In this example, the projector 1 is a so-called short focus projector, and is installed on a wall surface serving as a projection plane SC. An image is projected below the projector 1. The projector 1 is a so-called interactive projector, and performs processing according to the position of the indicator (not shown in FIG. 1). More specifically, the projector 1 projects an image object corresponding to the locus of the position of the indicator. As the indicator, for example, a user's finger is used. A so-called laser curtain is used to detect the user's finger. A laser curtain means extending a laser beam along the projection surface SC. When the finger is brought close to the projection surface SC, the laser light is reflected by the finger. The projector images the projection plane SC with the camera and detects the position of the finger from the reflected light.

より大きな画面を表示するため、複数台のプロジェクター1が用いられる。この例では、2台のプロジェクター1が横に並べて配置されている。これら2台のプロジェクター1により投写される画面は隣り合っており、全体として横長の大きな画面が投写されているように見える。   In order to display a larger screen, a plurality of projectors 1 are used. In this example, two projectors 1 are arranged side by side. The screens projected by these two projectors 1 are adjacent to each other, and it looks as if a large horizontally long screen is projected as a whole.

図2は、プロジェクター1の機能構成を例示する図である。プロジェクター1は、投写手段11、照射手段12、撮影手段13、検知手段14、記憶手段15、および処理手段16を有する。投写手段11は、投写面(スクリーンや壁面)に映像を投写する。照射手段12は、指示体の位置を検出するための光(以下「検出光」という)を投写面に沿って照射する。撮影手段13は、照射手段12から検出光が照射されているときに、投写面を撮影する。検知手段14は、撮影手段13により撮影された画像における検出光の像から、指示体の位置を検知する。指示体の位置の検知にあたり、検知手段14は、検出光の像を他の像と区別するためのしきい値を用いる。検知手段14の動作モードすなわち位置検知のモードには、しきい値が相対的に低い第1モード(第1モードにおけるしきい値は第1しきい値の一例である)と、しきい値が相対的に高い第2モード(第2モードにおけるしきい値は第2しきい値の一例である)とがある。検知手段14は、第1モードおよび第2モードを含む複数の動作モードから選択された一の動作モードにおいて投写面上の指示体の位置を検知する。この例で、プロジェクター1を単体で用いるのに好適な動作モードであることから第1モードを「シングルモード」といい、複数台のプロジェクター1を並べて使用するのに好適な動作モードであることから第2モードを「マルチモード」という。   FIG. 2 is a diagram illustrating a functional configuration of the projector 1. The projector 1 includes a projection unit 11, an irradiation unit 12, a photographing unit 13, a detection unit 14, a storage unit 15, and a processing unit 16. The projection unit 11 projects an image on a projection surface (screen or wall surface). The irradiation means 12 irradiates light for detecting the position of the indicator (hereinafter referred to as “detection light”) along the projection plane. The photographing unit 13 photographs the projection plane when the detection light is irradiated from the irradiation unit 12. The detection unit 14 detects the position of the indicator from the detection light image in the image captured by the imaging unit 13. In detecting the position of the indicator, the detection unit 14 uses a threshold value for distinguishing the image of the detection light from other images. The operation mode of the detection means 14, that is, the position detection mode, includes a first mode having a relatively low threshold value (the threshold value in the first mode is an example of the first threshold value), There is a relatively high second mode (the threshold value in the second mode is an example of a second threshold value). The detection means 14 detects the position of the indicator on the projection surface in one operation mode selected from a plurality of operation modes including the first mode and the second mode. In this example, since the operation mode is suitable for using the projector 1 alone, the first mode is referred to as “single mode”, and the operation mode is suitable for using a plurality of projectors 1 side by side. The second mode is called “multi-mode”.

記憶手段15は、シングルモードおよびマルチモードに対応するしきい値を記憶している。検知手段14は、記憶手段15に記憶されているしきい値を用いて指示体の位置を検知する。処理手段16は、検知手段14により検知された指示体の位置の軌跡に応じた処理、例えば、軌跡に応じて画像オブジェクト(例えばこの軌跡に対応する線)を示すデータを生成する処理を行う。投写手段11は、この処理に応じて画像を投写する。   The storage unit 15 stores threshold values corresponding to the single mode and the multimode. The detection unit 14 detects the position of the indicator using the threshold value stored in the storage unit 15. The processing unit 16 performs processing according to the locus of the position of the indicator detected by the detection unit 14, for example, processing for generating data indicating an image object (for example, a line corresponding to the locus) according to the locus. The projection unit 11 projects an image according to this processing.

図3は、プロジェクター1のハードウェア構成を例示する図である。プロジェクター1は、CPU(Central Processing Unit)100、ROM(Read Only Memory)101、RAM(Random Access Memory)102、IF部104、画像処理回路105、投写ユニット106、操作パネル107、カメラ108、および光照射部109を有する。   FIG. 3 is a diagram illustrating a hardware configuration of the projector 1. The projector 1 includes a CPU (Central Processing Unit) 100, a ROM (Read Only Memory) 101, a RAM (Random Access Memory) 102, an IF unit 104, an image processing circuit 105, a projection unit 106, an operation panel 107, a camera 108, and a light. An irradiation unit 109 is included.

CPU100は、プロジェクター1の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。ROM101には、後述する基準しきい値や補正値が記憶されている。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。   The CPU 100 is a control device that controls each unit of the projector 1. The ROM 101 is a non-volatile storage device that stores various programs and data. The ROM 101 stores a reference threshold value and a correction value, which will be described later. The RAM 102 is a volatile storage device that stores data, and functions as a work area when the CPU 100 executes processing.

IF部104は、外部装置と信号またはデータのやりとりを仲介するインターフェースである。IF部104は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。IF部104は、異なる複数の映像供給装置から映像信号の入力を受け付けてもよい。   The IF unit 104 is an interface that mediates exchange of signals or data with an external device. The IF unit 104 is a terminal (for example, VGA terminal, USB terminal, wired LAN interface, S terminal, RCA terminal, HDMI (High-Definition Multimedia Interface: registered trademark) terminal) for exchanging signals or data with an external device. Microphone terminal) and a wireless LAN interface. These terminals may include a video output terminal in addition to the video input terminal. The IF unit 104 may accept input of video signals from a plurality of different video supply devices.

画像処理回路105は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。   The image processing circuit 105 performs predetermined image processing (eg, size change, keystone correction, etc.) on the input video signal (hereinafter referred to as “input video signal”).

投写ユニット106は、画像処理が施された映像信号に従って、投写面SCに画像を投写する。投写ユニット106は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光を投写面SCに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。   The projection unit 106 projects an image on the projection surface SC according to the video signal on which image processing has been performed. The projection unit 106 includes a light source, an optical modulator, and an optical system (all not shown). The light source includes a lamp such as a high-pressure mercury lamp, a halogen lamp, or a metal halide lamp, or a solid light source such as an LED (Light Emitting Diode) or a laser diode, and a drive circuit thereof. The optical modulator is a device that modulates light emitted from a light source according to a video signal, and includes, for example, a liquid crystal panel or a DMD (Digital Mirror Device) and a drive circuit thereof. The liquid crystal panel may be either a transmission type or a reflection type. The optical system is configured by an element that projects light modulated by the light modulator onto the projection surface SC, and includes, for example, a mirror, a lens, and a prism. A light source and a light modulator may be provided for each color component.

操作パネル107は、ユーザーがプロジェクター1に対し指示を入力するための入力装置であり、例えば、キーパッド、ボタン、またはタッチパネルを含む。   The operation panel 107 is an input device for a user to input an instruction to the projector 1 and includes, for example, a keypad, buttons, or a touch panel.

カメラ108は、指示体の位置を特定するためのカメラである。この例で、プロジェクター1は、ユーザーの指に加え、専用の電子ペンを指示体として検知することができる。電子ペンは、ペン先に設けられた発光体(例えば赤外線発光ダイオード)、圧力センサー、および制御回路(いずれも図示略)を有する。圧力センサーによりペン先が物体(投写面等)に触れたことが検知されると、制御回路は、所定の発光パターンで発光体を発光させる。CPU100は、カメラ108が撮影した画像から指示体の位置を検知(特定)する。CPU100は、例えば発光パターンの違いまたは発光波長の違いにより、複数の指示体を区別することができる。   The camera 108 is a camera for specifying the position of the indicator. In this example, the projector 1 can detect a dedicated electronic pen as an indicator in addition to the user's finger. The electronic pen has a light emitter (for example, an infrared light emitting diode) provided at the pen tip, a pressure sensor, and a control circuit (all not shown). When the pressure sensor detects that the pen tip has touched an object (such as a projection surface), the control circuit causes the light emitter to emit light with a predetermined light emission pattern. The CPU 100 detects (identifies) the position of the indicator from the image captured by the camera 108. The CPU 100 can distinguish between the plurality of indicators based on, for example, a difference in light emission pattern or a difference in light emission wavelength.

光照射部109は、ユーザーの指を検知するための検出光を照射する。検出光としては例えば赤外線のレーザー光が用いられる。光照射部109は、投写面SCを覆うようにカーテン状にレーザー光を照射する。光照射部109は、レーザー光を発する発光素子と、レーザー光を平面状に拡散するための光学部材を有する。なお、光照射部109は、他の要素とは独立した筐体に収められており、プロジェクター1の本体とは有線または無線で通信する。   The light irradiation unit 109 emits detection light for detecting the user's finger. For example, infrared laser light is used as the detection light. The light irradiation unit 109 irradiates the laser beam in a curtain shape so as to cover the projection surface SC. The light irradiation unit 109 includes a light emitting element that emits laser light and an optical member for diffusing the laser light in a planar shape. The light irradiation unit 109 is housed in a housing independent of other elements, and communicates with the main body of the projector 1 by wire or wirelessly.

図4および図5は、検出光の概要を示す図である。図4は、投写面SCを正面から見た模式図である。検出光Lは光照射部109から放射状に照射され、投写面SCを覆っている。図5は、投写面SCを断面方向から見た模式図である。検出光Lは投写面SCから少し(例えば数mm)離れた高さで、投写面SCに沿って照射されている。ユーザーの指Fが投写面SCに近づくと検出光が指Fで反射される。この反射光をカメラ108で捕らえることにより、指の位置が検知される。   4 and 5 are diagrams showing an outline of the detection light. FIG. 4 is a schematic view of the projection screen SC viewed from the front. The detection light L is irradiated radially from the light irradiation unit 109 and covers the projection surface SC. FIG. 5 is a schematic view of the projection plane SC viewed from the cross-sectional direction. The detection light L is irradiated along the projection surface SC at a height slightly apart (for example, several mm) from the projection surface SC. When the user's finger F approaches the projection surface SC, the detection light is reflected by the finger F. By capturing this reflected light with the camera 108, the position of the finger is detected.

図6は、指示体の位置検出の概要を示す図である。この例で、指示体の位置検出は、第1〜第4フェーズの4つのフェーズ(期間)で構成される。これら4つのフェーズは、順番に繰り返される。   FIG. 6 is a diagram showing an outline of the position detection of the indicator. In this example, the position detection of the pointer is configured by four phases (periods) of the first to fourth phases. These four phases are repeated in order.

第1フェーズ(第1期間の一例)は、同期フェーズである。第1フェーズにおいては、プロジェクター1の通信部(図示せず)から同期信号が送信される。同期信号は無線信号、例えば赤外線信号である。第1〜第4フェーズの間隔はあらかじめ決められており、電子ペンは、この同期信号を受信することにより第1〜第4フェーズの開始タイミングを特定することができる。電子ペンは、第2〜第4フェーズにおいて発光する。   The first phase (an example of the first period) is a synchronization phase. In the first phase, a synchronization signal is transmitted from a communication unit (not shown) of the projector 1. The synchronization signal is a radio signal, for example, an infrared signal. The interval between the first to fourth phases is determined in advance, and the electronic pen can specify the start timing of the first to fourth phases by receiving this synchronization signal. The electronic pen emits light in the second to fourth phases.

第2フェーズ(第2期間の一例)は、位置検出フェーズである。第2フェーズにおいて、カメラ108は、投写面SCを撮影する。このとき、指示体(ユーザーの指または電子ペン)が投写面SCに近づいていれば、指示体により反射された検出光の像が写る。また、電子ペンが発光している場合はその発光による像も写る。   The second phase (an example of the second period) is a position detection phase. In the second phase, the camera 108 images the projection plane SC. At this time, if the indicator (user's finger or electronic pen) is close to the projection surface SC, an image of the detection light reflected by the indicator appears. Further, when the electronic pen emits light, an image of the light emission is also captured.

第3フェーズは、指示体判定フェーズである。第1〜第4フェーズはそれぞれさらに複数の期間に分割されている。電子ペンは、あらかじめ決められたパターンで発光する。電子ペンが複数用いられる場合には電子ペン毎に発光するパターンが異なるようにしているので、どの電子ペンが発光しているのか特定することができる。なお、第3フェーズにおいて光照射部109から検出光は照射されないので指による検出光の像は検出されない。   The third phase is an indicator determination phase. Each of the first to fourth phases is further divided into a plurality of periods. The electronic pen emits light in a predetermined pattern. When a plurality of electronic pens are used, the light emission pattern is different for each electronic pen, so it is possible to specify which electronic pen emits light. In addition, since the detection light is not irradiated from the light irradiation unit 109 in the third phase, the image of the detection light by the finger is not detected.

第4フェーズ(第2期間の一例)は、第2フェーズと同様の位置検出フェーズである。第2フェーズに加え第4フェーズで位置検出を行うことにより、位置検出の精度を高めることができる。   The fourth phase (an example of the second period) is a position detection phase similar to the second phase. By performing position detection in the fourth phase in addition to the second phase, position detection accuracy can be improved.

再び図3を参照する。この例で、CPU100がROM101に記憶されているプログラムを実行することにより、図2に示す機能がプロジェクター1に実装される。投写ユニット106は、投写手段11の一例である。光照射部109は照射手段12の一例である。カメラ108は撮影手段13の一例である。CPU100は検知手段14および処理手段16の一例である。ROM101およびRAM102は記憶手段15の一例である。   Refer to FIG. 3 again. In this example, when the CPU 100 executes a program stored in the ROM 101, the functions shown in FIG. The projection unit 106 is an example of the projection unit 11. The light irradiation unit 109 is an example of the irradiation unit 12. The camera 108 is an example of the photographing unit 13. The CPU 100 is an example of the detection unit 14 and the processing unit 16. The ROM 101 and the RAM 102 are an example of the storage unit 15.

2.動作
2−1.モード設定
図7は、動作モード設定処理を示すフローチャートである。図7のフローは、例えばユーザーがプロジェクター1のメニュー画面を操作して動作モードの設定画面を呼び出したことを契機として開始される。ステップS11において、CPU100は、プロジェクター1の動作モードの設定を受け付ける。
2. Operation 2-1. Mode Setting FIG. 7 is a flowchart showing the operation mode setting process. The flow in FIG. 7 is started when, for example, the user calls the operation mode setting screen by operating the menu screen of the projector 1. In step S <b> 11, the CPU 100 accepts setting of the operation mode of the projector 1.

図8は、動作モードの設定画面を例示する図である。この例ではマルチプロジェクション(複数台のプロジェクター1を用いた表示)に関し、「オフ」、「左側」、「右側」、および「中央」の4つの選択肢が提示されている。「オフ」はプロジェクター1を単体で用いるとき、すなわちシングルモードの選択肢である。「左側」、「右側」、および「中央」は複数台のプロジェクター1を組み合わせて用いるとき、すなわちマルチモードの選択肢である。マルチモードの場合は、他のプロジェクター1との位置関係を特定する必要がある。「左側」、「右側」、および「中央」は、それぞれ、このプロジェクター1が左端、右端、および2台以上のプロジェクターに挟まれた位置にあるときの選択肢である。ユーザーは、これらの選択肢の中からこのプロジェクター1と他のプロジェクター1との位置関係に対応する選択肢を選択する。CPU100は、選択された選択肢を特定する情報をRAM102に記憶する。   FIG. 8 is a diagram illustrating an operation mode setting screen. In this example, four options “off”, “left side”, “right side”, and “center” are presented for multi-projection (display using a plurality of projectors 1). “Off” is a single mode option when the projector 1 is used alone. “Left side”, “Right side”, and “Center” are options when a plurality of projectors 1 are used in combination, that is, multimode. In the case of the multi mode, it is necessary to specify the positional relationship with other projectors 1. “Left side”, “right side”, and “center” are options when the projector 1 is located at the left end, the right end, and a position between two or more projectors, respectively. The user selects an option corresponding to the positional relationship between the projector 1 and the other projector 1 from these options. The CPU 100 stores information for specifying the selected option in the RAM 102.

2−2.指示体の位置検知
図9は、指示体の位置検知処理を示すフローチャートである。図9のフローは、例えばプロジェクター1の電源が投入されたことを契機として開始される。
2-2. Pointer Position Detection FIG. 9 is a flowchart showing the pointer position detection process. The flow in FIG. 9 is started when the power of the projector 1 is turned on, for example.

ステップS21において、CPU100は、カメラ108により撮影された画像のデータを取得する。カメラ108により撮影された画像を「撮影画像」という。撮影画像には、位置検出フェーズにおいて撮影された位置検出用の撮影画像と、位置検出フェーズ以外のタイミング(例えば、同期フェーズ)で撮影された参照用の撮影画像とがある。以下、位置検出用の撮影画像のデータを「検出用データ」といい、参照用の撮影画像のデータを「参照用データ」という。   In step S <b> 21, the CPU 100 acquires data of an image captured by the camera 108. An image captured by the camera 108 is referred to as a “captured image”. The photographed image includes a photographed image for position detection photographed in the position detection phase and a photographed image for reference photographed at a timing other than the position detection phase (for example, a synchronization phase). Hereinafter, the captured image data for position detection is referred to as “detection data”, and the captured image data for reference is referred to as “reference data”.

図10および図11は、撮影画像を例示する図である。図10は位置検出用の撮影画像を、図11は参照用の撮影画像を、それぞれ示している。図中の領域Aは、投写ユニット106により映像が投写される領域(以下「投写領域」という)である。カメラ108と投写面SCとの位置関係により、撮影画像において領域Aは長方形ではなく歪んでいる。この例では、位置検出用の撮影画像には像Sbおよび像Sfが、参照用の撮影画像には像Sbが写っている。像Sbは、蛍光灯などの外光が投写面SCで反射したことによる像である。像Scは検出光とは無関係なので位置検出用および参照用の撮影画像の双方に写っている。像Sfはユーザーの指により反射された検出光の像である。像Sfは位置検出用の撮影画像のみに写っている。   10 and 11 are diagrams illustrating captured images. FIG. 10 shows a captured image for position detection, and FIG. 11 shows a captured image for reference. An area A in the figure is an area where an image is projected by the projection unit 106 (hereinafter referred to as “projection area”). Due to the positional relationship between the camera 108 and the projection surface SC, the area A is not rectangular but distorted in the captured image. In this example, the image Sb and the image Sf are shown in the shot image for position detection, and the image Sb is shown in the shot image for reference. The image Sb is an image obtained by reflecting external light such as a fluorescent lamp on the projection surface SC. Since the image Sc is unrelated to the detection light, the image Sc appears in both the position detection and reference captured images. The image Sf is an image of detection light reflected by the user's finger. The image Sf is shown only in the captured image for position detection.

再び図9を参照する。ステップS22において、CPU100は、撮影画像から投写領域を切り出す。具体的には、検出用データおよび参照用データにマスク処理を施す。マスク処理とは、投写領域以外の部分のデータを所定の階調値(例えば黒に相当する階調値)に書き替える処理をいう。プロジェクター1と投写面SCとの位置関係が決まれば撮影画像のうちどの部分が投写領域であるかも決まる。例えばプロジェクター1の設置後にキャリブレーション用のパターン画像を投写することにより、投写領域が特定される。   Refer to FIG. 9 again. In step S22, the CPU 100 cuts out a projection area from the captured image. Specifically, a mask process is performed on the detection data and the reference data. The mask process is a process of rewriting data in a portion other than the projection area to a predetermined gradation value (for example, a gradation value corresponding to black). If the positional relationship between the projector 1 and the projection surface SC is determined, it is also determined which part of the captured image is the projection area. For example, the projection area is specified by projecting a pattern image for calibration after the projector 1 is installed.

図12および図13は、マスク処理後の撮影画像を例示する図である。図12は位置検出用の撮影画像を、図13は参照用の撮影画像を、それぞれ示している。投写領域以外の部分は黒くマスクされている。この処理により、投写領域の外における誤検知を抑制することができる。   12 and 13 are diagrams illustrating the captured image after the mask processing. FIG. 12 shows a captured image for position detection, and FIG. 13 shows a captured image for reference. Parts other than the projection area are masked in black. By this processing, erroneous detection outside the projection area can be suppressed.

再び図9を参照する。ステップS23において、CPU100は、検出用データから参照用データを減算し、差分データを生成する。検出用データから参照用データを減算するとは、画素毎に検出用データの階調値から参照用データの階調値を減算することをいう。   Refer to FIG. 9 again. In step S23, the CPU 100 subtracts the reference data from the detection data to generate difference data. Subtracting the reference data from the detection data means subtracting the gradation value of the reference data from the gradation value of the detection data for each pixel.

図14は、差分データにより示される画像を例示する図である。検出用の撮影画像と参照用の撮影画像とで階調値が同じ画素の差分はゼロとなり、検出用の撮影画像の方が参照用の撮影画像よりも明るい画素の差分は正の値となる。この例では像Sf以外の部分はすべて階調値がゼロになり、像Sfだけ残っている。   FIG. 14 is a diagram illustrating an image indicated by the difference data. The difference between pixels having the same gradation value between the detection photographed image and the reference photographed image is zero, and the difference between pixels that are brighter in the detection photographed image than the reference photographed image is a positive value. . In this example, all the portions other than the image Sf have gradation values of zero, and only the image Sf remains.

再び図9を参照する。ステップS24において、CPU100は、ROM101から基準しきい値を読み出す。基準しきい値とは、撮影画像において指示体で反射した検出光を特定するために用いられるしきい値であり、他のプロジェクター1の影響を考慮しない場合、すなわちシングルモードの場合に利用されるしきい値である。   Refer to FIG. 9 again. In step S <b> 24, the CPU 100 reads the reference threshold value from the ROM 101. The reference threshold value is a threshold value used for specifying the detection light reflected by the indicator in the captured image, and is used when the influence of other projectors 1 is not taken into consideration, that is, in the single mode. It is a threshold value.

図15は、基準しきい値を例示する図である。基準しきい値は、投写領域Aにおいて光照射部109からの距離d1(第1距離の一例)に応じて定義されている。具体的には、光照射部109から遠い位置ほど反射光の強度が弱まるため、距離d1が短いほど(光照射部109から近いほど)しきい値は高く、距離d1が長いほど(光照射部109から遠いほど)しきい値は低く設定されている。ここでは図面を簡単にするため、投写領域Aが3つの領域に分けられている例を示している。光照射部109に最も近い領域A1のしきい値が最も高く、領域A2、領域A3と光照射部109から遠くなるにつれしきい値は低下する。   FIG. 15 is a diagram illustrating a reference threshold value. The reference threshold value is defined according to the distance d1 (an example of the first distance) from the light irradiation unit 109 in the projection area A. Specifically, since the intensity of the reflected light becomes weaker as the position is farther from the light irradiation unit 109, the threshold value is higher as the distance d1 is shorter (closer from the light irradiation unit 109), and the distance d1 is longer (light irradiation unit). The farther from 109) the threshold is set lower. Here, in order to simplify the drawing, an example in which the projection area A is divided into three areas is shown. The threshold value of the region A1 closest to the light irradiation unit 109 is the highest, and the threshold value decreases as the distance from the region A2, the region A3 and the light irradiation unit 109 increases.

図16は、基準しきい値をより詳細に例示する図である。この図で、横軸は光照射部109からの距離を、縦軸はしきい値を示している。基準しきい値は、プロジェクター1と投写面SCとの距離、より詳細にはカメラ108と投写面SCとの距離d2(第2距離の一例)に応じて定義されている。プロジェクター1および投写面SCが固定されていれば、距離d2は不変である。プロジェクター1(カメラ108)が投写面SCから遠いほど、カメラ108で受光される反射光の強度が弱まるため、距離d2が短いほど(プロジェクター1と投写面SCとが近いほど)しきい値は高く、距離d2が長いほど(プロジェクター1と投写面SCとが遠いほど)しきい値は低く設定されている。   FIG. 16 is a diagram illustrating the reference threshold in more detail. In this figure, the horizontal axis indicates the distance from the light irradiation unit 109, and the vertical axis indicates the threshold value. The reference threshold value is defined according to the distance between the projector 1 and the projection plane SC, more specifically, the distance d2 (an example of the second distance) between the camera 108 and the projection plane SC. If the projector 1 and the projection surface SC are fixed, the distance d2 is unchanged. As the projector 1 (camera 108) is farther from the projection plane SC, the intensity of reflected light received by the camera 108 becomes weaker. Therefore, the shorter the distance d2 (the closer the projector 1 and the projection plane SC are), the higher the threshold value is. The threshold value is set lower as the distance d2 is longer (as the projector 1 and the projection surface SC are farther).

図16の基準しきい値は、撮影画像に対して図15のようにマッピングされる。基準しきい値の撮影画像へのマッピングは、理想的な(長方形の)投写領域を撮影画像における投写領域の形状に変換するための幾何変換により行われる。この幾何変換は、投写面SC上の投写領域が長方形になるようにする幾何変換と相関がある。これらの幾何変換は、プロジェクター1を設置した後にキャリブレーション用のパターンを投写し、これをカメラ108で撮影することにより決定されたパラメーターを用いて行われる。撮影画像への基準しきい値のマッピングはプロジェクター1と投写面SCとの位置関係が固定されている間は不変である。   The reference threshold value in FIG. 16 is mapped to the captured image as shown in FIG. The mapping of the reference threshold value to the captured image is performed by geometric conversion for converting an ideal (rectangular) projection area into the shape of the projection area in the captured image. This geometric transformation has a correlation with the geometric transformation that makes the projection area on the projection screen SC rectangular. These geometric transformations are performed using parameters determined by projecting a calibration pattern after the projector 1 is installed and photographing it with the camera 108. The mapping of the reference threshold value to the photographed image does not change while the positional relationship between the projector 1 and the projection surface SC is fixed.

再び図9を参照する。ステップS25において、CPU100は、動作モード設定を判別する。動作モードは図7のフローで設定されており、動作モードを判別するための情報はRAM102に記憶されている。動作モードがシングルモードに設定されている場合(S25:オフ)、CPU100は、処理をステップS29に移行する。動作モードがマルチモード(左側)に設定されている場合(S25:左)、CPU100は、処理をステップS26に移行する。動作モードがマルチモード(右側)に設定されている場合(S25:右)、CPU100は、処理をステップS27に移行する。動作モードがマルチモード(中央)に設定されている場合(S25:中央)、CPU100は、処理をステップS28に移行する。   Refer to FIG. 9 again. In step S25, the CPU 100 determines the operation mode setting. The operation mode is set according to the flow of FIG. 7, and information for determining the operation mode is stored in the RAM 102. When the operation mode is set to the single mode (S25: OFF), the CPU 100 shifts the processing to step S29. When the operation mode is set to the multi mode (left side) (S25: left), the CPU 100 shifts the process to step S26. When the operation mode is set to the multi mode (right side) (S25: right), the CPU 100 shifts the process to step S27. When the operation mode is set to the multi mode (center) (S25: center), the CPU 100 shifts the processing to step S28.

ステップS26において、CPU100は、ROM101から左側用補正値を読み出し、これを基準しきい値に加算して、左側用しきい値を生成する。左側用しきい値は、動作モードがマルチモード(左側)に設定されたプロジェクターにおいて、指示体で反射した検出光を特定するために用いられるしきい値である。   In step S26, the CPU 100 reads the left correction value from the ROM 101, adds it to the reference threshold value, and generates a left threshold value. The threshold value for the left side is a threshold value used for specifying the detection light reflected by the indicator in the projector whose operation mode is set to the multi mode (left side).

図17は、左側用補正値を例示する図である。このプロジェクター1が左端に位置しているということは、このプロジェクター1の右側に他のプロジェクター1が設置されているということである。すなわち、このプロジェクター1の投写領域のうち右側の部分には、他のプロジェクター1の光照射部109から照射された検出光が到達している。投写面SCにおいて例えば投写領域の右端近傍に指を触れると、この指にはこのプロジェクター1の光照射部109から照射された検出光だけでなく、他のプロジェクター1の光照射部109から照射された検出光も当たっている。したがって、このプロジェクター1が1台のみで用いられる場合と比較すると反射光の強度は強くなり、誤検知の可能性が高くなってしまう。左側用補正値は、このような誤検知を抑制するためのものであり、投写領域の右上にいくほど(他のプロジェクター1の光照射部109から近いほど)値が高くなっている(Δth1>Δth2>Δth3)。   FIG. 17 is a diagram illustrating the left correction value. The fact that the projector 1 is located at the left end means that another projector 1 is installed on the right side of the projector 1. That is, the detection light emitted from the light irradiation unit 109 of the other projector 1 reaches the right part of the projection area of the projector 1. For example, when the finger touches the vicinity of the right end of the projection area on the projection surface SC, the finger is irradiated not only from the light irradiation unit 109 of the projector 1 but also from the light irradiation unit 109 of the other projector 1. The detection light is also hit. Therefore, the intensity of the reflected light is increased compared to the case where only one projector 1 is used, and the possibility of erroneous detection is increased. The correction value for the left side is for suppressing such erroneous detection, and the value increases as it goes to the upper right of the projection area (closer to the light irradiation unit 109 of the other projector 1) (Δth1> Δth2> Δth3).

図18は、左側用補正値をより詳細に例示する図である。この図で、横軸は投写領域における位置を、縦軸は補正値を示している。補正値は、例えば投写領域の1行毎に定義されているが、ここでは1行分の補正値のみを示している。左側用補正値は、基準しきい値と同様、プロジェクター1(カメラ108)と投写面SCとの距離d2に応じて定義されている。距離d2が短いほど補正値は高く、距離d2が長いほど補正値は低い。図18の補正値は、撮影画像に対してマッピングされる。補正値の撮影画像へのマッピングは、しきい値の撮影画像へのマッピングと同様に行われる。   FIG. 18 is a diagram illustrating the left-side correction value in more detail. In this figure, the horizontal axis indicates the position in the projection area, and the vertical axis indicates the correction value. The correction value is defined for each line of the projection area, for example, but only the correction value for one line is shown here. The correction value for the left side is defined according to the distance d2 between the projector 1 (camera 108) and the projection surface SC, similarly to the reference threshold value. The shorter the distance d2, the higher the correction value, and the longer the distance d2, the lower the correction value. The correction values in FIG. 18 are mapped to the captured image. The mapping of the correction value to the captured image is performed in the same manner as the mapping of the threshold value to the captured image.

再び図9を参照する。ステップS27において、CPU100は、ROM101から右側用補正値を読み出し、これを基準しきい値に加算して右側用しきい値を生成する。また、ステップS28において、CPU100は、ROM101から中央用補正値を読み出し、これを基準しきい値に加算して中央用しきい値を生成する。これらの処理は補正値のプロファイルが異なっている以外、左側用補正値の場合と同様である。右側用しきい値は、動作モードがマルチモード(右側)に設定されたプロジェクターにおいて、指示体で反射した検出光を特定するために用いられるしきい値であり、中央用しきい値は、動作モードがマルチモード(中央)に設定されたプロジェクターにおいて、指示体で反射した検出光を特定するために用いられるしきい値である。なお、基準しきい値および補正値はいずれも、プロジェクター1と投写面SCとの位置関係が固定されている間は不変であるので、図9のフローに先立って補正後のしきい値を算出しておき、これをROM101またはRAM102に記憶しておいてもよい。   Refer to FIG. 9 again. In step S27, the CPU 100 reads the right correction value from the ROM 101 and adds it to the reference threshold value to generate a right threshold value. In step S28, the CPU 100 reads the center correction value from the ROM 101 and adds it to the reference threshold value to generate the center threshold value. These processes are the same as those for the left correction value except that the correction value profile is different. The right-side threshold value is a threshold value used for specifying the detection light reflected by the indicator in the projector whose operation mode is set to the multi-mode (right-side), and the central threshold value is the operation threshold value. This is a threshold value used for specifying the detection light reflected by the indicator in a projector whose mode is set to multi-mode (center). Since both the reference threshold value and the correction value are unchanged while the positional relationship between the projector 1 and the projection surface SC is fixed, the corrected threshold value is calculated prior to the flow of FIG. In addition, this may be stored in the ROM 101 or the RAM 102.

図19は、左側用、右側用、および中央用の補正値の概要を示す図である。これらの図で、横軸は投写領域における位置を、縦軸は補正値を示している。左側用補正値では、投写領域の右側ほど値が高く、右側用補正値では、投写領域の左側ほど値が高く、中央用補正値では、中央から左右に離れるほど値が高い。なお、マルチモードにおいて用いられるしきい値は、シングルモードにおいて用いられる基準しきい値にこれらの補正値を加算した値であるため、補正値は、マルチモードにおけるしきい値と、シングルモードにおけるしきい値との差に相当する。   FIG. 19 is a diagram showing an outline of correction values for the left side, the right side, and the center. In these figures, the horizontal axis represents the position in the projection area, and the vertical axis represents the correction value. In the correction value for the left side, the value is higher toward the right side of the projection area. In the correction value for the right side, the value is higher toward the left side of the projection area. Since the threshold value used in the multimode is a value obtained by adding these correction values to the reference threshold value used in the single mode, the correction values are the threshold values in the multimode and the single mode. Corresponds to the difference from the threshold.

なお基準しきい値の補正は、撮影画像のうち、光照射部109から検出光が照射される第2フェーズおよび第4フェーズ(位置検知フェーズ)に撮影された画像に対して行われ、第3フェーズ(指示体判定フェーズ)に撮影された画像に対しては基準しきい値がそのまま用いられる。   Note that the correction of the reference threshold value is performed on images captured in the second phase and the fourth phase (position detection phase) in which the detection light is emitted from the light irradiation unit 109 among the captured images. The reference threshold value is used as it is for an image photographed in the phase (indicator determination phase).

再び図9を参照する。ステップS29において、CPU100は、撮影画像を2値化する。撮影画像の2値化には、補正後のしきい値が用いられる。動作モードがシングルモードの場合、補正後のしきい値は基準しきい値と等しい。例えば、しきい値よりも階調値が高い画素は白に、しきい値よりも階調値が低い画素は黒に、階調値が変換される。   Refer to FIG. 9 again. In step S29, the CPU 100 binarizes the captured image. The threshold value after correction is used for binarization of the captured image. When the operation mode is the single mode, the corrected threshold value is equal to the reference threshold value. For example, the gradation value is converted to white for pixels having a gradation value higher than the threshold value, and to black for pixels having a gradation value lower than the threshold value.

ステップS30において、CPU100は、2値化された撮影画像から指示体の位置を検知する。具体的には、撮影画像のうち階調値が白の領域の重心の座標を、指示体の位置として検知する。   In step S30, the CPU 100 detects the position of the indicator from the binarized captured image. Specifically, the coordinates of the center of gravity of the area where the gradation value is white in the photographed image is detected as the position of the indicator.

以上で位置検知処理は終了である。詳細な説明は省略するが、CPU100は、指示体の位置に応じた処理、例えば指示体の位置の軌跡に応じた画像オブジェクトの描画を行う。さらに、CPU100は、描画された画像を投写するよう投写ユニット106を制御する。CPU100は、図9のフローを例えば所定の周期で繰り返し実行する。   This completes the position detection process. Although detailed description is omitted, the CPU 100 performs processing according to the position of the indicator, for example, drawing an image object according to the locus of the position of the indicator. Further, the CPU 100 controls the projection unit 106 to project the drawn image. The CPU 100 repeatedly executes the flow of FIG. 9 at a predetermined cycle, for example.

プロジェクター1によれば、指示体の位置検出のためのしきい値が、他のプロジェクター1との位置関係に応じて補正される。したがって、他のプロジェクター1の検出光に起因する指示体の誤検知を抑制することができる。   According to the projector 1, the threshold value for detecting the position of the indicator is corrected according to the positional relationship with the other projectors 1. Therefore, erroneous detection of the indicator due to the detection light of the other projector 1 can be suppressed.

3.変形例
本発明は上述の実施形態に限定されるものではなく種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Two or more of the following modifications may be used in combination.

基準しきい値の補正方法は、実施形態で例示したものに限定されない。例えば、基準しきい値に補正値を加算する代わりに、基準しきい値に補正係数を乗算してもよい。   The reference threshold value correction method is not limited to that exemplified in the embodiment. For example, instead of adding the correction value to the reference threshold value, the reference threshold value may be multiplied by a correction coefficient.

プロジェクター1で検知される指示体は実施形態で例示したものに限定されない。例えば、プロジェクター1は電子ペンを検知せず、例えば検出光を反射するペン型の指示体を検知してもよい。   The indicator detected by the projector 1 is not limited to those exemplified in the embodiment. For example, the projector 1 may detect a pen-type indicator that reflects detection light, for example, without detecting an electronic pen.

検知された指示体の位置を用いた処理は実施形態で例示したものに限定されない。例えば、指示体がポインティングデバイスとして用いられてもよい。   The processing using the detected position of the indicator is not limited to that exemplified in the embodiment. For example, an indicator may be used as a pointing device.

上述の実施形態では、2台のプロジェクター1を左右に並べ、それぞれが投写する映像を左右に並べる態様を示したが、3台以上のプロジェクター1を並べる態様であってもよい。また、上下に並べた複数のプロジェクター1のそれぞれから横方向に映像を投写することにより、複数の映像を上下に並べる態様であってもよい。   In the above-described embodiment, the mode in which the two projectors 1 are arranged on the left and right and the images projected by the two projectors is arranged on the left and right has been described, but the mode in which three or more projectors 1 are arranged may be used. Moreover, the aspect which arranges a some image | video up and down by projecting an image | video in the horizontal direction from each of the some projector 1 arranged up and down may be sufficient.

図2に例示した機能を実現するためのプロジェクター1のハードウェア構成は、図3に例示したものに限定されない。要求される機能を実現できるものであれば、プロジェクター1はどのようなハードウェア構成を有していてもよい。例えば、プロジェクター1は、光照射部109を内蔵していてもよい。あるいは、プロジェクター1は、指示体の位置検知専用のプロセッサーを有していてもよい。   The hardware configuration of the projector 1 for realizing the functions illustrated in FIG. 2 is not limited to that illustrated in FIG. The projector 1 may have any hardware configuration as long as the required function can be realized. For example, the projector 1 may incorporate the light irradiation unit 109. Alternatively, the projector 1 may have a processor dedicated to detecting the position of the indicator.

1…プロジェクター、11…投写手段、12…照射手段、13…撮影手段、14…検知手段、15…記憶手段、16…処理手段、100…CPU、101…ROM、102…RAM、104…IF部、105…画像処理回路、106…投写ユニット、107…操作パネル、108…カメラ、109…光照射部 DESCRIPTION OF SYMBOLS 1 ... Projector, 11 ... Projection means, 12 ... Irradiation means, 13 ... Imaging means, 14 ... Detection means, 15 ... Storage means, 16 ... Processing means, 100 ... CPU, 101 ... ROM, 102 ... RAM, 104 ... IF section DESCRIPTION OF SYMBOLS 105 ... Image processing circuit 106 ... Projection unit 107 ... Operation panel 108 ... Camera 109 ... Light irradiation part

Claims (6)

投写面に映像を投写する投写手段と、
照射手段から検出光が照射された前記投写面を撮影する撮影手段と、
前記撮影手段により撮影された画像から、指示体で反射された前記検出光を特定するためのしきい値を用いて、前記投写面上の前記指示体の位置を検知する検知手段と
を有し、
前記検知手段は、動作モードが第1モードの場合には、値が相対的に低い第1しきい値を用い、前記動作モードが第2モードの場合には、値が相対的に高い第2しきい値を用いる
ことを特徴とするプロジェクター。
Projection means for projecting an image on a projection surface;
Photographing means for photographing the projection plane irradiated with the detection light from the irradiation means;
Detecting means for detecting the position of the indicator on the projection plane using a threshold value for specifying the detection light reflected by the indicator from the image photographed by the photographing means. ,
The detection means uses a first threshold value that is relatively low when the operation mode is the first mode, and a second value that is relatively high when the operation mode is the second mode. A projector characterized by using a threshold value.
前記第1モードは、前記プロジェクターを単体で使用する動作モードであり、前記第2モードは、複数のプロジェクターを並べて使用する動作モードである
ことを特徴とする請求項1に記載のプロジェクター。
The projector according to claim 1, wherein the first mode is an operation mode in which the projector is used alone, and the second mode is an operation mode in which a plurality of projectors are used side by side.
前記第1しきい値は、前記投写面において前記照射手段からの距離が短いほど高くなるように定義されており、
前記第2しきい値と前記第1しきい値との差は、他のプロジェクターが有する照射手段からの距離が短いほど大きくなる
ことを特徴とする請求項2に記載のプロジェクター。
The first threshold value is defined to be higher as the distance from the irradiation unit is shorter on the projection plane,
The projector according to claim 2, wherein the difference between the second threshold value and the first threshold value increases as the distance from the irradiation unit included in another projector decreases.
前記第1しきい値は、前記撮影手段から前記投写面までの距離が短いほど高くなるように定義されている
ことを特徴とする請求項1ないし3のいずれか一項に記載のプロジェクター。
4. The projector according to claim 1, wherein the first threshold value is defined such that the first threshold value increases as a distance from the photographing unit to the projection plane decreases. 5.
前記照射手段は、前記検出光を照射しない第1期間および前記検出光を照射する第2期間を含む複数の期間を繰り返し、
前記検知手段は、前記動作モードが前記第2モードの場合に、前記第2期間では前記第2しきい値を用いて前記指示体で反射された前記検出光を特定し、前記第1期間では前記第1しきい値を用いて前記指示体が発した光を特定する
ことを特徴とする請求項1ないし4のいずれか一項に記載のプロジェクター。
The irradiation means repeats a plurality of periods including a first period in which the detection light is not irradiated and a second period in which the detection light is irradiated,
When the operation mode is the second mode, the detection unit identifies the detection light reflected by the indicator using the second threshold value in the second period, and in the first period, The projector according to claim 1, wherein light emitted from the indicator is specified using the first threshold value.
プロジェクターが投写面に映像を投写するステップと、
照射手段から検出光が照射された前記投写面を撮影するステップと、
前記撮影された画像から、指示体で反射された前記検出光を特定するためのしきい値を用いて、前記投写面上の前記指示体の位置を検知するステップと
を有し、
前記指示体の位置を検知するステップにおいて、動作モードが第1モードの場合には、値が相対的に低い第1しきい値を用い、前記動作モードが第2モードの場合には、値が相対的に高い第2しきい値を用いて前記指示体の位置を検知する
ことを特徴とする指示体の位置検知方法。
A step in which the projector projects an image on a projection surface;
Photographing the projection plane irradiated with the detection light from the irradiation means;
Detecting a position of the indicator on the projection plane using a threshold value for specifying the detection light reflected by the indicator from the photographed image, and
In the step of detecting the position of the indicator, when the operation mode is the first mode, a first threshold value having a relatively low value is used, and when the operation mode is the second mode, the value is A position detection method for a pointer, wherein the position of the pointer is detected using a relatively high second threshold value.
JP2016015668A 2016-01-29 2016-01-29 Projector and position detection method Pending JP2017134730A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016015668A JP2017134730A (en) 2016-01-29 2016-01-29 Projector and position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016015668A JP2017134730A (en) 2016-01-29 2016-01-29 Projector and position detection method

Publications (1)

Publication Number Publication Date
JP2017134730A true JP2017134730A (en) 2017-08-03

Family

ID=59504952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016015668A Pending JP2017134730A (en) 2016-01-29 2016-01-29 Projector and position detection method

Country Status (1)

Country Link
JP (1) JP2017134730A (en)

Similar Documents

Publication Publication Date Title
US10114475B2 (en) Position detection system and control method of position detection system
US9992466B2 (en) Projector with calibration using a plurality of images
JP6111706B2 (en) Position detection apparatus, adjustment method, and adjustment program
JP6459194B2 (en) Projector and projected image control method
JP6326895B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6562124B2 (en) Position detection system and method for controlling position detection system
JP2019176356A (en) Projector, and method for controlling projector
US9733728B2 (en) Position detecting device and position detecting method
JP6750269B2 (en) Projector and control method
JP6569259B2 (en) POSITION DETECTION DEVICE, DISPLAY DEVICE, POSITION DETECTION METHOD, AND DISPLAY METHOD
JP2012053603A (en) Information display system
JP2012181721A (en) Position input device, projector, control method for projector, and display system
JP2017134730A (en) Projector and position detection method
US9787961B2 (en) Projector and method for controlling projector
US11778152B2 (en) Method of controlling projector and projector
US9958958B2 (en) Interactive projector and method of controlling interactive projector
JP6340860B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6291911B2 (en) Position detection apparatus and position detection method
JP7338659B2 (en) Pointer detection method and projection system
JP6291912B2 (en) Position detection apparatus and position detection method
JP6337558B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2023097686A (en) Display method and display device
JP2017182246A (en) Display device and information processing method
JP2016177745A (en) Position detection device, display device, control method for position detection device, and control method for display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190614