JP2017134730A - Projector and position detection method - Google Patents
Projector and position detection method Download PDFInfo
- Publication number
- JP2017134730A JP2017134730A JP2016015668A JP2016015668A JP2017134730A JP 2017134730 A JP2017134730 A JP 2017134730A JP 2016015668 A JP2016015668 A JP 2016015668A JP 2016015668 A JP2016015668 A JP 2016015668A JP 2017134730 A JP2017134730 A JP 2017134730A
- Authority
- JP
- Japan
- Prior art keywords
- threshold value
- projector
- indicator
- mode
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、投写面における指示体の位置を検知する技術に関する。 The present invention relates to a technique for detecting the position of an indicator on a projection surface.
ペンや指などの指示体の位置を検知し、検知された位置に応じた処理を行う、いわゆるインタラクティブプロジェクターが知られている。指示体の位置を検知する方法は種々のものが提案されている。例えば特許文献1には、装置から光を照射し、指示体で反射された光を検知することにより位置を検知することが記載されている。
A so-called interactive projector that detects the position of an indicator such as a pen or a finger and performs processing according to the detected position is known. Various methods for detecting the position of the indicator have been proposed. For example,
特許文献1のプロジェクターを複数台並べて使用する際、2台のプロジェクターの境界付近では各プロジェクターからの検出光が交わるため他の領域よりも明るくなり、指示体の位置を正しく検知することができないという問題があった。
When a plurality of projectors of
これに対し本発明は、プロジェクターを複数台並べて使用する場合であっても、より正確に指示体の位置を検出する技術を提供する。 In contrast, the present invention provides a technique for more accurately detecting the position of the indicator even when a plurality of projectors are used side by side.
本発明は、投写面に映像を投写する投写手段と、照射手段から検出光が照射された前記投写面を撮影する撮影手段と、前記撮影手段により撮影された画像から、指示体で反射された前記検出光を特定するためのしきい値を用いて、前記投写面上の前記指示体の位置を検知する検知手段とを有し、前記検知手段は、動作モードが第1モードの場合には、値が相対的に低い第1しきい値を用い、前記動作モードが第2モードの場合には、値が相対的に高い第2しきい値を用いることを特徴とするプロジェクターを提供する。
このプロジェクターによれば、プロジェクターを複数台並べて使用する場合であっても、より正確に指示体の位置を検知することができる。
In the present invention, a projection unit that projects an image on a projection surface, a photographing unit that photographs the projection surface irradiated with detection light from the irradiation unit, and an image captured by the photographing unit are reflected by the indicator. Detecting means for detecting the position of the indicator on the projection surface by using a threshold value for specifying the detection light, and the detecting means is provided when the operation mode is the first mode. A projector having a relatively low first threshold value and a relatively high second threshold value when the operation mode is the second mode is provided.
According to this projector, even when a plurality of projectors are used side by side, the position of the indicator can be detected more accurately.
前記第1モードは、前記プロジェクターを単体で使用する動作モードであり、前記第2モードは、複数のプロジェクターを並べて使用する動作モードであってもよい。
このプロジェクターによれば、プロジェクターを単体で使用する場合であっても、複数台並べて使用する場合であっても、より正確に指示体の位置を検知することができる。
The first mode may be an operation mode in which the projector is used alone, and the second mode may be an operation mode in which a plurality of projectors are used side by side.
According to this projector, it is possible to detect the position of the indicator more accurately even when the projector is used alone or when a plurality of projectors are used side by side.
前記第1しきい値は、前記投写面において前記照射手段からの距離が短いほど高くなるように定義されており、前記第2しきい値と前記第1しきい値との差は、他のプロジェクターが有する照射手段からの距離が短いほど大きくなってもよい。
このプロジェクターによれば、照射手段からの距離に応じたしきい値を用いて指示体の位置を検出することができる。
The first threshold value is defined to be higher as the distance from the irradiating means is shorter on the projection plane, and the difference between the second threshold value and the first threshold value is the other It may be larger as the distance from the irradiation means of the projector is shorter.
According to this projector, the position of the indicator can be detected using a threshold value corresponding to the distance from the irradiation unit.
前記第1しきい値は、前記撮影手段から前記投写面までの距離が短いほど高くなるように定義されていてもよい。
このプロジェクターによれば、撮影手段から投写面までの距離に応じたしきい値を用いて指示体の位置を検出することができる。
The first threshold value may be defined so as to increase as the distance from the photographing unit to the projection plane decreases.
According to this projector, the position of the indicator can be detected using a threshold value corresponding to the distance from the photographing means to the projection plane.
前記照射手段は、前記検出光を照射しない第1期間および前記検出光を照射する第2期間を含む複数の期間を繰り返し、前記検知手段は、前記動作モードが前記第2モードの場合に、前記第2期間では前記第2しきい値を用いて前記指示体で反射された前記検出光を特定し、前記第1期間では前記第1しきい値を用いて前記指示体が発した光を特定してもよい。
このプロジェクターによれば、検出光を照射しない第1期間と検出光を照射する第2期間の双方において正確に指示体の位置を検知することができる。
The irradiating means repeats a plurality of periods including a first period in which the detection light is not radiated and a second period in which the detection light is radiated, and the detecting means has the second mode when the operation mode is the second mode. In the second period, the detection light reflected by the indicator is specified using the second threshold, and in the first period, the light emitted by the indicator is specified using the first threshold. May be.
According to this projector, the position of the indicator can be accurately detected both in the first period in which the detection light is not emitted and in the second period in which the detection light is emitted.
また、本発明は、プロジェクターが投写面に映像を投写するステップと、照射手段から検出光が照射された前記投写面を撮影するステップと、前記撮影された画像から、指示体で反射された前記検出光を特定するためのしきい値を用いて、前記投写面上の前記指示体の位置を検知するステップとを有し、前記指示体の位置を検知するステップにおいて、動作モードが第1モードの場合には、値が相対的に低い第1しきい値を用い、前記動作モードが第2モードの場合には、値が相対的に高い第2しきい値を用いて前記指示体の位置を検知することを特徴とする検知方法を提供する。
この位置検知方法によれば、プロジェクターを複数台並べて使用する場合であっても、より正確に指示体の位置を検出することができる。
According to another aspect of the invention, the projector projects the image on the projection surface, the step of photographing the projection surface irradiated with the detection light from the irradiating means, and the reflected image from the photographed image by the indicator. Detecting the position of the indicator on the projection plane using a threshold value for specifying the detection light, and in the step of detecting the position of the indicator, the operation mode is the first mode. In this case, the first threshold value having a relatively low value is used, and when the operation mode is the second mode, the second threshold value having a relatively high value is used to position the indicator. Provided is a detection method characterized by detecting the above.
According to this position detection method, the position of the indicator can be detected more accurately even when a plurality of projectors are used side by side.
1.構成
図1は、一実施形態に係るプロジェクター1の概要を示す図である。この例で、プロジェクター1はいわゆる短焦点のプロジェクターであり、投写面SCとなる壁面に設置されている。プロジェクター1の下側に映像が投写される。また、プロジェクター1はいわゆるインタラクティブプロジェクターであり、指示体(図1では略)の位置に応じた処理を行う。より具体的には、プロジェクター1は、指示体の位置の軌跡に応じた画像オブジェクトを投写する。指示体としては、例えばユーザーの指が用いられる。ユーザーの指の検知には、いわゆるレーザーカーテンが用いられる。レーザーカーテンとは、投写面SCに沿ってレーザー光を張り巡らせることをいう。投写面SCに指を近づけると、レーザー光が指で反射される。プロジェクターはカメラで投写面SCを撮影し、反射光から指の位置を検知する。
1. Configuration FIG. 1 is a diagram illustrating an outline of a
より大きな画面を表示するため、複数台のプロジェクター1が用いられる。この例では、2台のプロジェクター1が横に並べて配置されている。これら2台のプロジェクター1により投写される画面は隣り合っており、全体として横長の大きな画面が投写されているように見える。
In order to display a larger screen, a plurality of
図2は、プロジェクター1の機能構成を例示する図である。プロジェクター1は、投写手段11、照射手段12、撮影手段13、検知手段14、記憶手段15、および処理手段16を有する。投写手段11は、投写面(スクリーンや壁面)に映像を投写する。照射手段12は、指示体の位置を検出するための光(以下「検出光」という)を投写面に沿って照射する。撮影手段13は、照射手段12から検出光が照射されているときに、投写面を撮影する。検知手段14は、撮影手段13により撮影された画像における検出光の像から、指示体の位置を検知する。指示体の位置の検知にあたり、検知手段14は、検出光の像を他の像と区別するためのしきい値を用いる。検知手段14の動作モードすなわち位置検知のモードには、しきい値が相対的に低い第1モード(第1モードにおけるしきい値は第1しきい値の一例である)と、しきい値が相対的に高い第2モード(第2モードにおけるしきい値は第2しきい値の一例である)とがある。検知手段14は、第1モードおよび第2モードを含む複数の動作モードから選択された一の動作モードにおいて投写面上の指示体の位置を検知する。この例で、プロジェクター1を単体で用いるのに好適な動作モードであることから第1モードを「シングルモード」といい、複数台のプロジェクター1を並べて使用するのに好適な動作モードであることから第2モードを「マルチモード」という。
FIG. 2 is a diagram illustrating a functional configuration of the
記憶手段15は、シングルモードおよびマルチモードに対応するしきい値を記憶している。検知手段14は、記憶手段15に記憶されているしきい値を用いて指示体の位置を検知する。処理手段16は、検知手段14により検知された指示体の位置の軌跡に応じた処理、例えば、軌跡に応じて画像オブジェクト(例えばこの軌跡に対応する線)を示すデータを生成する処理を行う。投写手段11は、この処理に応じて画像を投写する。
The
図3は、プロジェクター1のハードウェア構成を例示する図である。プロジェクター1は、CPU(Central Processing Unit)100、ROM(Read Only Memory)101、RAM(Random Access Memory)102、IF部104、画像処理回路105、投写ユニット106、操作パネル107、カメラ108、および光照射部109を有する。
FIG. 3 is a diagram illustrating a hardware configuration of the
CPU100は、プロジェクター1の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。ROM101には、後述する基準しきい値や補正値が記憶されている。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。
The
IF部104は、外部装置と信号またはデータのやりとりを仲介するインターフェースである。IF部104は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。IF部104は、異なる複数の映像供給装置から映像信号の入力を受け付けてもよい。
The
画像処理回路105は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。
The
投写ユニット106は、画像処理が施された映像信号に従って、投写面SCに画像を投写する。投写ユニット106は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光を投写面SCに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。
The
操作パネル107は、ユーザーがプロジェクター1に対し指示を入力するための入力装置であり、例えば、キーパッド、ボタン、またはタッチパネルを含む。
The
カメラ108は、指示体の位置を特定するためのカメラである。この例で、プロジェクター1は、ユーザーの指に加え、専用の電子ペンを指示体として検知することができる。電子ペンは、ペン先に設けられた発光体(例えば赤外線発光ダイオード)、圧力センサー、および制御回路(いずれも図示略)を有する。圧力センサーによりペン先が物体(投写面等)に触れたことが検知されると、制御回路は、所定の発光パターンで発光体を発光させる。CPU100は、カメラ108が撮影した画像から指示体の位置を検知(特定)する。CPU100は、例えば発光パターンの違いまたは発光波長の違いにより、複数の指示体を区別することができる。
The
光照射部109は、ユーザーの指を検知するための検出光を照射する。検出光としては例えば赤外線のレーザー光が用いられる。光照射部109は、投写面SCを覆うようにカーテン状にレーザー光を照射する。光照射部109は、レーザー光を発する発光素子と、レーザー光を平面状に拡散するための光学部材を有する。なお、光照射部109は、他の要素とは独立した筐体に収められており、プロジェクター1の本体とは有線または無線で通信する。
The
図4および図5は、検出光の概要を示す図である。図4は、投写面SCを正面から見た模式図である。検出光Lは光照射部109から放射状に照射され、投写面SCを覆っている。図5は、投写面SCを断面方向から見た模式図である。検出光Lは投写面SCから少し(例えば数mm)離れた高さで、投写面SCに沿って照射されている。ユーザーの指Fが投写面SCに近づくと検出光が指Fで反射される。この反射光をカメラ108で捕らえることにより、指の位置が検知される。
4 and 5 are diagrams showing an outline of the detection light. FIG. 4 is a schematic view of the projection screen SC viewed from the front. The detection light L is irradiated radially from the
図6は、指示体の位置検出の概要を示す図である。この例で、指示体の位置検出は、第1〜第4フェーズの4つのフェーズ(期間)で構成される。これら4つのフェーズは、順番に繰り返される。 FIG. 6 is a diagram showing an outline of the position detection of the indicator. In this example, the position detection of the pointer is configured by four phases (periods) of the first to fourth phases. These four phases are repeated in order.
第1フェーズ(第1期間の一例)は、同期フェーズである。第1フェーズにおいては、プロジェクター1の通信部(図示せず)から同期信号が送信される。同期信号は無線信号、例えば赤外線信号である。第1〜第4フェーズの間隔はあらかじめ決められており、電子ペンは、この同期信号を受信することにより第1〜第4フェーズの開始タイミングを特定することができる。電子ペンは、第2〜第4フェーズにおいて発光する。
The first phase (an example of the first period) is a synchronization phase. In the first phase, a synchronization signal is transmitted from a communication unit (not shown) of the
第2フェーズ(第2期間の一例)は、位置検出フェーズである。第2フェーズにおいて、カメラ108は、投写面SCを撮影する。このとき、指示体(ユーザーの指または電子ペン)が投写面SCに近づいていれば、指示体により反射された検出光の像が写る。また、電子ペンが発光している場合はその発光による像も写る。
The second phase (an example of the second period) is a position detection phase. In the second phase, the
第3フェーズは、指示体判定フェーズである。第1〜第4フェーズはそれぞれさらに複数の期間に分割されている。電子ペンは、あらかじめ決められたパターンで発光する。電子ペンが複数用いられる場合には電子ペン毎に発光するパターンが異なるようにしているので、どの電子ペンが発光しているのか特定することができる。なお、第3フェーズにおいて光照射部109から検出光は照射されないので指による検出光の像は検出されない。
The third phase is an indicator determination phase. Each of the first to fourth phases is further divided into a plurality of periods. The electronic pen emits light in a predetermined pattern. When a plurality of electronic pens are used, the light emission pattern is different for each electronic pen, so it is possible to specify which electronic pen emits light. In addition, since the detection light is not irradiated from the
第4フェーズ(第2期間の一例)は、第2フェーズと同様の位置検出フェーズである。第2フェーズに加え第4フェーズで位置検出を行うことにより、位置検出の精度を高めることができる。 The fourth phase (an example of the second period) is a position detection phase similar to the second phase. By performing position detection in the fourth phase in addition to the second phase, position detection accuracy can be improved.
再び図3を参照する。この例で、CPU100がROM101に記憶されているプログラムを実行することにより、図2に示す機能がプロジェクター1に実装される。投写ユニット106は、投写手段11の一例である。光照射部109は照射手段12の一例である。カメラ108は撮影手段13の一例である。CPU100は検知手段14および処理手段16の一例である。ROM101およびRAM102は記憶手段15の一例である。
Refer to FIG. 3 again. In this example, when the
2.動作
2−1.モード設定
図7は、動作モード設定処理を示すフローチャートである。図7のフローは、例えばユーザーがプロジェクター1のメニュー画面を操作して動作モードの設定画面を呼び出したことを契機として開始される。ステップS11において、CPU100は、プロジェクター1の動作モードの設定を受け付ける。
2. Operation 2-1. Mode Setting FIG. 7 is a flowchart showing the operation mode setting process. The flow in FIG. 7 is started when, for example, the user calls the operation mode setting screen by operating the menu screen of the
図8は、動作モードの設定画面を例示する図である。この例ではマルチプロジェクション(複数台のプロジェクター1を用いた表示)に関し、「オフ」、「左側」、「右側」、および「中央」の4つの選択肢が提示されている。「オフ」はプロジェクター1を単体で用いるとき、すなわちシングルモードの選択肢である。「左側」、「右側」、および「中央」は複数台のプロジェクター1を組み合わせて用いるとき、すなわちマルチモードの選択肢である。マルチモードの場合は、他のプロジェクター1との位置関係を特定する必要がある。「左側」、「右側」、および「中央」は、それぞれ、このプロジェクター1が左端、右端、および2台以上のプロジェクターに挟まれた位置にあるときの選択肢である。ユーザーは、これらの選択肢の中からこのプロジェクター1と他のプロジェクター1との位置関係に対応する選択肢を選択する。CPU100は、選択された選択肢を特定する情報をRAM102に記憶する。
FIG. 8 is a diagram illustrating an operation mode setting screen. In this example, four options “off”, “left side”, “right side”, and “center” are presented for multi-projection (display using a plurality of projectors 1). “Off” is a single mode option when the
2−2.指示体の位置検知
図9は、指示体の位置検知処理を示すフローチャートである。図9のフローは、例えばプロジェクター1の電源が投入されたことを契機として開始される。
2-2. Pointer Position Detection FIG. 9 is a flowchart showing the pointer position detection process. The flow in FIG. 9 is started when the power of the
ステップS21において、CPU100は、カメラ108により撮影された画像のデータを取得する。カメラ108により撮影された画像を「撮影画像」という。撮影画像には、位置検出フェーズにおいて撮影された位置検出用の撮影画像と、位置検出フェーズ以外のタイミング(例えば、同期フェーズ)で撮影された参照用の撮影画像とがある。以下、位置検出用の撮影画像のデータを「検出用データ」といい、参照用の撮影画像のデータを「参照用データ」という。
In step S <b> 21, the
図10および図11は、撮影画像を例示する図である。図10は位置検出用の撮影画像を、図11は参照用の撮影画像を、それぞれ示している。図中の領域Aは、投写ユニット106により映像が投写される領域(以下「投写領域」という)である。カメラ108と投写面SCとの位置関係により、撮影画像において領域Aは長方形ではなく歪んでいる。この例では、位置検出用の撮影画像には像Sbおよび像Sfが、参照用の撮影画像には像Sbが写っている。像Sbは、蛍光灯などの外光が投写面SCで反射したことによる像である。像Scは検出光とは無関係なので位置検出用および参照用の撮影画像の双方に写っている。像Sfはユーザーの指により反射された検出光の像である。像Sfは位置検出用の撮影画像のみに写っている。
10 and 11 are diagrams illustrating captured images. FIG. 10 shows a captured image for position detection, and FIG. 11 shows a captured image for reference. An area A in the figure is an area where an image is projected by the projection unit 106 (hereinafter referred to as “projection area”). Due to the positional relationship between the
再び図9を参照する。ステップS22において、CPU100は、撮影画像から投写領域を切り出す。具体的には、検出用データおよび参照用データにマスク処理を施す。マスク処理とは、投写領域以外の部分のデータを所定の階調値(例えば黒に相当する階調値)に書き替える処理をいう。プロジェクター1と投写面SCとの位置関係が決まれば撮影画像のうちどの部分が投写領域であるかも決まる。例えばプロジェクター1の設置後にキャリブレーション用のパターン画像を投写することにより、投写領域が特定される。
Refer to FIG. 9 again. In step S22, the
図12および図13は、マスク処理後の撮影画像を例示する図である。図12は位置検出用の撮影画像を、図13は参照用の撮影画像を、それぞれ示している。投写領域以外の部分は黒くマスクされている。この処理により、投写領域の外における誤検知を抑制することができる。 12 and 13 are diagrams illustrating the captured image after the mask processing. FIG. 12 shows a captured image for position detection, and FIG. 13 shows a captured image for reference. Parts other than the projection area are masked in black. By this processing, erroneous detection outside the projection area can be suppressed.
再び図9を参照する。ステップS23において、CPU100は、検出用データから参照用データを減算し、差分データを生成する。検出用データから参照用データを減算するとは、画素毎に検出用データの階調値から参照用データの階調値を減算することをいう。
Refer to FIG. 9 again. In step S23, the
図14は、差分データにより示される画像を例示する図である。検出用の撮影画像と参照用の撮影画像とで階調値が同じ画素の差分はゼロとなり、検出用の撮影画像の方が参照用の撮影画像よりも明るい画素の差分は正の値となる。この例では像Sf以外の部分はすべて階調値がゼロになり、像Sfだけ残っている。 FIG. 14 is a diagram illustrating an image indicated by the difference data. The difference between pixels having the same gradation value between the detection photographed image and the reference photographed image is zero, and the difference between pixels that are brighter in the detection photographed image than the reference photographed image is a positive value. . In this example, all the portions other than the image Sf have gradation values of zero, and only the image Sf remains.
再び図9を参照する。ステップS24において、CPU100は、ROM101から基準しきい値を読み出す。基準しきい値とは、撮影画像において指示体で反射した検出光を特定するために用いられるしきい値であり、他のプロジェクター1の影響を考慮しない場合、すなわちシングルモードの場合に利用されるしきい値である。
Refer to FIG. 9 again. In step S <b> 24, the
図15は、基準しきい値を例示する図である。基準しきい値は、投写領域Aにおいて光照射部109からの距離d1(第1距離の一例)に応じて定義されている。具体的には、光照射部109から遠い位置ほど反射光の強度が弱まるため、距離d1が短いほど(光照射部109から近いほど)しきい値は高く、距離d1が長いほど(光照射部109から遠いほど)しきい値は低く設定されている。ここでは図面を簡単にするため、投写領域Aが3つの領域に分けられている例を示している。光照射部109に最も近い領域A1のしきい値が最も高く、領域A2、領域A3と光照射部109から遠くなるにつれしきい値は低下する。
FIG. 15 is a diagram illustrating a reference threshold value. The reference threshold value is defined according to the distance d1 (an example of the first distance) from the
図16は、基準しきい値をより詳細に例示する図である。この図で、横軸は光照射部109からの距離を、縦軸はしきい値を示している。基準しきい値は、プロジェクター1と投写面SCとの距離、より詳細にはカメラ108と投写面SCとの距離d2(第2距離の一例)に応じて定義されている。プロジェクター1および投写面SCが固定されていれば、距離d2は不変である。プロジェクター1(カメラ108)が投写面SCから遠いほど、カメラ108で受光される反射光の強度が弱まるため、距離d2が短いほど(プロジェクター1と投写面SCとが近いほど)しきい値は高く、距離d2が長いほど(プロジェクター1と投写面SCとが遠いほど)しきい値は低く設定されている。
FIG. 16 is a diagram illustrating the reference threshold in more detail. In this figure, the horizontal axis indicates the distance from the
図16の基準しきい値は、撮影画像に対して図15のようにマッピングされる。基準しきい値の撮影画像へのマッピングは、理想的な(長方形の)投写領域を撮影画像における投写領域の形状に変換するための幾何変換により行われる。この幾何変換は、投写面SC上の投写領域が長方形になるようにする幾何変換と相関がある。これらの幾何変換は、プロジェクター1を設置した後にキャリブレーション用のパターンを投写し、これをカメラ108で撮影することにより決定されたパラメーターを用いて行われる。撮影画像への基準しきい値のマッピングはプロジェクター1と投写面SCとの位置関係が固定されている間は不変である。
The reference threshold value in FIG. 16 is mapped to the captured image as shown in FIG. The mapping of the reference threshold value to the captured image is performed by geometric conversion for converting an ideal (rectangular) projection area into the shape of the projection area in the captured image. This geometric transformation has a correlation with the geometric transformation that makes the projection area on the projection screen SC rectangular. These geometric transformations are performed using parameters determined by projecting a calibration pattern after the
再び図9を参照する。ステップS25において、CPU100は、動作モード設定を判別する。動作モードは図7のフローで設定されており、動作モードを判別するための情報はRAM102に記憶されている。動作モードがシングルモードに設定されている場合(S25:オフ)、CPU100は、処理をステップS29に移行する。動作モードがマルチモード(左側)に設定されている場合(S25:左)、CPU100は、処理をステップS26に移行する。動作モードがマルチモード(右側)に設定されている場合(S25:右)、CPU100は、処理をステップS27に移行する。動作モードがマルチモード(中央)に設定されている場合(S25:中央)、CPU100は、処理をステップS28に移行する。
Refer to FIG. 9 again. In step S25, the
ステップS26において、CPU100は、ROM101から左側用補正値を読み出し、これを基準しきい値に加算して、左側用しきい値を生成する。左側用しきい値は、動作モードがマルチモード(左側)に設定されたプロジェクターにおいて、指示体で反射した検出光を特定するために用いられるしきい値である。
In step S26, the
図17は、左側用補正値を例示する図である。このプロジェクター1が左端に位置しているということは、このプロジェクター1の右側に他のプロジェクター1が設置されているということである。すなわち、このプロジェクター1の投写領域のうち右側の部分には、他のプロジェクター1の光照射部109から照射された検出光が到達している。投写面SCにおいて例えば投写領域の右端近傍に指を触れると、この指にはこのプロジェクター1の光照射部109から照射された検出光だけでなく、他のプロジェクター1の光照射部109から照射された検出光も当たっている。したがって、このプロジェクター1が1台のみで用いられる場合と比較すると反射光の強度は強くなり、誤検知の可能性が高くなってしまう。左側用補正値は、このような誤検知を抑制するためのものであり、投写領域の右上にいくほど(他のプロジェクター1の光照射部109から近いほど)値が高くなっている(Δth1>Δth2>Δth3)。
FIG. 17 is a diagram illustrating the left correction value. The fact that the
図18は、左側用補正値をより詳細に例示する図である。この図で、横軸は投写領域における位置を、縦軸は補正値を示している。補正値は、例えば投写領域の1行毎に定義されているが、ここでは1行分の補正値のみを示している。左側用補正値は、基準しきい値と同様、プロジェクター1(カメラ108)と投写面SCとの距離d2に応じて定義されている。距離d2が短いほど補正値は高く、距離d2が長いほど補正値は低い。図18の補正値は、撮影画像に対してマッピングされる。補正値の撮影画像へのマッピングは、しきい値の撮影画像へのマッピングと同様に行われる。 FIG. 18 is a diagram illustrating the left-side correction value in more detail. In this figure, the horizontal axis indicates the position in the projection area, and the vertical axis indicates the correction value. The correction value is defined for each line of the projection area, for example, but only the correction value for one line is shown here. The correction value for the left side is defined according to the distance d2 between the projector 1 (camera 108) and the projection surface SC, similarly to the reference threshold value. The shorter the distance d2, the higher the correction value, and the longer the distance d2, the lower the correction value. The correction values in FIG. 18 are mapped to the captured image. The mapping of the correction value to the captured image is performed in the same manner as the mapping of the threshold value to the captured image.
再び図9を参照する。ステップS27において、CPU100は、ROM101から右側用補正値を読み出し、これを基準しきい値に加算して右側用しきい値を生成する。また、ステップS28において、CPU100は、ROM101から中央用補正値を読み出し、これを基準しきい値に加算して中央用しきい値を生成する。これらの処理は補正値のプロファイルが異なっている以外、左側用補正値の場合と同様である。右側用しきい値は、動作モードがマルチモード(右側)に設定されたプロジェクターにおいて、指示体で反射した検出光を特定するために用いられるしきい値であり、中央用しきい値は、動作モードがマルチモード(中央)に設定されたプロジェクターにおいて、指示体で反射した検出光を特定するために用いられるしきい値である。なお、基準しきい値および補正値はいずれも、プロジェクター1と投写面SCとの位置関係が固定されている間は不変であるので、図9のフローに先立って補正後のしきい値を算出しておき、これをROM101またはRAM102に記憶しておいてもよい。
Refer to FIG. 9 again. In step S27, the
図19は、左側用、右側用、および中央用の補正値の概要を示す図である。これらの図で、横軸は投写領域における位置を、縦軸は補正値を示している。左側用補正値では、投写領域の右側ほど値が高く、右側用補正値では、投写領域の左側ほど値が高く、中央用補正値では、中央から左右に離れるほど値が高い。なお、マルチモードにおいて用いられるしきい値は、シングルモードにおいて用いられる基準しきい値にこれらの補正値を加算した値であるため、補正値は、マルチモードにおけるしきい値と、シングルモードにおけるしきい値との差に相当する。 FIG. 19 is a diagram showing an outline of correction values for the left side, the right side, and the center. In these figures, the horizontal axis represents the position in the projection area, and the vertical axis represents the correction value. In the correction value for the left side, the value is higher toward the right side of the projection area. In the correction value for the right side, the value is higher toward the left side of the projection area. Since the threshold value used in the multimode is a value obtained by adding these correction values to the reference threshold value used in the single mode, the correction values are the threshold values in the multimode and the single mode. Corresponds to the difference from the threshold.
なお基準しきい値の補正は、撮影画像のうち、光照射部109から検出光が照射される第2フェーズおよび第4フェーズ(位置検知フェーズ)に撮影された画像に対して行われ、第3フェーズ(指示体判定フェーズ)に撮影された画像に対しては基準しきい値がそのまま用いられる。
Note that the correction of the reference threshold value is performed on images captured in the second phase and the fourth phase (position detection phase) in which the detection light is emitted from the
再び図9を参照する。ステップS29において、CPU100は、撮影画像を2値化する。撮影画像の2値化には、補正後のしきい値が用いられる。動作モードがシングルモードの場合、補正後のしきい値は基準しきい値と等しい。例えば、しきい値よりも階調値が高い画素は白に、しきい値よりも階調値が低い画素は黒に、階調値が変換される。
Refer to FIG. 9 again. In step S29, the
ステップS30において、CPU100は、2値化された撮影画像から指示体の位置を検知する。具体的には、撮影画像のうち階調値が白の領域の重心の座標を、指示体の位置として検知する。
In step S30, the
以上で位置検知処理は終了である。詳細な説明は省略するが、CPU100は、指示体の位置に応じた処理、例えば指示体の位置の軌跡に応じた画像オブジェクトの描画を行う。さらに、CPU100は、描画された画像を投写するよう投写ユニット106を制御する。CPU100は、図9のフローを例えば所定の周期で繰り返し実行する。
This completes the position detection process. Although detailed description is omitted, the
プロジェクター1によれば、指示体の位置検出のためのしきい値が、他のプロジェクター1との位置関係に応じて補正される。したがって、他のプロジェクター1の検出光に起因する指示体の誤検知を抑制することができる。
According to the
3.変形例
本発明は上述の実施形態に限定されるものではなく種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Two or more of the following modifications may be used in combination.
基準しきい値の補正方法は、実施形態で例示したものに限定されない。例えば、基準しきい値に補正値を加算する代わりに、基準しきい値に補正係数を乗算してもよい。 The reference threshold value correction method is not limited to that exemplified in the embodiment. For example, instead of adding the correction value to the reference threshold value, the reference threshold value may be multiplied by a correction coefficient.
プロジェクター1で検知される指示体は実施形態で例示したものに限定されない。例えば、プロジェクター1は電子ペンを検知せず、例えば検出光を反射するペン型の指示体を検知してもよい。
The indicator detected by the
検知された指示体の位置を用いた処理は実施形態で例示したものに限定されない。例えば、指示体がポインティングデバイスとして用いられてもよい。 The processing using the detected position of the indicator is not limited to that exemplified in the embodiment. For example, an indicator may be used as a pointing device.
上述の実施形態では、2台のプロジェクター1を左右に並べ、それぞれが投写する映像を左右に並べる態様を示したが、3台以上のプロジェクター1を並べる態様であってもよい。また、上下に並べた複数のプロジェクター1のそれぞれから横方向に映像を投写することにより、複数の映像を上下に並べる態様であってもよい。
In the above-described embodiment, the mode in which the two
図2に例示した機能を実現するためのプロジェクター1のハードウェア構成は、図3に例示したものに限定されない。要求される機能を実現できるものであれば、プロジェクター1はどのようなハードウェア構成を有していてもよい。例えば、プロジェクター1は、光照射部109を内蔵していてもよい。あるいは、プロジェクター1は、指示体の位置検知専用のプロセッサーを有していてもよい。
The hardware configuration of the
1…プロジェクター、11…投写手段、12…照射手段、13…撮影手段、14…検知手段、15…記憶手段、16…処理手段、100…CPU、101…ROM、102…RAM、104…IF部、105…画像処理回路、106…投写ユニット、107…操作パネル、108…カメラ、109…光照射部
DESCRIPTION OF
Claims (6)
照射手段から検出光が照射された前記投写面を撮影する撮影手段と、
前記撮影手段により撮影された画像から、指示体で反射された前記検出光を特定するためのしきい値を用いて、前記投写面上の前記指示体の位置を検知する検知手段と
を有し、
前記検知手段は、動作モードが第1モードの場合には、値が相対的に低い第1しきい値を用い、前記動作モードが第2モードの場合には、値が相対的に高い第2しきい値を用いる
ことを特徴とするプロジェクター。 Projection means for projecting an image on a projection surface;
Photographing means for photographing the projection plane irradiated with the detection light from the irradiation means;
Detecting means for detecting the position of the indicator on the projection plane using a threshold value for specifying the detection light reflected by the indicator from the image photographed by the photographing means. ,
The detection means uses a first threshold value that is relatively low when the operation mode is the first mode, and a second value that is relatively high when the operation mode is the second mode. A projector characterized by using a threshold value.
ことを特徴とする請求項1に記載のプロジェクター。 The projector according to claim 1, wherein the first mode is an operation mode in which the projector is used alone, and the second mode is an operation mode in which a plurality of projectors are used side by side.
前記第2しきい値と前記第1しきい値との差は、他のプロジェクターが有する照射手段からの距離が短いほど大きくなる
ことを特徴とする請求項2に記載のプロジェクター。 The first threshold value is defined to be higher as the distance from the irradiation unit is shorter on the projection plane,
The projector according to claim 2, wherein the difference between the second threshold value and the first threshold value increases as the distance from the irradiation unit included in another projector decreases.
ことを特徴とする請求項1ないし3のいずれか一項に記載のプロジェクター。 4. The projector according to claim 1, wherein the first threshold value is defined such that the first threshold value increases as a distance from the photographing unit to the projection plane decreases. 5.
前記検知手段は、前記動作モードが前記第2モードの場合に、前記第2期間では前記第2しきい値を用いて前記指示体で反射された前記検出光を特定し、前記第1期間では前記第1しきい値を用いて前記指示体が発した光を特定する
ことを特徴とする請求項1ないし4のいずれか一項に記載のプロジェクター。 The irradiation means repeats a plurality of periods including a first period in which the detection light is not irradiated and a second period in which the detection light is irradiated,
When the operation mode is the second mode, the detection unit identifies the detection light reflected by the indicator using the second threshold value in the second period, and in the first period, The projector according to claim 1, wherein light emitted from the indicator is specified using the first threshold value.
照射手段から検出光が照射された前記投写面を撮影するステップと、
前記撮影された画像から、指示体で反射された前記検出光を特定するためのしきい値を用いて、前記投写面上の前記指示体の位置を検知するステップと
を有し、
前記指示体の位置を検知するステップにおいて、動作モードが第1モードの場合には、値が相対的に低い第1しきい値を用い、前記動作モードが第2モードの場合には、値が相対的に高い第2しきい値を用いて前記指示体の位置を検知する
ことを特徴とする指示体の位置検知方法。 A step in which the projector projects an image on a projection surface;
Photographing the projection plane irradiated with the detection light from the irradiation means;
Detecting a position of the indicator on the projection plane using a threshold value for specifying the detection light reflected by the indicator from the photographed image, and
In the step of detecting the position of the indicator, when the operation mode is the first mode, a first threshold value having a relatively low value is used, and when the operation mode is the second mode, the value is A position detection method for a pointer, wherein the position of the pointer is detected using a relatively high second threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016015668A JP2017134730A (en) | 2016-01-29 | 2016-01-29 | Projector and position detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016015668A JP2017134730A (en) | 2016-01-29 | 2016-01-29 | Projector and position detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017134730A true JP2017134730A (en) | 2017-08-03 |
Family
ID=59504952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016015668A Pending JP2017134730A (en) | 2016-01-29 | 2016-01-29 | Projector and position detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017134730A (en) |
-
2016
- 2016-01-29 JP JP2016015668A patent/JP2017134730A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10114475B2 (en) | Position detection system and control method of position detection system | |
US9992466B2 (en) | Projector with calibration using a plurality of images | |
JP6111706B2 (en) | Position detection apparatus, adjustment method, and adjustment program | |
JP6459194B2 (en) | Projector and projected image control method | |
JP6326895B2 (en) | POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD | |
JP6375660B2 (en) | POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD | |
JP6562124B2 (en) | Position detection system and method for controlling position detection system | |
JP2019176356A (en) | Projector, and method for controlling projector | |
US9733728B2 (en) | Position detecting device and position detecting method | |
JP6750269B2 (en) | Projector and control method | |
JP6569259B2 (en) | POSITION DETECTION DEVICE, DISPLAY DEVICE, POSITION DETECTION METHOD, AND DISPLAY METHOD | |
JP2012053603A (en) | Information display system | |
JP2012181721A (en) | Position input device, projector, control method for projector, and display system | |
JP2017134730A (en) | Projector and position detection method | |
US9787961B2 (en) | Projector and method for controlling projector | |
US11778152B2 (en) | Method of controlling projector and projector | |
US9958958B2 (en) | Interactive projector and method of controlling interactive projector | |
JP6340860B2 (en) | POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD | |
JP6291911B2 (en) | Position detection apparatus and position detection method | |
JP7338659B2 (en) | Pointer detection method and projection system | |
JP6291912B2 (en) | Position detection apparatus and position detection method | |
JP6337558B2 (en) | POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD | |
JP2023097686A (en) | Display method and display device | |
JP2017182246A (en) | Display device and information processing method | |
JP2016177745A (en) | Position detection device, display device, control method for position detection device, and control method for display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190614 |