JP6935713B2 - 位置検出装置、位置検出システム及び位置検出装置の制御方法 - Google Patents

位置検出装置、位置検出システム及び位置検出装置の制御方法 Download PDF

Info

Publication number
JP6935713B2
JP6935713B2 JP2017185854A JP2017185854A JP6935713B2 JP 6935713 B2 JP6935713 B2 JP 6935713B2 JP 2017185854 A JP2017185854 A JP 2017185854A JP 2017185854 A JP2017185854 A JP 2017185854A JP 6935713 B2 JP6935713 B2 JP 6935713B2
Authority
JP
Japan
Prior art keywords
indicator
unit
light
detection
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017185854A
Other languages
English (en)
Other versions
JP2019061513A (ja
Inventor
啓介 東
啓介 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017185854A priority Critical patent/JP6935713B2/ja
Priority to CN201811113625.3A priority patent/CN109558002A/zh
Priority to US16/142,331 priority patent/US10712874B2/en
Publication of JP2019061513A publication Critical patent/JP2019061513A/ja
Application granted granted Critical
Publication of JP6935713B2 publication Critical patent/JP6935713B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、指示体による指示位置を検出する位置検出装置、位置検出システム及び位置検出装置の制御方法に関する。
画面に接触して指示を行うことが可能なインタラクティブシステムに関し、専用の指示体(例えば、発光ペン)による指示に加えて、汎用の指示体(例えば、ユーザーの指)による指示を検出可能なシステムが提案されている。特許文献1に記載の位置検出システムは、第1指示体が発する光に基づいて、その指示位置を検出可能であるとともに、画面を覆うように検出光を射出することにより、光を発しない第2指示体による指示位置の検出も可能となっている。
特開2015−158887号公報
しかしながら、特許文献1に記載の位置検出システムでは、第1指示体(発光ペン)により指示を行う際に、第1指示体を持つユーザーの手や袖が意図せずに画面(検出光)に触れてしまい、その位置が第2指示体(指)による指示位置として誤検出されてしまう場合があった。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[適用例1]本適用例に係る位置検出装置は、検出領域内で第1指示体による指示位置と第2指示体による指示位置とを検出する位置検出部と、前記第1指示体の指示方向を判別する方向判別部と、前記位置検出部で検出された前記第1指示体の指示位置と、前記方向判別部で判別された前記第1指示体の指示方向とに基づいて、前記検出領域内に、前記第2指示体による指示位置が無効となる無効領域を設定する設定部と、を備えたことを特徴とする。
この位置検出装置によれば、設定部は、第1指示体の指示位置と第1指示体の指示方向とに基づいて、検出領域内に、第2指示体による指示位置が無効となる無効領域を設定する。このため、第1指示体で指示を行う際に手や袖等が触れやすい位置を無効領域に設定することにより、手や袖等が触れた位置を、第2指示体による指示位置として誤検出してしまうことを抑制することが可能となる。
[適用例2]上記適用例に係る位置検出装置において、前記設定部は、前記位置検出部で検出された前記第1指示体の指示位置に対して、前記方向判別部で判別された前記指示方向とは反対側に前記無効領域を設定することが望ましい。
この位置検出装置によれば、設定部は、指示位置に対して指示方向とは反対側に無効領域を設定するため、第1指示体で指示を行う際に手や袖が触れやすい位置を無効領域に設定することが可能となる。
[適用例3]上記適用例に係る位置検出装置において、前記方向判別部は、前記第1指示体から、前記第1指示体の指示方向に係る検出情報を取得して、前記検出情報に基づいて前記指示方向を判別することが望ましい。
この位置検出装置によれば、方向判別部は、第1指示体から取得した検出情報に基づいて指示方向を判別するため、位置検出装置に指示方向を検出する手段を備える必要がなく、位置検出装置の処理を簡略化することが可能となる。
[適用例4]上記適用例に係る位置検出装置において、前記位置検出部は、前記第1指示体が発する光の位置に基づいて、前記第1指示体の指示位置を検出し、前記方向判別部は、前記第1指示体が発する光の輝度分布に基づいて、前記第1指示体の指示方向を判別するようにしてもよい。
この位置検出装置によれば、方向判別部は、第1指示体が発する光の輝度分布に基づいて指示方向を判別するため、指示方向を容易に判別することが可能となる。
[適用例5]上記適用例に係る位置検出装置において、前記位置検出部は、前記第1指示体が発する第1の光の位置に基づいて、前記第1指示体の指示位置を検出し、前記方向判別部は、前記第1指示体が発する第2の光の位置に基づいて、前記第1指示体の指示方向を判別するようにしてもよい。
この位置検出装置によれば、方向判別部は、第1指示体が発する第2の光の位置に基づいて指示方向を判別する。例えば、方向判別部は、第1の光の位置と第2の光の位置の位置関係に基づいて指示方向を判別することができる。このため、方向判別部は、指示方向を容易に判別することが可能となる。
[適用例6]本適用例に係る位置検出システムは、光を発する第1指示体と、検出領域に沿って検出光を射出する検出光射出装置と、位置検出装置と、を備えた位置検出システムであって、前記位置検出装置は、前記検出領域内で前記第1指示体が発する光の位置に基づいて、前記第1指示体による指示位置を検出するとともに、前記検出領域内で前記検出光が第2指示体で反射した位置に基づいて、前記第2指示体による指示位置を検出する位置検出部と、前記第1指示体の指示方向を判別する方向判別部と、前記位置検出部で検出された前記第1指示体の指示位置と、前記方向判別部で判別された前記第1指示体の指示方向とに基づいて、前記検出領域内に、前記第2指示体による指示位置が無効となる無効領域を設定する設定部と、を備えたことを特徴とする。
この位置検出システムによれば、位置検出装置の設定部は、第1指示体の指示位置と第1指示体の指示方向とに基づいて、検出領域内に、第2指示体による指示位置が無効となる無効領域を設定する。このため、第1指示体で指示を行う際に手や袖等が触れやすい位置を無効領域に設定することにより、手や袖等が触れた位置を、第2指示体による指示位置として誤検出してしまうことを抑制することが可能となる。
[適用例7]本適用例に係る位置検出装置の制御方法は、検出領域内で第1指示体による指示位置と第2指示体による指示位置とを検出する位置検出装置の制御方法であって、前記検出領域内で前記第1指示体による指示位置を検出し、前記第1指示体の指示方向を判別し、検出された前記第1指示体の指示位置と、判別された前記第1指示体の指示方向とに基づいて、前記検出領域内に、前記第2指示体による指示位置が無効となる無効領域を設定する、ことを特徴とする。
この位置検出装置の制御方法によれば、第1指示体の指示位置と第1指示体の指示方向とに基づいて、検出領域内に、第2指示体による指示位置が無効となる無効領域を設定する。このため、第1指示体で指示を行う際に手や袖等が触れやすい位置を無効領域に設定することにより、手や袖等が触れた位置を、第2指示体による指示位置として誤検出してしまうことを抑制することが可能となる。
第1実施形態の画像投写システムを示す説明図。 プロジェクターの概略構成を示すブロック図。 プロジェクターが備える画像投写部の概略構成を示すブロック図。 発光ペンの概略構成を示すブロック図。 プロジェクターの制御部の概略構成を示すブロック図。 プロジェクターの動作を説明するためのフローチャート。 検出領域内に設定された無効領域を示す図であり、発光ペンの指示方向が右を向いている例を示す図。 検出領域内に設定された無効領域を示す図であり、発光ペンの指示方向が左下を向いている例を示す図。 第2実施形態に係るプロジェクターの制御部の概略構成を示すブロック図。 発光ペンが発する光の輝度分布を説明するための説明図。 第3実施形態に係るプロジェクターの制御部の概略構成を示すブロック図。 第3実施形態に係るプロジェクターの動作を説明するためのフローチャート。 検出領域内に設定された無効領域の変形例を示す図。 検出領域内に設定された無効領域の変形例を示す図。
(第1実施形態)
以下、画像を投写する画像投写システムの第1実施形態について、図面を参照して説明する。
図1は、第1実施形態の画像投写システム100を示す説明図である。
図1に示すように、位置検出システムとしての画像投写システム100は、位置検出装置としてのプロジェクター1と、検出光射出装置としてのライトカーテンユニット2と、第1指示体としての発光ペン3とを備えている。プロジェクター1は、スクリーンやホワイトボード、壁面等の投写面Spに画像を投写する。本実施形態のプロジェクター1は、固定部材Tを介して投写面Spの上方の壁面に固定されており、壁面に沿って配置されている投写面Spに向けて画像を投写する。また、プロジェクター1は、投写面Sp上の検出領域Adを含む範囲を撮像可能になっており、発光ペン3の発光部35から発せられる光の位置に基づいて、検出領域Ad内で発光ペン3により指示された位置(指示位置)を検出することができる。
ライトカーテンユニット2は、投写面Spの上方でプロジェクター1の下方に配置されおり、検出領域Adの全域を覆うように、投写面Spに沿って平面状の検出光を射出する。この検出光は、ユーザーの指Fや指示棒(図示せず)等のように光を発しない汎用の指示体(以降、「第2指示体」とも呼ぶ。)による指示位置の検出を可能とする。プロジェクター1は、投写面Sp上の検出領域Adを含む範囲を撮像し、指F等で反射した検出光の位置に基づいて、指F等により指示された位置(指示位置)を検出することができる。なお、本実施形態では、指示位置を検出可能な検出領域Adは、プロジェクター1から画像が投写される投写領域Apと等しいものとするが、投写領域Apより広い範囲又は狭い範囲としてもよい。また、本実施形態では、ライトカーテンユニット2及び発光ペン3は、赤外光を発するものとするが、他の波長域の光を発する態様であってもよい。
図2は、プロジェクター1の概略構成を示すブロック図であり、図3は、プロジェクター1が備える画像投写部17の概略構成を示すブロック図である。
図2に示すように、プロジェクター1は、制御部10と、記憶部11と、入力操作部12と、同期信号送信部13と、撮像部14と、画像情報入力部15と、画像情報処理部16と、投写部としての画像投写部17とを一体的に備えて構成されている。プロジェクター1は、画像情報入力部15に入力される画像情報に基づいて、画像投写部17から投写面Spに画像を投写する。
制御部10は、1つ又は複数のプロセッサーを備えて構成され、記憶部11に記憶されている制御プログラムに従って動作することによりプロジェクター1の動作を統括制御する。
記憶部11は、RAM(Random Access Memory)及びROM(Read Only Memory)等のメモリーを備えて構成される。RAMは、各種データ等の一時記憶に用いられ、ROMは、プロジェクター1の動作を制御するための制御プログラムや制御データ等を記憶する。また、記憶部11は、画像投写部17から投写するための画像情報を記憶していてもよい。
入力操作部12は、ユーザーがプロジェクター1に対して各種指示を行うための複数の操作キーを備えている。入力操作部12が備える操作キーとしては、電源のオンとオフとを切り替えるための「電源キー」、各種設定を行うためのメニューを表示させる「メニューキー」、メニューの項目を選択するための「方向キー」等がある。ユーザーが入力操作部12の各種操作キーを操作すると、入力操作部12は、ユーザーの操作内容に応じた操作信号を制御部10に出力する。なお、遠隔操作が可能なリモコン(図示せず)を、入力操作部12として用いる構成としてもよい。この場合、リモコンは、ユーザーの操作内容に応じた赤外線の操作信号を発信し、図示しないリモコン信号受信部がこれを受信して制御部10に伝達する。
同期信号送信部13は、発光ペン3に同期用のパルス信号(同期信号)を送信するための発光部を有している。発光部の光源としては、例えば、赤外光を発するLED(Light Emitting Diode)が用いられる。同期信号送信部13は、制御部10の制御に基づいて、周期的に(例えば、数十ヘルツ程度の周波数で)発光部を発光させて、発光ペン3に同期信号を送信する。発光ペン3は、この同期信号を周期的に受信し、受信した同期信号に同期したタイミングで繰り返し発光部35を発光させる。なお、制御部10は、ライトカーテンユニット2による検出光の射出についても、この同期信号に同期したタイミングで繰り返し射出するように制御する。
撮像部14は、CCD(Charge Coupled Device)センサー、或いはCMOS(Complementary Metal Oxide Semiconductor)センサー等の撮像素子(図示せず)を備えたカメラである。撮像部14は、可視光を吸収して赤外光を透過させる赤外透過フィルターを有しており、この赤外透過フィルターを介して赤外光を撮像する。撮像部14は、制御部10の制御に基づいて投写面Spの検出領域Adを撮像し、その撮像結果である画像情報(撮像画像情報)を制御部10に出力する。制御部10は、同期信号送信部13から送信される同期信号に同期したタイミングで撮像部14に撮像を行わせる。つまり、撮像部14は、発光ペン3が発光するタイミング、及びライトカーテンユニット2が検出光を射出するタイミングに合わせて撮像を繰り返す。
画像情報入力部15は、コンピューターや画像再生装置等の外部の画像供給装置(図示せず)に接続され、画像供給装置から画像情報の供給を受ける。また、画像情報入力部15は、制御部10から、記憶部11に記憶されている画像情報の供給を受けることができる。画像情報入力部15は、入力された画像情報を画像情報処理部16に出力する。
画像情報処理部16は、制御部10の制御に基づいて、画像情報入力部15から入力される画像情報に対して様々な処理を施し、処理後の画像情報を画像投写部17のライトバルブ駆動部24(図3参照)に出力する。例えば、画像情報処理部16は、明るさやコントラスト等の画質を調整する処理や、OSD(オンスクリーンディスプレイ)画像を重畳する処理等を必要に応じて画像情報に施す。
なお、画像情報入力部15及び画像情報処理部16は、1つ又は複数のプロセッサー等によって構成されてもよいし、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の専用の処理装置によって構成されてもよい。
図3に示すように、画像投写部17は、光源21、光変調装置としての3つの液晶ライトバルブ22R,22G,22B、投写光学系23、ライトバルブ駆動部24等を備えて構成されている。画像投写部17は、光源21から射出された光を、液晶ライトバルブ22R,22G,22Bで変調して画像光を形成し、レンズ及びミラーの少なくとも一方を含む投写光学系23からこの画像光を投写して投写面Spに画像を表示する。
光源21は、超高圧水銀ランプやメタルハライドランプ等の放電型の光源ランプ、又は発光ダイオードや半導体レーザー等の固体光源を含んで構成されている。光源21から射出された光は、図示しないインテグレーター光学系によって輝度分布が略均一な光に変換され、図示しない色分離光学系によって光の3原色である赤色(R)、緑色(G)、青色(B)の各色光成分に分離された後、それぞれ液晶ライトバルブ22R,22G,22Bに入射する。
液晶ライトバルブ22R,22G,22Bは、それぞれ一対の透明基板間に液晶が封入された透過型の液晶パネル等によって構成される。各液晶パネルには、マトリクス状に配列された複数の画素からなる矩形の画像形成領域22iが形成されており、液晶に対して画素毎に駆動電圧を印加可能になっている。
ライトバルブ駆動部24は、液晶ライトバルブ22R,22G,22Bの画像形成領域22iに画像を形成する。具体的には、ライトバルブ駆動部24は、画像情報処理部16から入力される画像情報に応じた駆動電圧を、画像形成領域22iの各画素に印加し、各画素を画像情報に応じた光透過率に設定する。光源21から射出された光は、液晶ライトバルブ22R,22G,22Bの画像形成領域22iを透過することによって画素毎に変調され、画像情報に応じた画像光が色光毎に形成される。形成された各色の画像光は、図示しない色合成光学系によって画素毎に合成されてカラー画像を表す画像光となり、投写光学系23によって投写面Spに拡大投写される。この結果、投写面Sp上には、画像情報入力部15に入力された画像情報に基づく画像(入力画像)が表示される。
図2に戻って、ライトカーテンユニット2は、光源、平行化レンズ及びパウエルレンズ等(いずれも図示せず)を備えて構成される。光源としては、例えば、赤外光を発するLD(Laser Diode)が用いられる。ライトカーテンユニット2は、光源から射出された光を平行化レンズにより平行化した後、パウエルレンズにより検出領域Adの全域に均等に拡散させることにより、検出領域Adを覆う平面状の光を生成し、これを検出光として射出する。ライトカーテンユニット2は、検出光が投写面Spと略平行に射出され、且つ投写面Spと検出光との間隔が、例えば、数mm程度になるように調整されている。また、ライトカーテンユニット2は、プロジェクター1と有線又は無線で接続されており、ライトカーテンユニット2による検出光の射出は、プロジェクター1の制御部10によって制御される。
ユーザーが、例えば、指Fで検出領域Ad上を指示すると、ライトカーテンユニット2から射出された検出光の一部は、指Fで反射し、撮像部14によって撮像される。
図4は、発光ペン3の概略構成を示すブロック図である。
図4に示すように、発光ペン3は、制御部30と、記憶部31と、同期信号受信部32と、先端スイッチ33と、姿勢検出部34と、発光部35とを備えて構成される。
制御部30は、1つ又は複数のプロセッサーを備えて構成され、記憶部31に記憶されている制御プログラムに従って動作することにより発光ペン3の動作を統括制御する。
記憶部31は、発光ペン3の動作を制御するための制御プログラムや制御データ等を記憶するメモリー等によって構成される。
同期信号受信部32は、赤外光を受光する受光素子等によって構成され、プロジェクター1の同期信号送信部13から周期的に送信される同期信号(赤外光のパルス信号)を受信して、制御部30に出力する。
先端スイッチ33は、発光ペン3の先端部(ペン先)に配置され、先端部を投写面Spに押し付ける操作が行われた場合等に、先端部の押圧を検知し、検知結果を制御部30に出力する。
姿勢検出部34は、投写面Spに対する発光ペン3の姿勢、即ち発光ペン3の指示方向(ペン先が向く方向)を検出し、検出結果を制御部30に出力する。具体的には、姿勢検出部34は、投写面Spに平行な面内での指示方向、即ち発光ペン3を投写面Spに投影した場合の発光ペン3の指示方向を検出する。発光ペン3の指示方向を検出するためのセンサーとしては、例えば、加速度センサー、角速度センサー及び地磁気センサー等のうちの1つ又は複数が組み合わされて使用される。なお、指示方向の検出精度については、さほど高い精度は要求されず、例えば、30度単位や45度単位であってもよい。
発光部35は、発光ペン3の先端部の近傍に配置された光源(例えば、LED)を備えて構成され、制御部30の制御に基づいて赤外光を発する。制御部30は、同期信号受信部32で周期的に受信される同期信号に同期して、発光部35を繰り返し発光させる。具体的には、制御部30は、例えば、同期信号の1周期を複数の期間(以降、「フェーズ」とも呼ぶ。)に区分し、このうちのいくつかの所定のフェーズ(以降、「位置検出用フェーズ」と呼ぶ。)では、発光部35を必ず発光させ、他のフェーズ(以降、「状態判別用フェーズ」と呼ぶ。)では、先端スイッチ33の状態及び姿勢検出部34の検出結果に基づいて、発光部35の発光の有無を決定する。そして、制御部30は、複数の周期に亘る発光部35の発光状態の推移(以降、「発光シーケンス」とも呼ぶ。)によって、先端スイッチ33の状態と、姿勢検出部34の検出結果とに係る情報をプロジェクター1に通知する。なお、発光シーケンスによって通知される上記の情報は、検出情報に相当する。
図5は、プロジェクター1の制御部10の概略構成を示すブロック図である。制御部10は、制御プログラムによって実現される機能ブロックとして、撮像画像解析部25と、位置検出部26と、方向判別部としての状態判別部27と、インタラクティブ制御部28と、設定部としての無効領域設定部29とを有している。
撮像画像解析部25は、撮像部14から入力される撮像画像情報に基づく画像、即ち撮像部14が繰り返し撮像した撮像画像のそれぞれを解析し、撮像画像内の検出領域Adの中から、指示体からの光、即ち発光ペン3が発した光と指F等で反射した検出光とを抽出する。撮像画像解析部25は、撮像画像内の検出領域Adに含まれる赤外光の像のうち、大きさが所定の範囲内のものを、指示体からの光であると判断して抽出し、所定の範囲外のものについては、ノイズと判断して抽出しない。
ここで、制御部10は、同期信号の1周期を区分した複数のフェーズのうち、上述した位置検出用フェーズにおいては、ライトカーテンユニット2から検出光を射出させ、状態判別用フェーズにおいては、ライトカーテンユニット2から検出光を射出させない。このため、撮像画像解析部25によって抽出される光のうち、常に位置検出用フェーズにおいてのみ抽出される光は、ライトカーテンユニット2の検出光、即ち指F等の第2指示体によって反射された光であると判別することができる。一方、位置検出用フェーズに加えて状態判別用フェーズにおいても抽出され得る光は、発光ペン3が発した光であると判別できる。このように、撮像画像解析部25は、撮像画像から、発光ペン3が発した光と、指F等で反射した検出光とを区別して抽出する。なお、ライトカーテンユニット2からの検出光は、発光ペン3でも反射するが、撮像画像解析部25は、発光ペン3の発光と検出光の反射光がほぼ等しい位置で抽出された場合には、検出光の反射光を無視するようになっている。
位置検出部26は、撮像画像解析部25の解析結果のうち、位置検出用フェーズで撮像された撮像画像を解析した結果に基づいて、発光ペン3及び指F等による指示位置を検出する。なお、投写領域Apに表示される入力画像上の位置と、撮像画像内における投写領域Ap上の位置とは、事前に行われるキャリブレーション処理によって対応付けがなされており、位置検出部26は、撮像画像上で抽出された指示位置から、入力画像上の指示位置を特定することができる。位置検出部26は、検出した指示位置を表す情報を、インタラクティブ制御部28及び無効領域設定部29に出力する。
状態判別部27は、撮像画像解析部25の解析結果のうち、状態判別用フェーズで撮像された撮像画像を複数の周期に亘って解析した結果に基づいて、発光ペン3の発光シーケンスを認識する。そして、状態判別部27は、発光シーケンスによって発光ペン3の検出情報を取得し、取得した検出情報に基づいて発光ペン3の先端スイッチ33の状態と、発光ペン3の指示方向とを判別する。状態判別部27は、判別した先端スイッチ33の状態を表す情報をインタラクティブ制御部28に出力し、判別した発光ペン3の指示方向を表す情報を無効領域設定部29に出力する。
インタラクティブ制御部28は、位置検出部26で特定された指示位置と、状態判別部27によって判別された先端スイッチ33の状態とに基づいて、プロジェクター1の動作を制御する。例えば、インタラクティブ制御部28は、位置検出部26で検出された指示位置にカーソルやポインターを重畳して表示させる処理を画像情報処理部16に行わせたり、指F等による指示位置が移動した場合や、先端スイッチ33が押圧された状態で発光ペン3による指示位置が移動した場合に、指示位置の軌跡に従って線を描画する処理を画像情報処理部16に行わせたりすることができる。また、インタラクティブ制御部28は、何らかの選択メニューを投写させているときに、指F等による指示がなされた場合や発光ペン3の先端スイッチ33が押圧された場合には、指示位置に基づいて選択された項目を確定する処理等を行う。
無効領域設定部29は、位置検出部26で特定された発光ペン3による指示位置と、状態判別部27によって判別された発光ペン3の指示方向とに基づいて、検出領域Ad内に無効領域を設定する。無効領域は、指F等の第2指示体の検出が無効となる領域であり、ユーザーが発光ペン3により検出領域内を指示する際に、発光ペン3を持つ手や袖等がライトカーテンユニット2の検出光に当たりやすい位置に設定される。具体的には、発光ペン3を持つユーザーは、発光ペン3を自分から遠ざかる方向に向けて指示を行うことが多いため、無効領域設定部29は、発光ペン3の指示位置から見て、ユーザーが位置している側、即ち発光ペン3の指示方向とは反対側に無効領域を設定する。無効領域の詳細については、後述する。
次に、プロジェクター1の動作について説明する。
図6は、プロジェクター1の動作を説明するためのフローチャートである。プロジェクター1の制御部10は、プロジェクター1が投写面Spに画像を投写している間、図6に示すフローに従って動作する。
図6に示すように、ステップS101では、制御部10は、撮像画像解析部25の解析結果に基づいて、撮像画像における検出領域Ad内で指示体からの光が抽出されたか否かを判断する。そして、制御部10は、指示体からの光が抽出されていない場合には、ステップS108に処理を移し、指示体からの光が抽出された場合には、ステップS102に処理を移す。
指示体からの光が抽出されてステップS102に処理が移行した場合には、制御部10は、撮像画像解析部25が、発光ペン3の発光と、指F等で反射した検出光とを区別して抽出した光の中に、発光ペン3の発光が含まれるか否かを判断する。そして、制御部10は、発光ペン3の発光が抽出された場合にはステップS103に処理を移し、発光ペン3の発光が抽出されず、指F等で反射した検出光のみが抽出された場合にはステップS106に移行する。
発光ペン3の発光が抽出されてステップS103に移行した場合には、位置検出部26が発光ペン3による指示位置を検出する。そして、ステップS104では、状態判別部27が、発光ペン3の先端スイッチ33の状態と、発光ペン3の指示方向とを判別する。
続くステップS105では、無効領域設定部29が、発光ペン3による指示位置と、発光ペン3の指示方向とに基づいて、検出領域Ad内に無効領域を設定し、設定した無効領域に関する情報を位置検出部26に出力する。
図7及び図8は、検出領域Ad内に設定された無効領域Axを示す図であり、検出領域Adを正面から見た図である。ここで、図7は、発光ペン3の指示方向Dsが右を向いている例を示し、図8は、発光ペン3の指示方向Dsが左下を向いている例を示している。
図7及び図8に示すように、本実施形態の無効領域Axは、4つの境界線L1〜L4で囲まれた矩形の領域であり、発光ペン3の指示位置Ps及び指示方向Dsに応じて、無効領域Axの配置や傾きも変化する。具体的には、無効領域Axは、指示方向Dsに垂直な境界線L1,L3と、指示方向Dsに平行な境界線L2,L4で囲まれている。また、境界線L1は、指示位置Psを通るように配置されており、これに対向する境界線L3は、指示位置Ps(境界線L1)よりも指示方向Dsとは反対側に配置されている。つまり、無効領域Axは、発光ペン3の指示位置Psに対して、指示方向Dsとは反対側に設定される。また、境界線L2及び境界線L4は、指示位置Psから等しい距離に配置されている。
図6に戻って、ステップS106では、位置検出部26が、指F等の第2指示体による指示位置を検出する。ここでステップS105において無効領域Axが設定されている場合には、位置検出部26は、無効領域Axを除く範囲にある指示位置のみを検出する。つまり、位置検出部26は、無効領域Ax内で第2指示体によりなされた指示を無視する。
ステップS107では、インタラクティブ制御部28が、位置検出部26で特定された指示位置と、状態判別部27によって判別された先端スイッチ33の状態に基づいて、上述したような指示位置に応じた制御を実行する。
ステップS108では、制御部10は、入力操作部12からの操作信号に基づいて、ユーザーにより動作を終了するための操作がなされたか否かを判断する。そして、制御部10は、操作がなされた場合には、必要な終了処理を行った後に動作を終了し、操作がなされていない場合には、ステップS101に処理を戻す。
以上説明したように、本実施形態のプロジェクター1、画像投写システム100及びそれらの制御方法によれば、以下の効果を得ることができる。
(1)本実施形態によれば、無効領域設定部29は、発光ペン3の指示位置Psと指示方向Dsとに基づいて、検出領域Ad内に、指F等による指示位置が無効となる無効領域Axを設定する。このため、発光ペン3で指示を行う際に手や袖等が触れやすい位置を無効領域Axに設定することにより、手や袖等が触れた位置を、第2指示体による指示位置として誤検出してしまうことを抑制することが可能となる。
(2)本実施形態によれば、無効領域設定部29は、発光ペン3による指示位置Psに対して指示方向Dsとは反対側に無効領域Axを設定するため、発光ペン3で指示を行う際に手や袖が触れやすい位置を無効領域Axに設定することが可能となる。
(3)本実施形態によれば、状態判別部27は、発光ペン3から取得した検出情報(発光シーケンス)に基づいて指示方向Dsを判別するため、プロジェクター1に指示方向Dsを検出する手段を備える必要がなく、プロジェクター1の処理を簡略化することが可能となる。
(4)本実施形態によれば、発光ペン3は、先端スイッチ33の押圧の有無によって発光シーケンスを変更する。つまり、発光ペン3は、先端スイッチ33の押圧の有無に拘らず発光部35を発光させる構成であるため、先端スイッチ33の押圧の有無に拘らず、指示位置Psと指示方向Dsとをプロジェクター1に通知することができる。
(第2実施形態)
以下、第2実施形態の画像投写システム100について説明する。
上記第1実施形態では、発光ペン3の指示方向Dsを、発光ペン3に備わる姿勢検出部34が検出する構成を示したが、本実施形態では、発光ペン3の発光部35から投写面Spに照射される光の輝度分布に基づいて、プロジェクター1が指示方向Dsを検出する。このため、本実施形態の発光ペン3には、姿勢検出部34が不要であり、発光ペン3の制御部30は、状態判別用フェーズにおける発光部35の発光の有無を、先端スイッチ33の状態のみに応じて決定する。
図9は、第2実施形態に係るプロジェクター1の制御部10aの概略構成を示すブロック図であり、図10は、発光ペン3が発する光の輝度分布を説明するための説明図である。
図9に示すように、制御部10aは、第1実施形態と同様、制御プログラムによって実現される機能ブロックとして、撮像画像解析部25aと、位置検出部26aと、状態判別部27aと、インタラクティブ制御部28aと、設定部としての無効領域設定部29aとを有している。
本実施形態の撮像画像解析部25aは、撮像画像から、発光ペン3が発した光と、指F等で反射した検出光とを区別して抽出するとともに、発光ペン3が発した光の輝度分布に基づいて、発光ペン3の指示方向Dsを検出する。
発光ペン3が投写面Spに接触していたり、接近していたりする場合には、発光ペン3から発せられる赤外光は、投写面Spに照射される。発光ペン3が投写面Spに対して垂直の姿勢である場合には、赤外光の輝度分布は、発光ペン3のペン先を中心にして均等な広がりを有することになるが、図10に示すように、発光ペン3が投写面Spに対して傾いている場合には、赤外光の輝度分布は、発光ペン3の傾きに応じて偏った分布となる。具体的には、赤外光が照射された投写面Spにおいて、所定の閾値以上の明るさを有する範囲は、ペン先(指示位置)から指示方向Dsに向かって延出するような形状になるとともに、発光ペン3のペン先から指示方向Dsに向かう際の輝度変化は、反対方向に向かう際の輝度変化に比べて緩やかとなる。このように、撮像画像解析部25aは、発光ペン3が発した光の輝度分布に基づいて、発光ペン3の指示方向Dsを検出することができる。このため、本実施形態では、撮像画像解析部25aが方向判別部に相当する。
上記以外の構成については、第1実施形態と同様である。即ち、位置検出部26aは、撮像画像解析部25aの解析結果に基づいて、発光ペン3及び指F等による指示位置を検出し、状態判別部27aは、撮像画像解析部25aの解析結果に基づいて、発光ペン3の先端スイッチ33の状態を判別する。そして、インタラクティブ制御部28aは、位置検出部26aで特定された指示位置と、状態判別部27aによって判別された先端スイッチ33の状態に基づいて、プロジェクター1の動作を制御する。
また、第1実施形態と同様、無効領域設定部29aは、位置検出部26aで特定された発光ペン3による指示位置Psと、撮像画像解析部25aによって検出された発光ペン3の指示方向Dsとに基づいて、検出領域Ad内に無効領域Axを設定する。そして、無効領域Axが設定されると、位置検出部26aは、指F等の第2指示体による指示位置を検出する際、無効領域Axを除く範囲にある指示位置のみを検出する。
以上説明したように、本実施形態のプロジェクター1、画像投写システム100及びそれらの制御方法によれば、第1実施形態の効果に加えて、以下の効果を得ることができる。
(1)本実施形態によれば、撮像画像解析部25aは、発光ペン3が発する光の輝度分布に基づいて指示方向Dsを判別するため、指示方向Dsを容易に判別することが可能となる。
(2)本実施形態によれば、発光ペン3は、先端スイッチ33の押圧の有無に拘らず発光部35を発光させる構成であるため、撮像画像解析部25aは、発光ペン3のペン先が投写面Spに近接してさえいれば、先端スイッチ33の押圧の有無に拘らず、発光ペン3の指示方向Dsを検出することが可能となる。
(第3実施形態)
以下、第3実施形態の画像投写システム100について説明する。
上記第1実施形態では、位置検出部26は、指F等による指示位置を検出する際に、無効領域Axを設定した後で、無効領域Axを除く範囲にある指示位置を検出するようにしている。これに対し、本実施形態のプロジェクター1は、検出領域Adの全域から指F等による指示位置を検出した後で無効領域Axを設定し、検出済みの指示位置が無効領域Axの範囲内の場合に、その指示位置を無効にする。
図11は、第3実施形態に係るプロジェクター1の制御部10bの概略構成を示すブロック図であり、図12は、第3実施形態に係るプロジェクター1の動作を説明するためのフローチャートである。
図11に示すように、制御部10bは、第1実施形態と同様、制御プログラムによって実現される機能ブロックとして、撮像画像解析部25bと、位置検出部26bと、状態判別部27bと、インタラクティブ制御部28bと、設定部としての無効領域設定部29bとを有している。
撮像画像解析部25bは、撮像部14から入力される撮像画像情報に基づく画像、即ち撮像部14が繰り返し撮像した撮像画像のそれぞれを解析し、撮像画像内の検出領域Adの中から、指示体からの光、即ち発光ペン3が発した光と指F等で反射した検出光とを抽出する。
そして、撮像画像解析部25bによって指示体からの光が抽出されると(ステップS111:Yes)、位置検出部26bは、撮像画像解析部25bで抽出された発光ペン3及び指F等による指示位置を検出する(ステップS112)。位置検出部26bは、検出した指示位置を表す情報を、無効領域設定部29bに出力する。
また、状態判別部27bは、撮像画像解析部25bの解析結果に基づいて、発光ペン3の先端スイッチ33の状態と、発光ペン3の指示方向Dsとを判別する(ステップS113)。状態判別部27bは、判別した先端スイッチ33の状態を表す情報をインタラクティブ制御部28bに出力し、判別した発光ペン3の指示方向Dsを表す情報を無効領域設定部29bに出力する。
無効領域設定部29bは、位置検出部26bで特定された発光ペン3による指示位置Psと、状態判別部27bによって判別された発光ペン3の指示方向Dsとに基づいて、検出領域Ad内に無効領域Axを設定する(ステップS114)。そして、無効領域設定部29bは、位置検出部26bで検出された指F等の第2指示体による指示位置のうち、設定した無効領域Axの範囲内の指示位置を無効にして、有効な指示位置のみをインタラクティブ制御部28bに出力する(ステップS115)。
インタラクティブ制御部28bは、無効領域設定部29bから出力された指示位置と、状態判別部27bによって判別された先端スイッチ33の状態に基づいて、プロジェクター1の動作を制御する(ステップS116)。
そして、制御部10bは、ユーザーにより動作を終了するための操作がなされた場合には(ステップS117:Yes)、必要な終了処理を行った後に動作を終了し、操作がなされていない場合には(ステップS117:No)、当該フローを繰り返す。
以上説明したように、本実施形態のプロジェクター1、画像投写システム100及びそれらの制御方法によれば、第1実施形態と同様の効果を得ることができる。
(変形例)
また、上記実施形態は、以下のように変更してもよい。
上記第2実施形態では、撮像画像解析部25aが、発光ペン3が発する光の輝度分布に基づいて、発光ペン3の指示方向Dsを検出するようにしているが、指示方向Dsの検出方法は、この態様に限定されない。例えば、発光ペン3のペン先の発光部35に加え、ペン先の反対側の端部にも発光部を備えるようにして、撮像画像解析部25aが、これら2つの発光部が発する光の位置関係に基づいて指示方向Dsを検出するようにしてもよい。この場合には、2つの発光部を識別可能とするために、それぞれが異なる波長の光を発するようにしてもよいし、それぞれが異なる発光シーケンスで発光するようにしてもよい。なお、ペン先の発光部35が発する光が第1の光に相当し、ペン先の反対側の発光部が発する光が第2の光に相当する。また、ペン先の近傍から第1の光とは異なる第3の光を発光させ、第2の光と第3の光の位置関係に基づいて指示方向Dsを検出するようにしてもよい。
また、ライトカーテンユニット2が、指F等の第2指示体を検出するための平面状の検出光(第1検出光)に加えて、第1検出光よりも投写面Spから離れた位置に平面状の第2検出光を射出し、撮像画像解析部25aが、発光ペン3の発光部35が発する光の位置(又は第1検出光が反射した位置)と、第2検出光が反射した位置とに基づいて、発光ペン3の指示方向Dsを検出するようにしてもよい。この場合にも、第1検出光と第2検出光とを識別可能とするために、互いに異なる波長としてもよいし、互いに異なる発光シーケンスで射出されるようにしてもよい。
上記第1実施形態では、無効領域設定部29は、発光ペン3による指示位置Ps及び発光ペン3の指示方向Dsに基づいて、矩形の無効領域Axを設定しているが、無効領域Axの形状はこれに限定されない。例えば、無効領域Axは、円形や楕円形等、矩形以外の形状であってもよい。また、図13に示すように、無効領域設定部29は、例えば、指示方向Dsに垂直な方向に貫通するように無効領域Axを設定してもよい。
また、無効領域設定部29は、投写面Spが鉛直か水平かに基づいて、無効領域Axを変更してもよい。例えば、無効領域設定部29は、投写面Spが鉛直の場合には、図14に示すように、指示位置Psの上側に比べて下側が大きくなるように無効領域Axを設定してもよい。
上記第1実施形態では、無効領域設定部29は、境界線L1が指示位置Psを通るように無効領域Axを設定しているが、指示位置Psが無効領域Axの内側又は外側に位置するように無効領域Axを設定してもよい。ここで、指示位置Psが無効領域Axの内側に位置する場合には、無効領域設定部29は、指示位置Psより指示方向Ds側の範囲に比べて、指示方向Dsとは反対側の範囲のほうが広くなるように、即ち指示位置Psから境界線L1までの距離に比べて、指示位置Psから境界線L3までの距離のほうが長くなるように無効領域Axを設定することが望ましい。
上記第1実施形態において、無効領域Axの大きさは、画素数単位で定めてもよいが、実際の投写面Sp上で所望の大きさになるように定めてもよい。例えば、投写面Sp上における投写領域Apのサイズ(投写サイズ)を測定する測定手段、又は投写サイズをユーザーに入力させる手段をプロジェクター1に備えるようにして、無効領域設定部29が、投写サイズに応じて無効領域Axの画素数を調整するようにすれば、投写面Sp上における無効領域Axの大きさを、投写サイズに拘らずに一定とすることも可能となる。この態様によれば、無効領域Axを、例えば、ユーザー(人)の大きさに対して適切な大きさにすることが可能となり、無効領域Axが無駄に大きくなりすぎてしまうことを抑制できる。
上記第1実施形態では、発光ペン3の姿勢検出部34が、30度単位や45度単位で指示方向を検出することを例示したが、より高い精度で検出するようにしてもよいし、より低い精度(例えば、90度単位や180度単位)で検出してもよい。検出精度が180度単位の場合、姿勢検出部34は、例えば、右方向と左方向の2つの方向のいずれかに指示方向を決定すればよい。
上記第1実施形態では、姿勢検出部34で検出した検出結果(指示方向)を、発光部35の発光シーケンスによってプロジェクター1に通知しているが、この態様に限定されない。例えば、プロジェクター1と発光ペン3の双方に、Bluetooth(登録商標)等によって無線通信を行うための通信部を備えるようにして、これら通信部を介して検出結果を通知するようにしてもよい。この場合には、プロジェクター1は、発光ペン3に送信する同期信号についても、通信部を介して送信してもよい。
上記第1〜第3実施形態では、位置検出装置の一例として、プロジェクター1について説明したが、位置検出装置は、プロジェクター1に限定されず、他の画像表示装置(例えば、液晶ディスプレイ)であってもよいし、画像表示装置以外の各種装置にも適用可能である。また、ライトカーテンユニット2から平面状の検出光を射出する態様に限定されず、第2指示体による指示位置をタッチパネルによって検出する態様であってもよい。また、第1指示体は、光を発する発光ペン3に限定されず、電波を発する指示体であってもよい。
上記第1実施形態では、光変調装置として、透過型の液晶ライトバルブ22R,22G,22Bを用いているが、反射型の液晶ライトバルブ等、反射型の光変調装置を用いることも可能である。また、入射した光の射出方向を、画素としてのマイクロミラー毎に制御することにより、光源21から射出された光を変調するデジタルミラーデバイス等を用いることもできる。また、色光別に複数の光変調装置を備える構成に限定されず、1つの光変調装置で複数の色光を時分割で変調する構成としてもよい。
1…プロジェクター、2…ライトカーテンユニット、3…発光ペン、10…制御部、11…記憶部、12…入力操作部、13…同期信号送信部、14…撮像部、15…画像情報入力部、16…画像情報処理部、17…画像投写部、21…光源、22R,22G,22B…液晶ライトバルブ、22i…画像形成領域、23…投写光学系、24…ライトバルブ駆動部、25…撮像画像解析部、26…位置検出部、27…状態判別部、28…インタラクティブ制御部、29…無効領域設定部、30…制御部、31…記憶部、32…同期信号受信部、33…先端スイッチ、34…姿勢検出部、35…発光部、100…画像投写システム、Ad…検出領域、Ap…投写領域、Ax…無効領域、Ds…指示方向、F…指、L1〜L4…境界線、Ps…指示位置、Sp…投写面、T…固定部材。

Claims (4)

  1. 検出領域内で第1指示体による指示位置と第2指示体による指示位置とを検出する位置検出部と、
    前記第1指示体の指示方向を判別する方向判別部と、
    前記位置検出部で検出された前記第1指示体の指示位置と、前記方向判別部で判別された前記第1指示体の指示方向とに基づいて、前記検出領域内に、前記第2指示体による指示位置が無効となる無効領域を設定する設定部と、
    を備え
    前記位置検出部は、前記第1指示体が発する光の位置に基づいて、前記第1指示体の指示位置を検出し、
    前記方向判別部は、前記第1指示体が発する光の輝度分布に基づいて、前記第1指示体の指示方向を判別することを特徴とする位置検出装置。
  2. 請求項1に記載の位置検出装置であって、
    前記設定部は、前記位置検出部で検出された前記第1指示体の指示位置に対して、前記方向判別部で判別された前記指示方向とは反対側に前記無効領域を設定することを特徴とする位置検出装置。
  3. 光を発する第1指示体と、検出領域に沿って検出光を射出する検出光射出装置と、位置検出装置と、を備えた位置検出システムであって、
    前記位置検出装置は、
    前記検出領域内で前記第1指示体が発する光の位置に基づいて、前記第1指示体による指示位置を検出するとともに、前記検出領域内で前記検出光が第2指示体で反射した位置に基づいて、前記第2指示体による指示位置を検出する位置検出部と、
    前記第1指示体の指示方向を判別する方向判別部と、
    前記位置検出部で検出された前記第1指示体の指示位置と、前記方向判別部で判別された前記第1指示体の指示方向とに基づいて、前記検出領域内に、前記第2指示体による指示位置が無効となる無効領域を設定する設定部と、
    を備え
    前記方向判別部は、前記第1指示体が発する光の輝度分布に基づいて、前記第1指示体の指示方向を判別することを特徴とする位置検出システム。
  4. 検出領域内で第1指示体による指示位置と第2指示体による指示位置とを検出する位置検出装置の制御方法であって、
    前記第1指示体が発する光の位置に基づいて、前記検出領域内で前記第1指示体による指示位置を検出し、
    前記第1指示体が発する光の輝度分布に基づいて、前記第1指示体の指示方向を判別し、
    検出された前記第1指示体の指示位置と、判別された前記第1指示体の指示方向とに基づいて、前記検出領域内に、前記第2指示体による指示位置が無効となる無効領域を設定する、ことを特徴とする位置検出装置の制御方法。
JP2017185854A 2017-09-27 2017-09-27 位置検出装置、位置検出システム及び位置検出装置の制御方法 Active JP6935713B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017185854A JP6935713B2 (ja) 2017-09-27 2017-09-27 位置検出装置、位置検出システム及び位置検出装置の制御方法
CN201811113625.3A CN109558002A (zh) 2017-09-27 2018-09-25 位置检测装置、位置检测系统和位置检测装置的控制方法
US16/142,331 US10712874B2 (en) 2017-09-27 2018-09-26 Position detection device, position detection system, and method for controlling position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185854A JP6935713B2 (ja) 2017-09-27 2017-09-27 位置検出装置、位置検出システム及び位置検出装置の制御方法

Publications (2)

Publication Number Publication Date
JP2019061513A JP2019061513A (ja) 2019-04-18
JP6935713B2 true JP6935713B2 (ja) 2021-09-15

Family

ID=65808438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185854A Active JP6935713B2 (ja) 2017-09-27 2017-09-27 位置検出装置、位置検出システム及び位置検出装置の制御方法

Country Status (3)

Country Link
US (1) US10712874B2 (ja)
JP (1) JP6935713B2 (ja)
CN (1) CN109558002A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7119488B2 (ja) * 2018-03-27 2022-08-17 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP6965910B2 (ja) * 2019-08-27 2021-11-10 セイコーエプソン株式会社 動作方法および表示装置
CN117032500A (zh) * 2023-10-08 2023-11-10 广州众远智慧科技有限公司 红外触摸设备触摸识别方法、装置、存储介质和设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3862113B2 (ja) * 1997-09-08 2006-12-27 ソニー株式会社 ディジタイザ装置
US20090021491A1 (en) 2006-02-23 2009-01-22 Pioneer Corporation Operation input device
JP2011164746A (ja) 2010-02-05 2011-08-25 Seiko Epson Corp 端末装置、持ち手検出方法、及びプログラム
US20120044140A1 (en) * 2010-08-19 2012-02-23 Sanyo Electric Co., Ltd. Information display system and program, and optical input system, projection-type images and display apparatus
CA2862470C (en) * 2012-01-11 2018-10-23 Smart Technologies Ulc Calibration of an interactive light curtain
WO2013171747A2 (en) * 2012-05-14 2013-11-21 N-Trig Ltd. Method for identifying palm input to a digitizer
JP6171452B2 (ja) * 2013-03-25 2017-08-02 セイコーエプソン株式会社 画像処理装置、プロジェクターおよび画像処理方法
JP6398248B2 (ja) 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
JP2016066311A (ja) 2014-09-25 2016-04-28 Vaio株式会社 情報処理装置、情報処理装置における入力制御方法及び情報処理装置に用いるコンピュータプログラム
JP6403002B2 (ja) * 2014-12-01 2018-10-10 セイコーエプソン株式会社 プロジェクターシステム及びプロジェクターシステムの制御方法
JP6477131B2 (ja) * 2015-03-27 2019-03-06 セイコーエプソン株式会社 インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法

Also Published As

Publication number Publication date
US10712874B2 (en) 2020-07-14
US20190095043A1 (en) 2019-03-28
JP2019061513A (ja) 2019-04-18
CN109558002A (zh) 2019-04-02

Similar Documents

Publication Publication Date Title
JP6398248B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
US11016582B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
JP6375672B2 (ja) 位置検出装置、及び位置検出方法
JP6349838B2 (ja) 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
JP6375660B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP6935713B2 (ja) 位置検出装置、位置検出システム及び位置検出装置の制御方法
CN109698947A (zh) 投影仪和投影仪的控制方法
JP6562124B2 (ja) 位置検出システム、及び、位置検出システムの制御方法
US9733728B2 (en) Position detecting device and position detecting method
US9870073B2 (en) Position detection device, projector, and position detection method
CN109840056B (zh) 图像显示装置及其控制方法
JP2018164251A (ja) 画像表示装置およびその制御方法
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP6569259B2 (ja) 位置検出装置、表示装置、位置検出方法、及び、表示方法
JP2016212291A (ja) 画像投影システム、画像処理装置、及びプログラム
JP2016114991A (ja) 位置検出装置、画像投写装置及び画像操作システム
JP6340860B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP6291912B2 (ja) 位置検出装置、及び、位置検出方法
JP6291911B2 (ja) 位置検出装置、及び、位置検出方法
JP7314425B2 (ja) 制御装置、制御方法、制御プログラム、及び投影システム
US10860144B2 (en) Projector and method for controlling projector
JP6337558B2 (ja) 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP2015176048A (ja) プロジェクター、及びアピアランス変更方法
JP2016177745A (ja) 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210809

R150 Certificate of patent or registration of utility model

Ref document number: 6935713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150