JP6049334B2 - 検出装置、検出方法及びプログラム - Google Patents

検出装置、検出方法及びプログラム Download PDF

Info

Publication number
JP6049334B2
JP6049334B2 JP2012156904A JP2012156904A JP6049334B2 JP 6049334 B2 JP6049334 B2 JP 6049334B2 JP 2012156904 A JP2012156904 A JP 2012156904A JP 2012156904 A JP2012156904 A JP 2012156904A JP 6049334 B2 JP6049334 B2 JP 6049334B2
Authority
JP
Japan
Prior art keywords
image data
screen
imaging
shadow
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012156904A
Other languages
English (en)
Other versions
JP2014021562A (ja
JP2014021562A5 (ja
Inventor
究 小林
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012156904A priority Critical patent/JP6049334B2/ja
Priority to US13/936,923 priority patent/US9690430B2/en
Publication of JP2014021562A publication Critical patent/JP2014021562A/ja
Publication of JP2014021562A5 publication Critical patent/JP2014021562A5/ja
Application granted granted Critical
Publication of JP6049334B2 publication Critical patent/JP6049334B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、タッチされた位置やタッチダウン等を検出する技術に関するものである。
従来、プロジェクタによって投影される画像に対してタッチ入力を行う場合、投影対象となるスクリーン上に何らかのデバイスを設置することによりタッチ入力を可能としていた。特許文献1及び2には、赤外線を投光する手段と赤外線を受光する手段とをスクリーン上に設け、これらの手段を用いて指等がそれを遮ることを検知して座標入力及びタッチ判定を行う技術が開示されている。一方、特許文献3乃至5には、プロジェクタによって投影される画像に対して、スクリーン上にデバイスを設置せずに指示入力が可能な技術が開示されている。但し、特許文献3乃至5に開示される技術では、専用の指示具を必要としており、当該指示具が光や超音波を発し、これを投影部の近傍、又は、スクリーンから離れた部分で検知することにより、座標入力及びタッチ判定等が行われる。
ところで、プロジェクタという表示装置は、液晶表示装置等のフラットパネル型表示装置と比較して、どこにでも投影できるというメリットがある。この「どこにでも投影できる」という特徴と、上述した「スクリーン上に何らかの装置を設置する必要がある」という特徴とは、相反するものであり、便利さを阻害している。同様に、「どこにでも投影できる」という特徴と、上述した「専用の指示具が必要である」という特徴とは、相反するものであり、これも便利さを阻害している。特許文献6には、これらを両立するために、手や指の影をプロジェクタ側に設置されたカメラで検出することにより、タッチ入力する技術が開示されている。特許文献6に開示される技術は、投影された画像上における所定の位置をユーザが手によってタッチしようとする場合、タッチ位置の検出とタッチダウンの判別とを行うものである。
特開2004−272353号公報 特開2001−43021号公報 特開2001−236179号公報 特開2004−265185号公報 特開2000−81950号公報
しかしながら、特許文献6に開示される技術において、タッチ位置の検出及びタッチダウンの判別は、投影光によって照らされる手の実像と、投影光によって生成される手の影像との関係に基づいて行われる。この方法では、投影された画像に黒い領域がある場合、その領域においては有効な光線が得られず、影像及び実像を十分に取得することができず、タッチ位置及びタッチダウンを正確に検出することができない。
そこで、本発明の目的は、影像を確実に取得し、タッチに係る検出を正確に行うことにある。
本発明の検出装置は、不可視光をスクリーンに対して投光する投光手段と、前記スクリーンを撮像する撮像手段であって、前記投光手段により投光される不可視光の波長成分に感度を有する撮像手段と、前記投光手段により前記スクリーンに不可視光が投光されていない状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在しない状態における前記撮像手段による撮像により得られた画像データと、前記投光手段により前記スクリーンに不可視光が投光されている状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在しない状態における前記撮像手段による撮像により得られた画像データとの差分をとることにより、ファレンス画像データを生成するリファレンス画像データ生成手段と、前記投光手段により前記スクリーンに不可視光が投光されている状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在する状態における前記撮像手段による撮像により得られた画像データと、前記投光手段により前記スクリーンに不可視光が投光されていない状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在する状態における前記撮像手段による撮像により得られた画像データとの差分をとることにより、影画像データを生成する影画像データ生成手段と、前記リファレンス画像データ生成手段により生成されたリファレンス画像データと前記影画像データ生成手段により生成された影画像データとを用いて、前記スクリーンに対する操作の検出を行う検出手段とを有することを特徴とする。
本発明によれば、影像を確実に取得し、タッチに係る検出を正確に行うことが可能となる。
本発明の第1の実施形態に係る画像投影システムの構成を示す図である。 本発明の実施形態に係る画像投影システムをスクリーン側の正面から見た場合の外観構成を示す図である。 プロジェクタの内部構成を示す図である。 撮像装置によって撮像される画像データの例を示す図である。 本発明の第1の実施形態に係る画像投影システムの処理を示すフローチャートである。 投光パターンと指示方向との関係を示す図である。 元画像データ(影画像データ)⇒規格化影画像データ⇒影領域画像データ⇒OR影領域画像データの流れの意味について説明するための図である。 第2の画像処理部におけるOR影領域画像データから指示座標データ及びタッチ判定データを算出する処理に係る構成を示す図である。 図8に示した各構成において生成される画像データを示す図である。 領域拡張フィルタ及び領域縮小フィルタについて説明するための図である。 指画像データからP1、P2を算出する処理を説明するための図である。 本発明の第2の実施形態に係る画像投影システムの構成を示す図である。 本発明の第3の実施形態に係る画像投影システムの構成を示す図である。 本発明の第4の実施形態に係る画像投影システムの構成を示す図である。 本発明の第4の実施形態に係る画像投影システムの処理を示すフローチャートである。 本発明の第5の実施形態に係る画像投影システムの構成を示す図である。 本発明の第6の実施形態に係る画像投影システムの構成を示す図である。 本発明の第7の実施形態に係る画像投影システムの構成を示す図である。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。なお、以下の実施形態において示す構成は、飽くまでも本発明の一例に過ぎず、本発明は、以下の実施形態に限定されるものではない。
先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る画像投影システムの構成を示す図である。図1に示すように、本実施形態に係る画像投影システムは、撮像装置1、投光装置2〜5及びプロジェクタ6を備える。撮像装置1及び投光装置2〜5は、プロジェクタ6の画像投影部7の近傍に設置される。なお、本実施形態に係る画像投影システムは、タッチ検出装置の例である。
スクリーン8は、プロジェクタ6の画像投影部7から画像が投影される対象であり、且つ、タッチ入力の対象エリアである。撮像装置1の撮影範囲及び投光装置2〜5の照明範囲には、スクリーン8の一部又は全てが含まれる。投光装置2〜5は、可視光の波長成分を含まない光を投光する。ここでは、投光装置2〜5は赤外線を投光することを想定しているが、これに限定されず、非可視光であればよい。
撮像装置1は、少なくとも投光装置2〜5から投光される赤外線の一部又は全ての波長帯域に感度があるものである。本発明においては、撮像装置1の波長特性が可視領域を含むか含まないかを限定しない。可視領域を含まない場合、外乱光に対してより堅牢になる。一方、可視領域を含む場合、画像投影部7から投影される画像をとらえることができるため、投影される画像とタッチ入力との間においてより緊密な連携ができるようになる。
図1のスクリーン8の部分に描かれている手の影像9、10は、非可視光に基づくものであり、実際に人間に見えるものではなく、撮像装置1によって観測される像である。即ち、投光装置2〜5から投光される非可視光、及び、その非可視光によって生ずる全ての影は、プロジェクタ6によってスクリーン8上に投影される画像の表示を一切妨害しないものである。
図2は、本実施形態に係る画像投影システムをスクリーン側の正面から見た場合の外観構成を示す図である。図2に示すように、本実施形態に係る画像投影システムは、例えば天井からつり下げられて設置されるものであり、支持部材13によって撮像装置1と投光装置2〜5とが互いに固定される。そして、支持部材13は、天井固定部材12によってプロジェクタ6とともに天井に固定される。
図3は、プロジェクタ6の内部構成を示す図である。図3に示すように、プロジェクタ6は、制御部61、画像データ格納部62、第1の画像処理部63、第2の画像処理部64、指示座標データ・タッチ判別データ格納部65、座標・タッチ状態送信部66及び投光駆動制御回路67が制御バスを介して接続される。制御部61は、制御バスに接続される各構成を制御する。第1〜第4の投光装置2〜5は、投光駆動制御回路67によって制御され、駆動される。
撮像装置1により撮像された画像データは、画像データ格納部62に一旦格納された後、第1の画像処理部63に出力され、さらに第2の画像処理部64に出力される。なお、画像データは、画像データバスを介してやりとりされる。第2の画像処理部64は、第1の画像処理部63を介して入力した画像データに基づいて、指示座標データ及びタッチ判別データを算出する。算出された指示座標データ及びタッチ判別データは、指示座標データ・タッチ判別データ格納部65に一旦格納され、座標・タッチ状態送信部66によって送信される。指示座標データ及びタッチ判別データの送信先は、PC、スマート端末又はプロジェクタ6そのものであり、無線又は有線で送信される。なお、後述する図5に示すフローチャートの処理は、制御部61が不図示の記録媒体から必要なプログラムやデータを読み出して実行することにより実現する処理である。
図4は、撮像装置1によって撮像される画像データの例を示す図である。なお、図4に示す影像9、10は、非可視光に基づいて撮像装置1により撮像されたものであり、人間には見えないものである。
先ず、ユーザがスクリーン8上に手を差し出すと、図4(A)に示す画像データが撮像装置1により撮像される。第2の画像処理部64は、図4(A)に示す画像データを解析し、二つの手の先端の位置としてP1及びP2を検出し、例えばその中点P0を指示座標として算出するとともに、P1とP2との距離dを算出する。ユーザが手をスクリーン8に近づけると、二つの手の影像が近付き、P1とP2との距離dが短くなっていく。そして、図4(B)に示すように、距離dが第1の閾値以下になった時点で、第2の画像処理部64は、「座標入力あり」として座標値P0を出力する。さらに二つの影像が近付き、図4(C)又は図4(D)に示すように、距離dが第2の閾値以下になった時点で、第2の画像処理部64は、「タッチダウンあり」と判定する。図4(C)に示す例は、第2の閾値が比較的大きい値を示す場合であり、この場合、手が或る程度スクリーン8に近付いた時点で「タッチダウンあり」の判定がなされる。一方、図4(D)に示す例は、第2の閾値がほぼゼロに近い値を示す場合であり、この場合、手がスクリーン8にほぼ接触した時点で「タッチダウンあり」の判定がなされる。
図4(C)に示すような設定は、スクリーン面になるべく触れたくないようなケースに用いられる。例えば、手術等の外科的な処置を行いつつ操作するような場合には無菌状態が必要なため、このような設定が行われる。一方、図4(D)に示すような設定は、スクリーン8に対して実際に操作しているという、物理的イメージを活かしたいとき等に用いられる。
図5は、本実施形態に係る画像投影システムの処理を示すフローチャートである。図5において、ステップS101〜S103は、リファレンス画像データを取得するための処理である。この処理部分は、手による操作がないことを条件に実行される。ステップS104以降の処理は、手による操作が行われている状態で実行される通常サンプリングの処理部分であり、終了までループで繰り返される。
ステップS101において、撮像装置1は、第1〜第4の投光装置2〜5によって投光されていない状態で、撮影処理を実行する。ステップS102において、撮像装置1は、手による指示入力が行われていない状態であって、且つ、第1〜第4の投光装置2〜5により投光された状態で撮影処理を実行する。ここでは、第1〜第4の投光パターンで投光された状態で撮影処理が実行される。ステップS103において、第1の画像処理部63は、ステップS101で撮影された画像データと、ステップS102で撮影された、第1〜第4の投光パターンに対応する各画像データとの差分をとることにより、4つのリファレンス画像データを生成する。なお、本処理は、リファレンス画像データ生成手段の処理例である。
ステップS104において、撮像装置1は、第1〜第4の投光装置2〜5によって投光されていない状態で、撮影処理を実行する。ステップS105において、撮像装置1は、手による指示入力が行われている状態であって、且つ、第1〜第4の投光装置2〜5により投光された状態で撮影処理を実行する。ここでは、第1〜第4の投光パターンで投光された状態で撮影処理が実行される。
ステップS106において、第1の画像処理部63は、ステップS104において撮影された画像データと、ステップS105で撮影された第1〜第4の投光パターンに対応する各画像データとの差分をとることにより、4つの影画像データを生成する。なお、本処理は、影画像データ生成手段の処理例である。ステップS107において、第1の画像処理部63は、ステップS106により生成された4つの影画像データから、一組(2つ)の影画像データを選択する。ステップS108において、第2の画像処理部64は、後述する画像処理を実行する。
ステップS109において、第2の画像処理部64は、画像処理の結果に基づいて、指示座標データとタッチ判別データとを算出する。ステップS110において、制御部61は、ステップS109において算出された指示座標データとタッチ判別データとの適正評価を行う。ステップS111において、制御部61は、ステップS110の適正評価の結果、指示座標データとタッチ判別データとが適正であるか否かを判定する。指示座標データとタッチ判別データとが適正である場合、処理はステップS112に移行する。一方、指示座標データとタッチ判別データとが適正でない場合、処理はステップS104に戻る。ステップS112において、座標・タッチ状態送信部66は、指示座標データとタッチ判別データとをPC等に対して送信する。制御部61は、ユーザから処理を終了させる指示を受け付けたか否かを判定する。処理を終了させる指示を受け付けた場合、処理は終了する。一方、処理を終了させる指示を受け付けていない場合、処理はステップS104に戻る。
次に、ステップS106における一組の画像データの選択処理について詳細に説明する。本実施形態においては、第1〜第4の投光パターンに対応する複数の影画像データを生成し、そのうちから、影像がユーザの手や腕に遮られない最適な一組の影画像データを選択する。
ここで、第1〜第4の投光パターンは、図6のp01〜p04に示すとおりである。例えば、p10に示すような方向に手による指示入力が行われた場合、投光パターン毎の影画像データは、p11〜p14に示すようになる。p12及びp13は、影像の特に指の部分が手の実像に遮られて見えない状態の影画像データである。これに対して、p11及びp14は、影像の特に指の部分が十分見える状態の影画像データである。このような場合、p11及びp14を選択するようにする。以下、p20、p30及びp40に示すような方向に手による指示入力が行われた場合も、同じように、影像の特に指の部分が十分見える状態(丸印の合格パターン)の影画像データを採用するようにする。
ステップS101において、第1〜第4の投光装置2〜5によって投光されていない状態で撮影された非投光画像データをR0とする。また、ステップS102において、手による指示入力が行われていない状態であって、且つ、第1〜第4の投光パターンで第1〜第4の投光装置2〜5により投光された状態で撮影された画像データをR1〜R4とする。ステップS103において、画像データR1〜R4から非投光画像データR0が差し引かれることにより、外乱光を除去したリファレンス画像データRef1〜Ref4が生成される。この処理を式で表すと、次の式1−1〜式1−4のようになる。
Ref1=R1−R0・・・式1−1
Ref2=R2−R0・・・式1−2
Ref3=R3−R0・・・式1−3
Ref4=R4−R0・・・式1−4
ステップS104において、第1〜第4の投光装置2〜5によって投光されていない状態で撮影された非投光画像データをA0とする。また、ステップS105において、手による指示入力が行われてい状態であって、且つ、第1〜第4の投光パターンで第1〜第4の投光部2〜5により投光された状態で撮影された画像データをA1〜A4とする。ステップS106において、画像データA1〜A4から非投光画像データA0が差し引かれることにより、外乱光を除去した通常サンプルにおける影画像データK1〜K4が生成される。この処理を式で表すと、次の式2−1〜式2−4のようになる。
K1=A1−A0・・・式2−1
K2=A2−A0・・・式2−2
K3=A3−A0・・・式2−3
K4=A4−A0・・・式2−4
ステップS106において、一組(2つの)の影画像データが選択されるが、ここでは、影画像データK1、K2が選択されたとして、ステップS107以降の処理は、添え字1、2のみの画像データに対してのみ実行される。なお、一組の影画像データの選択は、ステップS105において画像データA1〜A4を取得した段階で行ってもよい。
次に、ステップS108の画像処理について詳細に説明する。ステップS108では、先ず、第2の画像処理部64は、ステップS107で選択された一組の影画像データを、ステップS103で生成されたリファレンス画像データで規格化する。実際には、影がある状態を正の方向のデータとして扱う方が便利なので、反転して規格化して「規格化影画像データ」KN1、KN2が生成される。この処理を式で表すと、次の式3−1〜式3−2のようになる。
KN1=(Ref1−K1)/Ref1・・・式3−1
KN2=(Ref2−K2)/Ref2・・・式3−2
次に、第2の画像処理部64は、各規格化影画像データKN1、KN2を2値化する処理を行う。規格化影画像データKN1、KN2を2値化することにより、位置情報のみでレベル情報のない影領域画像データKB1、KB2が生成される。この処理を式で表すと、次の式4−1〜式4−2のようになる。なお、本処理は、影領域画像データ生成手段の処理例である。
KB1=Slice(KN1)・・・式4−1
KB2=Slice(KN2)・・・式4−2
ここで、関数Slice()は、画素毎に入力画像データが所定の閾値を超えていれば1を返し、超えていなければ0を返す関数である。
次に、第2の画像処理部64は、2つの影領域画像データのORをとって、OR影領域画像データを生成する。この処理を式で表すと、次の式5のようになる。なお、本処理は、OR影領域画像データ生成手段の処理例である。
KG=KB1∨KB2・・・式5
ここで、図7を用いて、元画像データ(影画像データ)⇒規格化影画像データ⇒影領域画像データ⇒OR影領域画像データの流れの意味について説明する。図7では、直感的にわかるように、各画像データを反転して影が黒く表示されるように示している。
図7(A)は、元画像データである。これをリファレンス画像データで規格化(詳しくは、規格化反転した)画像データが規格化影画像データである。夫々の画像データには、投光による明白に影である部分と、手の反射による曖昧な部分とが存在している。図7(A)及び図7(B)においてこれを表現するためにテクスチャを用いている。図7(C)では、これを2値化するため、曖昧な部分は場所によって白、黒のまだらとなる。この曖昧な部分は、図7(A)及び図7(B)に示すように、投光の方向によって暗い傾向のある場所が異なり、どちらかといえば明白に影である部分に近い側が暗くなる傾向にある。従って、図7(C)の2値化画像データを見ると、白い部分は、投光により明白に影である部分と反対方向に多く出る傾向がある。図7(D)は、図7(C)の2つの像のORをとったものである(あくまでも、図7の表示は反転されている)。このようにORをとると、図7(C)における白の部分の位置が夫々異なることが効果的となり、図7(D)では、白の部分が少なくなる。図7(D)のOR影領域画像データは、主として指の方向、即ち、前方の部分は確実に明白な黒の状態となる、また、後方の一部まだらな部分も、黒い領域で完全に囲まれるということが分かる。本実施形態は、この特徴を有効活用して、このOR影領域画像データから二つの指の位置を検出するものである。
次に、第2の画像処理部64は、OR影領域画像データを基にさらに画像処理を行い、指示座標データとタッチ判定データとを算出するために、2つの点P1、P2を算出する。図8は、第2の画像処理部64におけるOR影領域画像データから指示座標データ及びタッチ判定データを算出する処理に係る構成を示す図である。図9は、図8に示した各構成において生成される画像データを示す図である。図8においても、図7と同様に、直感的にわかるように、各画像データを反転して影が黒く表現されるようにして示している。図8において、第2の画像処理部64の入力画像データはOR影領域画像データKGである。
図8に示すように、第2の画像処理部64は、孤立領域除去フィルタ641、凹形状除去フィルタ642、凸形状除去フィルタ643、凸形状除去フィルタ644及び指抽出論理フィルタ645を備える。
孤立領域除去フィルタ641は、入力画像データ(OR影領域画像データ)KGの図7で説明した曖昧な部分に基づく孤立領域を除去し、画像データKG1を出力する。凹形状除去フィルタ642は、画像データKG1におけるシャープに凹んだ部分を埋めて滑らかにした画像データKG2を出力する。凸形状除去フィルタ(1)643は、画像データKG2のシャープにとがった部分を取り除き滑らかにした画像データKG3を出力する。凸形状除去フィルタ(2)644は、画像データKG3の指に相当する程度の空間周波数の飛び出し部分を除去した画像データKG4を出力する。指抽出論理フィルタ645は、指の付いた画像データKG3から指の取り除かれた画像データKG4を除くことにより指の部分を抽出した指画像データKG5を出力する。なお、指抽出論理フィルタ645の論理式は、次の式6である。
KG5=(KG3)Λ(KG4)・・・式6
孤立領域除去フィルタ641、凹形状除去フィルタ642及び凸形状除去フィルタ(1)643は、指形状を検出する上でのノイズを除去する役割を担っている。凸形状除去フィルタ(2)644は、指部分を一旦削除することにより、指抽出論理フィルタ645に入力する画像データKG4を出力する役割を担っている。凹形状除去フィルタ642、凸形状除去フィルタ(1)643及び凸形状除去フィルタ(2)644はいずれも、領域拡張フィルタと領域縮小フィルタとの組み合わせで構成される領域拡縮フィルタである。
次に、図10を参照しながら、上述した領域拡張フィルタ及び領域縮小フィルタについて説明する。領域拡張フィルタは、所定のタップ数の参照範囲を定義し、その範囲に元の領域(図10内の斜線で表示)が一画素でも含まれている場合に、その参照範囲の全画素を元の領域と同じ輝度とする。上記処理は、参照範囲を画面全体又は所定の領域内を画素単位のステップでスキャンして順番に処理される。領域縮小フィルタは、所定のタップ数の参照範囲を定義し、その範囲に元の領域(図10内の斜線で表示)の外側の領域が一画素でも含まれている場合にその参照範囲の全画素を該外側の領域と同じ輝度とする。参照領域は、画面全体又は所定の領域内を画素単位のステップでスキャンして順番に処理される。領域拡張フィルタを先にかけて、その次に同一タップ数の領域縮小フィルタを掛けると、領域の凹み部分を埋めることが可能である。タップ数が大きければ大きい凹みに対して、タップ数が小さければ細かい凹みに対してそれを埋める効果がある。一方、領域縮小フィルタを先にかけて、その次に同一タップ数の領域拡張フィルタを掛けると、領域の凸部分を削除することが可能である。タップ数が大きければ大きい凸に対して、タップ数が小さければ細かい凸に対してそれを削除することができる。
本実施形態では、凹形状除去フィルタ642における、領域拡張フィルタ(1)6421と領域縮小フィルタ(1)6422とは、同一タップ数でTp1=10としている。凸形状除去フィルタ(1)643における、領域縮小フィルタ(2)6431と領域拡張フィルタ(2)6432とも同一タップ数でTp2=10としている。ここで、Yp1とTp2とを必ずしも同じ値にする必要はない。
凸形状除去フィルタ(2)644においては、指抽出論理フィルタ645でマスクするときにノイズを残さないため、画像データKG4を若干大きくする必要がある。このため、領域縮小フィルタ(3)6441のタップ数をTP3_1=40、領域拡張フィルタ(3)6442のタップ数Tp3_2=50とする。
Tp1、Tp2、Tp3_1、Tp3_2は、取り扱う影の大きさ、取得された画像データの画素分解能等でアプリケーション毎に最適化することにより、安定した指検出を行うことが可能である。また、演算時間及び実装コストよりも性能を重視する場合、凸形状除去フィルタ及び凹形状除去フィルタは、一段ではなく何段か重ねてもよい。また、タップ数を適切に選ぶことにより、より優れた画像処理を実現することができる。
図11に示すように、第2の画像処理部64は、指画像データKG5からP1、P2を算出する。P1、P2は、例えば夫々の指像(突起物)における両端点が算出され、そのなかで画像データKG4の重心から離れた方を選択する等して算出される。dは、P1とP2との距離である。ここで、d1を座標入力の有無を判定するための第1の閾値とし、d2をタッチダウンの有無を判定するための第2の閾値とする。
d1<dである場合、図3の座標・タッチ状態送信部66は何も送信しない。
d2<d≦d1である場合、座標・タッチ状態送信部66は、「タッチダウンなし」のタッチ判定データとともに座標値P0を示す指示座標データを送信する。
d≦d2である場合、座標・タッチ状態送信部66は、「タッチダウンあり」のタッチ判定データとともに座標値P0を示す指示座標データを送信する。
次に、本発明の第2の実施形態について説明する。図12は、第2の実施形態に係る画像投影システムの構成を示す図である。図12に示すように、第2の実施形態に係る画像投影システムは、第1の実施形態に係る画像投影システムの第1〜第4の投光装置2〜5とは異なる位置に、第1〜第4の投光装置14〜17を配置したものであり、それ以外は、第1の実施形態に係る画像投影システムと同様の構成である。このような第1〜第4の投光装置14〜17の配置とすることにより、図6に示す第1の実施形態とは異なる態様の影画像データから、適切な影画像データを選択することができる。
次に、本発明の第3の実施形態について説明する。図13は、第3の実施形態に係る画像投影システムの構成を示す図である。図13に示すように、第3の実施形態に係る画像投影システムは、第1の実施形態に係る画像投影システムよりも多く投光装置を配置するとともに、第1の実施形態に係る画像投影システムより左右方向における投光装置の配置幅を広くしたものであり、それ以外は、第1の実施形態に係る画像投影システムと同様の構成である。従って、図6に示す第1の実施形態とは異なる態様であって、且つ、第1の実施形態より候補数の多い影画像データから適切な影画像データを選択することができる。即ち、第3の実施形態では、第1の実施形態より多彩な影画像データから、適切な影画像データを選択することが可能となる。
次に、本発明の第4の実施形態について説明する。図14は、第4の実施形態に係る画像投影システムの構成を示す図である。図14に示すように、第4の実施形態に係る画像投影システムは、撮像装置28、29を複数備えており、それ以外は、第1の実施形態に係る画像投影システムと同様の構成である。本実施形態においては、撮像装置28、29と投光装置24〜27とが概ねプロジェクタ6の画像投影部7の近傍に配置される必要があるが、投光装置24〜27同士、又は、投光装置24〜27と撮像装置28、29とが一定の距離だけ離れる必要がある。これは、図6に示すように、適切な影画像データの選択対象となる影画像データ群に十分特徴を持たせるためである。特に、投光装置24〜27と撮像装置28、29との距離に関しては、第1〜第3の実施形態の構成における指示部材では不十分な場合、又は、十分距離のとれる指示部材では大きすぎて見苦しい、或いは邪魔になるような場合に、本実施形態は好適である。
本実施形態においては、例えば図6のp01のような投光パターンにおいては、撮像装置29を選択し、同様に図6のp02のような投光パターンにおいては、撮像装置28を選択する。これにより、支持部材62は上下寸法が第1の実施形態の支持部材13の半分で済み、装置としてスリムなものとなる。また、4つの投光部の中央に撮像装置を設置する必要がないので、支持部材62は第1の実施形態の支持部材13のように中央に橋渡し部分を作る必要がなく、プロジェクタ6とともに設置する場合に、配置の自由度が大きくなる。
図15は、第4の実施形態に係る画像投影システムの処理を示すフローチャートである。なお、図15のステップS208〜S213は、図5のステップS108〜S113と同様の処理であるため、説明を省略する。
ステップS201において、撮像装置28及び撮像装置29は、第1〜第4の投光装置2〜5によって投光されていない状態で撮影処理を実行する。ステップS202において、撮像装置28及び撮像装置29は、手による指示入力が行われていない状態であって、且つ、第1〜第4の投光パターンで第1〜第4の投光装置2〜5により投光された状態で撮影処理を実行する。ステップS103において、第1の画像処理部63は、ステップS201で撮影された画像データと、ステップS202で撮影された、第1〜第4の投光パターンに対応する各画像データとの差分をとることにより、8つのリファレンス画像データを生成する。
ステップS204において、撮像装置28及び撮像装置29は、第1〜第4の投光装置2〜5によって投光されていない状態で撮影処理を実行する。ステップS205において、撮像装置28及び撮像装置29は、手による指示入力が行われている状態であって、且つ、第1〜第4の投光パターンで第1〜第4の投光装置2〜5により投光された状態で撮影処理を実行する。ステップS206において、第1の画像処理部63は、ステップS204で撮影された画像データと、ステップS205で撮影された第1〜第4の投光パターンに対応する各画像データとの差分をとることにより、8つの影画像データを生成する。ステップS207において、第1の画像処理部63は、ステップS206により生成された8つの影画像データから、一組(2つ)の影画像データを選択する。以降、図5のステップS108〜S113と同様のステップS208〜S213が実行される。
次に、本発明の第5の実施形態について説明する。図16は、第5の実施形態に係る画像投影システムの構成を示す図である。図16に示すように、第5の実施形態に係る画像投影システムは、第4の実施形態に係る画像投影システムから投光装置の位置を変えたものであり、それ以外は、第1の実施形態に係る画像投影システムと同様の構成である。30〜33に示すような位置に投光装置を配置することにより、第4の実施形態とは異なる態様の影画像データから、適切な影画像データを選択することができる。
次に、本発明の第6の実施形態について説明する。図17は、第6の実施形態に係る画像投影システムの構成を示す図である。図17に示すように、第6の実施形態に係る画像投影システムは、第4の実施形態に係る画像投影システムよりも多く投光装置を配置するとともに、第4の実施形態に係る画像投影システムより左右方向における投光装置の配置幅を広くしたものであり、それ以外は、第1の実施形態に係る画像投影システムと同様の構成である。従って、第6の実施形態に係る画像投影システムによれば、第4の実施形態とは異なる態様であって、且つ、第4の実施形態より候補数の多い影画像データから適切な影画像データを選択することができる。即ち、第6の実施形態では、第4の実施形態より多彩な影画像データから、適切な影画像データを選択することが可能となる。
次に、本発明の第7の実施形態について説明する。図18は、第7の実施形態に係る画像投影システムの構成を示す図である。図18に示すように、第7の実施形態に係る画像投影システムは、テーブル42上に画像を投影するタイプであるが、それ以外は、第1の実施形態に係る画像投影システムと同様の構成である。第7の実施形態に係る画像投影システムは、テーブル42上に画像を投影しつつ、その画像のメニューに対してタッチ入力ができるものであり、例えば画像中のオブジェクト43をタッチ操作で動かすことができる。本実施形態では、撮像装置1及び投影装置2〜5が設置された支持部材40とプロジェクタ6とをスタンド41に取り付けるだけで、テーブル42には特にデバイスを設置することなくタッチ入力が可能となる。
上述した実施形態においては、外乱光がある状態においても確実に影像を取得することができ、正確にタッチされた位置及びタッチダウンの有無を検出することが可能となる。また、上述した実施形態は、複数の投光装置によってスクリーンを投光した状態で撮影された画像データに基づいて、タッチされた位置及びタッチダウンの有無を検出しているため、手や腕の位置や指示がいかなる方向であっても正確な検出が可能となる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
1:撮像装置、2〜5:投光装置、6:プロジェクタ、7:画像投影部、8:スクリーン、9〜10:影像、11:手、61:制御部、62:画像データ格納部、63:第1の画像処理部、64:第2の画像処理部、65:指示座標データ・タッチ判別データ格納部、66:座標・タッチ状態送信部、67:投光駆動制御回路

Claims (12)

  1. 不可視光をスクリーンに対して投光する投光手段と、
    前記スクリーンを撮像する撮像手段であって、前記投光手段により投光される不可視光の波長成分に感度を有する撮像手段と、
    前記投光手段により前記スクリーンに不可視光が投光されていない状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在しない状態における前記撮像手段による撮像により得られた画像データと、前記投光手段により前記スクリーンに不可視光が投光されている状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在しない状態における前記撮像手段による撮像により得られた画像データとの差分をとることにより、ファレンス画像データを生成するリファレンス画像データ生成手段と、
    前記投光手段により前記スクリーンに不可視光が投光されている状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在する状態における前記撮像手段による撮像により得られた画像データと、前記投光手段により前記スクリーンに不可視光が投光されていない状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在する状態における前記撮像手段による撮像により得られた画像データとの差分をとることにより、影画像データを生成する影画像データ生成手段と、
    前記リファレンス画像データ生成手段により生成されたリファレンス画像データと前記影画像データ生成手段により生成された影画像データとを用いて、前記スクリーンに対する操作の検出を行う検出手段とを有することを特徴とする検出装置。
  2. 前記検出手段は、位置が異なる複数の投光手段により前記スクリーンに不可視光が投光されている状態における前記撮像手段による撮像に基づいて得られた画像データを用いて、前記スクリーンに対する操作の検出を行うことを特徴とする請求項1に記載の検出装置。
  3. 前記検出手段は、位置が異なる複数の撮像手段夫々による撮像に基づいて得られた複数の画像データを用いて、前記スクリーンに対する操作の検出を行うことを特徴とする請求項1又は2に記載の検出装置。
  4. 前記影画像データと前記リファレンス画像データとを用いて生成される規格化影画像データを2値化することにより、2値化画像データを生成する2値化画像データ生成手段を更に有し、
    前記検出手段は、前記2値化画像データを用いて前記スクリーンに対する操作の検出を行うことを特徴とする請求項1乃至3の何れか1項に記載の検出装置。
  5. 複数の前記2値化画像データのORをとることにより、OR影領域画像データを生成するOR影領域画像データ生成手段を更に有し、
    前記検出手段は、前記OR影領域画像データに基づいて、前記スクリーンに対する操作の検出を行うことを特徴とする請求項に記載の検出装置。
  6. 前記OR影領域画像データから二つの突起した形状の端点間の距離を算出する算出手段を更に有し、
    前記検出手段は、前記算出手段により算出された距離に基づいて、前記スクリーンに対する操作の検出を行うことを特徴とする請求項に記載の検出装置。
  7. 前記投光手段は、不可視光を前記スクリーンに対して複数の投光パターンで投光し、
    前記検出手段は、前記投光手段により不可視光が前記複数の投光パターンで投光されている状態それぞれにおける前記撮像手段による撮像に基づいて前記影画像データ生成手段により生成された複数の影画像データから選択された影画像データを用いて、前記スクリーンに対する操作の検出を行うことを特徴とする請求項乃至の何れか1項に記載の検出装置。
  8. 前記検出手段は、前記スクリーンに対する操作として、前記スクリーン上の指示位置、及び、前記スクリーンに対するタッチ操作のうちの少なくとも何れか一方を検出することを特徴とする請求項1乃至の何れか1項に記載の検出装置。
  9. 不可視光をスクリーンに対して投光する投光ステップと、
    前記投光ステップにより投光される不可視光の波長成分に感度を有する撮像手段によって前記スクリーンを撮像する撮像ステップと、
    前記投光ステップにより前記スクリーンに不可視光が投光されていない状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在しない状態における前記撮像ステップによる撮像により得られた画像データと、前記投光ステップにより前記スクリーンに不可視光が投光されている状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在しない状態における前記撮像ステップによる撮像により得られた画像データとの差分を取ることにより、リファレンス画像データを生成するリファレンス画像データ生成ステップと、
    前記投光ステップにより前記スクリーンに不可視光が投光されている状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在する状態における前記撮像ステップによる撮像により得られた画像データと、前記投光ステップにより前記スクリーンに不可視光が投光されていない状態であって、且つ、前記撮像手段と前記スクリーンとの間に前記スクリーンに対する操作を行う物体が存在する状態における前記撮像ステップによる撮像により得られた画像データとの差分をとることにより、影画像データを生成する影画像データ生成ステップと、
    前記リファレンス画像データ生成ステップにより生成されたリファレンス画像データと前記影画像データ生成ステップにより生成された影画像データとを用いて、前記スクリーンに対する操作の検出を行う検出ステップとを有することを特徴とする検出方法。
  10. 前記検出ステップは、前記投光ステップにおいて位置が異なる複数の投光手段により前記スクリーンに不可視光が投光されている状態における前記撮像ステップによる撮像に基づいて得られた画像データを用いて、前記スクリーンに対する操作の検出を行うことを特徴とする請求項に記載の検出方法。
  11. 前記検出ステップは、前記撮像ステップにおける位置が異なる複数の撮像手段夫々による撮像に基づいて得られた複数の画像データを用いて、前記スクリーンに対する操作の検出を行うことを特徴とする請求項又は10に記載の検出方法。
  12. コンピュータを請求項1乃至の何れか1項に記載の検出装置として動作させるためのプログラム。
JP2012156904A 2012-07-12 2012-07-12 検出装置、検出方法及びプログラム Expired - Fee Related JP6049334B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012156904A JP6049334B2 (ja) 2012-07-12 2012-07-12 検出装置、検出方法及びプログラム
US13/936,923 US9690430B2 (en) 2012-07-12 2013-07-08 Touch detection apparatus, touch detection method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012156904A JP6049334B2 (ja) 2012-07-12 2012-07-12 検出装置、検出方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2014021562A JP2014021562A (ja) 2014-02-03
JP2014021562A5 JP2014021562A5 (ja) 2015-08-20
JP6049334B2 true JP6049334B2 (ja) 2016-12-21

Family

ID=49913667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012156904A Expired - Fee Related JP6049334B2 (ja) 2012-07-12 2012-07-12 検出装置、検出方法及びプログラム

Country Status (2)

Country Link
US (1) US9690430B2 (ja)
JP (1) JP6049334B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6037900B2 (ja) 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置及び操作検出方法
JP6331561B2 (ja) * 2014-03-27 2018-05-30 セイコーエプソン株式会社 画像投写装置
JP6308309B2 (ja) * 2014-12-10 2018-04-11 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2016186674A (ja) 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP6477130B2 (ja) * 2015-03-27 2019-03-06 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP6631261B2 (ja) * 2016-01-14 2020-01-15 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット
JP7442940B2 (ja) * 2020-07-07 2024-03-05 アルプスアルパイン株式会社 近接検知装置

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3751763T2 (de) 1986-06-27 1996-11-14 Canon Kk Koordinateneingabegerät
US4887245A (en) 1987-04-06 1989-12-12 Canon Kabushiki Kaisha Coordinates input apparatus
JPH0614310B2 (ja) 1987-06-25 1994-02-23 キヤノン株式会社 座標入力装置
JPH0746301B2 (ja) 1987-10-28 1995-05-17 キヤノン株式会社 座標入力装置
JP2502649B2 (ja) 1988-01-28 1996-05-29 キヤノン株式会社 座標入力装置
US5070325A (en) 1988-03-18 1991-12-03 Canon Kabushiki Kaisha Coordinate input apparatus
ES2081824T3 (es) 1988-10-20 1996-03-16 Canon Kk Aparato para la introduccion de coordenadas.
JP2592972B2 (ja) 1989-12-25 1997-03-19 キヤノン株式会社 座標入力装置
JPH0475045A (ja) 1990-07-17 1992-03-10 Canon Inc 座標入力装置
JP3109826B2 (ja) 1990-10-19 2000-11-20 キヤノン株式会社 座標入力装置および座標入力方法
JP3053262B2 (ja) 1991-08-05 2000-06-19 キヤノン株式会社 座標入力装置及び方法
EP0544278B1 (en) 1991-11-27 1998-07-15 Canon Kabushiki Kaisha Coordinate input apparatus
US5565893A (en) 1993-05-07 1996-10-15 Canon Kabushiki Kaisha Coordinate input apparatus and method using voltage measuring device
JP3320138B2 (ja) 1993-05-07 2002-09-03 キヤノン株式会社 座標入力装置及び方法
JPH07141089A (ja) 1993-11-12 1995-06-02 Canon Inc 座標入力装置
JP3630712B2 (ja) 1994-02-03 2005-03-23 キヤノン株式会社 ジェスチャー入力方法及びその装置
JPH08286817A (ja) 1995-04-17 1996-11-01 Canon Inc 座標入力装置
JPH0929169A (ja) 1995-07-19 1997-02-04 Canon Inc 振動伝達板及びその製造方法及び座標入力装置
EP0762315A3 (en) 1995-09-06 2000-03-29 Canon Kabushiki Kaisha Coordinates input apparatus and its method
JPH1165748A (ja) 1997-08-22 1999-03-09 Canon Inc 座標入力装置及びセンサ装着構造及び方法
JP2000081950A (ja) 1998-07-03 2000-03-21 Sony Corp 画像処理装置、画像処理方法、及び提供媒体、並びにプレゼンテーションシステム
US7119788B2 (en) 1998-12-17 2006-10-10 Sony Corporation Image processing apparatus, image processing method, providing medium and presentation system
JP3836998B2 (ja) 1999-08-02 2006-10-25 株式会社リコー 座標検出装置
JP2001222375A (ja) * 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP3640156B2 (ja) * 2000-02-22 2005-04-20 セイコーエプソン株式会社 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP2001236179A (ja) 2000-02-22 2001-08-31 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP4708581B2 (ja) 2000-04-07 2011-06-22 キヤノン株式会社 座標入力装置、座標入力指示具及びコンピュータプログラム
US7242388B2 (en) * 2001-01-08 2007-07-10 Vkb Inc. Data input device
JP4590114B2 (ja) 2001-02-08 2010-12-01 キヤノン株式会社 座標入力装置及びその制御方法、記録媒体
JP2002312123A (ja) * 2001-04-16 2002-10-25 Hitachi Eng Co Ltd タッチ位置検出装置
US9213443B2 (en) * 2009-02-15 2015-12-15 Neonode Inc. Optical touch screen systems using reflected light
JP3952896B2 (ja) 2002-07-30 2007-08-01 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
JP2004265185A (ja) 2003-03-03 2004-09-24 Canon Inc デジタイザ付きカメラ付き画像投影装置
JP2004272353A (ja) 2003-03-05 2004-09-30 Canon Inc 座標入力装置
US7538894B2 (en) 2005-04-15 2009-05-26 Canon Kabushiki Kaisha Coordinate input apparatus, control method thereof, and program
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
JP4958497B2 (ja) 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
JP4270247B2 (ja) * 2006-08-31 2009-05-27 ソニー株式会社 表示撮像装置、物体検出プログラムおよび物体の検出方法
US8610670B2 (en) * 2006-08-31 2013-12-17 Japan Display West Inc. Imaging and display apparatus, information input apparatus, object detection medium, and object detection method
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法
KR100975869B1 (ko) * 2008-10-17 2010-08-13 삼성모바일디스플레이주식회사 터치 포인트 검출 방법 및 장치
JP5201096B2 (ja) * 2009-07-17 2013-06-05 大日本印刷株式会社 対話操作装置
JP5510907B2 (ja) 2009-12-01 2014-06-04 学校法人東京電機大学 タッチ位置入力装置及びタッチ位置入力方法
JP5460341B2 (ja) 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP2011180712A (ja) * 2010-02-26 2011-09-15 Sanyo Electric Co Ltd 投写型映像表示装置
US20110234542A1 (en) * 2010-03-26 2011-09-29 Paul Marson Methods and Systems Utilizing Multiple Wavelengths for Position Detection
TWI423096B (zh) * 2010-04-01 2014-01-11 Compal Communication Inc 具可觸控投影畫面之投影系統
JP2012133453A (ja) * 2010-12-20 2012-07-12 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP5973849B2 (ja) 2012-03-08 2016-08-23 キヤノン株式会社 座標入力装置および座標入力装置に用いられるセンサバー
JP5977544B2 (ja) 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5875445B2 (ja) 2012-03-30 2016-03-02 キヤノン株式会社 座標入力装置

Also Published As

Publication number Publication date
JP2014021562A (ja) 2014-02-03
US9690430B2 (en) 2017-06-27
US20140015950A1 (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP6049334B2 (ja) 検出装置、検出方法及びプログラム
TWI531929B (zh) 基於影像來識別觸控表面的目標接觸區域之技術
JP5680976B2 (ja) 電子黒板システム及びプログラム
JP4442877B2 (ja) 座標入力装置およびその制御方法
JP4891179B2 (ja) 座標入力装置、座標入力方法
JP6037683B2 (ja) 計測装置、計測装置の作動方法、およびプログラム
US20100090986A1 (en) Multi-touch positioning method and multi-touch screen
CN107407959B (zh) 基于姿势的三维图像的操纵
TW201101140A (en) Active display feedback in interactive input systems
EP2905680B1 (en) Information processing apparatus, information processing method, and program
JP2015526927A (ja) カメラ・パラメータのコンテキスト駆動型調整
JP5510907B2 (ja) タッチ位置入力装置及びタッチ位置入力方法
KR20110121125A (ko) 인터랙티브 디스플레이 장치 및 이의 동작 방법
JPWO2005096129A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
JP5805013B2 (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
CN109308113A (zh) 非接触式输入装置及方法、能进行非接触式输入的显示器
JP5806573B2 (ja) 座標入力装置およびその制御方法、座標入力システム
JP2017162126A (ja) 入力システム、入力方法、制御用プログラム、及び記憶媒体
JP6452658B2 (ja) 情報処理装置、およびその制御方法ならびにプログラム
JP4546224B2 (ja) 座標入力方法及びその装置
JP2019164221A (ja) プロジェクター、プロジェクションシステム、及び、指示体を検出する方法
JP5118663B2 (ja) 情報端末装置
JP2016114626A (ja) 画像表示装置
JP2016021673A (ja) 撮像装置
JP6107398B2 (ja) 検出装置及び検出プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161122

R151 Written notification of patent or utility model registration

Ref document number: 6049334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees