JP2008511069A - 半透明表面を有するスクリーンとともに使用されるユーザ入力の装置、システム、方法、およびコンピュータ・プログラム - Google Patents

半透明表面を有するスクリーンとともに使用されるユーザ入力の装置、システム、方法、およびコンピュータ・プログラム Download PDF

Info

Publication number
JP2008511069A
JP2008511069A JP2007529818A JP2007529818A JP2008511069A JP 2008511069 A JP2008511069 A JP 2008511069A JP 2007529818 A JP2007529818 A JP 2007529818A JP 2007529818 A JP2007529818 A JP 2007529818A JP 2008511069 A JP2008511069 A JP 2008511069A
Authority
JP
Japan
Prior art keywords
screen
image
detecting
light
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007529818A
Other languages
English (en)
Other versions
JP2008511069A5 (ja
Inventor
ピンハネズ、クラウディオ
ピンガリ、ゴパル
ジェルゼン、フレドリック、シー
レバス、アンソニー
ポドラセク、マーク、エドワード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2008511069A publication Critical patent/JP2008511069A/ja
Publication of JP2008511069A5 publication Critical patent/JP2008511069A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

【課題】 スクリーンの反対側を見るカメラによって生成されるイメージの処理によって、ユーザが半透明スクリーンの表面のどこにいつ触れたかの検出を可能にするユーザ・インターフェース入力の装置および方法を提供する。
【解決手段】 装置は、半透明スクリーンと、ユーザとの相互作用が行われる第2の側と反対のスクリーンの第1の側を結像するように配置された画像取込デバイスと、画像取込デバイスの出力に結合された画像プロセッサであって、スクリーンの第2の側の領域に人が接触した場所または時間のうちの少なくとも1つを、接触領域から発する光の周囲の領域に対する強度の変化によって判定するための画像プロセッサを備える。
【選択図】図1

Description

同時係属仮特許出願からの優先権の主張
本特許出願は、2004年8月27日出願の米国仮特許出願第60/605,115号からの米国特許法セクション119(e)の下での優先権を主張するものであり、この米国仮特許出願第60/605,115号の開示は、その全体が参照によって本明細書に組み込まれている。
本発明の教示は、全般的にはユーザ・インターフェース(UI)のシステムおよびデバイスに関し、より具体的には、タッチ・スクリーンを使用するUIシステムに関し、さらに具体的には、半透明のスクリーンまたはパネルを使用するUIタッチ・スクリーン・システムに関する。
半透明パネルがタイプの入力パネルまたは入力スクリーンとして好適である。たとえば、米国特許第6414672 B2号、"Information Input Apparatus" by Rekimoto et al.を参照することができる。
一般に、タッチ・スクリーンを作成するのに使用される伝統的な技法は、スクリーンに電気感知型の1以上のガラスをオーバーレイすることによる。しかし、この手法は、破壊行為および他の要因の可能性のゆえに、店頭などの戸外ディスプレイに適してはおらず、さらに、大型スクリーンとして使用される場合に非常に高価である。
もう1つの手法では、スクリーンの片側にLEDまたは類似するデバイスなどの発光素子を設け、スクリーンの反対側に光を感知する要素を設ける。手の相互作用が、特定のLEDが発する光を塞ぐことによって検出される。しかし、この手法は、店頭のガラスの外側にLEDまたは光感知アレイのうちの少なくとも1つを設ける必要があり、これらが破壊行為にさらされるという不利益がある。
同様に、レーザスキャンおよびドップラ・レーダーをスクリーンのフロント側に設置して、ユーザとの相互作用を判定することができるが、類似する不利益を有する。たとえば、"Sensor Systems for Interactive Surfaces", J. Paradiso, K.Hsiao, J. Strickon, J. Lifton, and A. Adler, IBM Systems Journal, Volume 39,Nos. 3 & 4, October 2000, pp. 892-914、および"The Magic Carpet: PhysicalSensing for Immersive Environments", J. Paradiso, C. Abler, KY. Hsiao, M.Reynolds, in Proc. of the CHI '97 Conference on Human Factors in ComputingSystems, Extended Abstracts, ACM Press, NY, pp. 277-278(1997)を参照することができる。
ガラス・ウィンドウとともに使用されるもう1つの技法は、マイクロホンおよびサウンド三角測量を使用して、ユーザがガラスをノックした時を判定する。この方法は、"Passive Acoustic Sensing for Tracking Knocks Atop LargeInteractive Displays", Joseph A. Paradiso, Che King Leo, Nisha Checka,Kaijen Hsiao, in the 2002 Proceedings of the 2002 IEEE International Conferenceon Sensors, Volume 1, Orlando, Florida, June 11-14, 2002, pp. 521-527に記載されている。この手法の潜在的な不利益に、センサをウィンドウに直接に接触させ、それらに配線を走らせる必要と、ガラスなどの固い表面の必要とが含まれる。具体的に言うと、この手法は、柔らかいプラスチックの背面投影スクリーンとともに使用するのには適さない。
米国仮特許出願第60/605,115号 米国特許第6414672 B2号 米国特許第6431711 B1号 "Sensor Systems forInteractive Surfaces", J. Paradiso, K. Hsiao, J. Strickon, J. Lifton, andA. Adler, IBM Systems Journal, Volume 39, Nos. 3 & 4, October 2000, pp.892-914 "The Magic Carpet: PhysicalSensing for Immersive Environments", J. Paradiso, C. Abler, KY. Hsiao, M.Reynolds, in Proc. of the CHI '97 Conference on Human Factors in ComputingSystems, Extended Abstracts, ACM Press, NY, pp. 277-278(1997) "Passive Acoustic Sensing forTracking Knocks Atop Large Interactive Displays", Joseph A. Paradiso, CheKing Leo, Nisha Checka, Kaijen Hsiao, in the 2002 Proceedings of the 2002 IEEEInternational Conference on Sensors, Volume 1, Orlando, Florida, June 11-14,2002, pp. 521-527
カメラを使用して、半透明画像を用いてユーザとの相互作用を検出することができる。カメラが、ユーザと同じ側に置かれている場合には、普通のコンピュータ・ビジョン・ジェスチャ認識技法を使用して、相互作用を検出することができる。しかし、この状況では、破壊行為の可能性ならびに適当な位置にカメラを取り付けることの難しさの問題が、明瞭な不利益である。
半透明表面のリア側にカメラを置き、その結果、このカメラを破壊行為から簡単に保護できるようにすることが好ましいはずである。しかし、そのような状況では、このカメラによって取り込まれるユーザの画像が、極端にぼける可能性があり、これによって、伝統的なジェスチャ認識技法の使用が不可能になる。上で注記したRekimoto他の手法では、カメラおよびプロジェクタが、IRフィルタを取り付けられる必要があり、赤外線照明も必要である。この方法の重要な不利益は、店頭ウィンドウが直射日光にさらされる場合など、半透明スクリーンがかなりの量の環境赤外線光にさらされる状況で使用できないことである。
本願の譲受人に譲渡された米国特許第6431711 B1号、"Multiple-Surface Display Projector with Interactive InputCapability", by Claudio S. Pinhanezも参照することができる。
これらの教示の現在の好ましい実施形態に従って、前述および他の問題が克服され、他の利益が実現される。
本発明の実施形態は、情報入力装置、方法、コンピュータ・プログラムおよびプログラム担体を提供する。この装置は、半透明スクリーンと、ユーザとの相互作用が行われる第2の側と反対の前記スクリーンの第1の側を結像するように配置された画像取込デバイスと、前記画像取込デバイスの出力に結合された画像プロセッサであって、前記スクリーンの前記第2の側の領域に人が接触した場所または時間のうちの少なくとも1つを、前記接触領域から発する光の周囲の領域に対する強度の変化によって判定するための画像プロセッサを備える。
本発明の実施形態によるユーザ入力を検出する方法は、ユーザとの相互作用が行われる第2の側と反対のスクリーンの第1の側を結像するように配置された画像取込デバイスを有する半透明のスクリーンを有するシステムを設けることを含む。この方法は、スクリーンの第2の側の領域に人が接触した場所または時間のうちの少なくとも1つを、接触領域から発する光の周囲の領域に対する強度の変化を検出することによって判定するステップを含む。
さらに、本発明の実施形態によれば、ユーザ入力を検出する動作を実行するためにディジタル処理装置によって実行可能な機械可読命令のプログラムを有形に実施する信号担持媒体が提供される。この動作は、ユーザとの相互作用が行われる第2の側と反対のスクリーンの第1の側を結像するように配置された画像取込デバイスを有する半透明のスクリーンを有するシステムを設けることに応答して、人がスクリーンの第2の側の領域に接触する場所および時のうちの少なくとも1つを、触れられる領域から発する光の、囲む領域に対する強度の変化を検出することによって判定することを含む。
さらに、本発明の実施形態によれば、半透明の半透明スクリーンと、ユーザがスクリーンに接触する第2の側と反対のスクリーンの第1の側を結像するように配置された画像取込デバイスと、スクリーンの第1の側を照明し、第1の側と第2の側との間の照明差を提供するように配置された少なくとも1つの光源と、ユーザがスクリーンの第2の側の領域に接触する場所および時のうちの少なくとも1つを、触れられる領域から発する光の、囲む領域に対する強度の変化によって判定するために、画像取込デバイスの出力に結合された画像プロセッサとを含む、タッチ・スクリーン・システムが提供される。スクリーンの第2の側の入射光が、スクリーンの第1の側の入射光より明るい場合には、スクリーンとの接触点の画像が、シルエット化され、囲む領域より暗く見え、スクリーンの第1の側の入射光が、スクリーンの第2の側の入射光より明るい場合には、スクリーンとの接触点の画像が、明るくされ、囲む領域より明るく見える。
これらの教示の前述のおよび他の態様は、添付図面とともに読まれる時に、以下の好ましい実施形態の詳細な説明でより明白になる。
図1に、2つの入力の状況の下でのユーザ入力システム10の現在の好ましい実施形態の基本構造を示す。ユーザ入力システム10には、半透明のスクリーン12と、本明細書では便宜上スクリーン12の「リア」側と呼ばれる第1の側12Aに配置されたカメラ14などの画像取込デバイスとが含まれる。ユーザは、本明細書において便宜上スクリーン12の「フロント」側と呼ばれるスクリーン12の第2の側12Bに相対的に置かれると仮定する。スクリーン12のリア側12Aを照らすように配置された少なくとも1つのリア光源16と、おそらくは、スクリーン12のフロント側12Bを照らすように配置された少なくとも1つのフロント光源18とがある。カメラ14から画像データ出力を受け取るように配置された、メモリ22を有するデータ・プロセッサ20があると仮定する。データ・プロセッサ20は、独立型のPCまたはカメラ14に組み込まれたプロセッサとすることができ、カメラ14と同一の位置に置くか、カメラ14から離して置くことができる。カメラ14とデータ・プロセッサ20との間のリンク21は、ローカル配線とすることができ、あるいは、有線接続および/または無線接続を含むことができ、リンク21の少なくとも一部を、インターネットなどのデータ通信ネットワークを介して伝えることができる。メモリ22は、カメラ14から受け取られる生の画像データならびに処理された画像データを保管することができ、図3に示され下で説明される論理流れ図を実施する処理を実行するようにデータ・プロセッサ20に指示するように動作可能なコンピュータ・プログラムも保管することができる。メモリ22は、任意の適当な形をとることができ、半導体ベースのメモリ媒体および回転式ディスク・ベースのメモリ媒体を含む、固定式および/または取り外し可能のメモリ・デバイスおよびメモリ媒体を含むことができる。
データ・プロセッサ20は、(カメラ14の出力がディジタル出力でない場合に)カメラ14によってキャプチャされた各フレームをディジタル化し、保管することができる。以下で説明するように、データ・プロセッサ20は、図3に示された処理に従って2つの連続するフレームを比較することによって、イメージの処理も行う。スクリーン12の片側または両側での光環境の変化がある場合があるが、スクリーン12とのユーザ接触によって引き起こされる変化は、通常は非常に強く、明瞭に画定された境界を示す。閾値処理などのコンピュータ・ビジョン技法を使用することによって、(直接にあるいはポインタもしくはスタイラスまたは何らかの他の物体の使用を介してのいずれかで)ユーザがスクリーンに接触(タッチ)することによって引き起こされる特有の変化を検出することが可能になる。
スクリーン12は、たとえば、壁、床、ウィンドウ、または家具の表面を形成することができ、あるいは、その一部とすることができる。スクリーン12は、平坦、曲面、または互いに隣接するか互いから分離された複数の表面からなるようにすることができる。スクリーン12は、たとえば、ガラスまたはポリマから構成することができる。ユーザ入力の検出は、スクリーン12のフロント、リア、またはこれに近接して配置された物体に関連付けることができる。
本発明の現在の好ましい実施形態の説明のために、スクリーン12の少なくとも1つの表面などの半透明表面は、光を透過させるが、光線の十分な散乱を引き起こして、見る人が、その表面を通して見られる物体の明確な画像を知覚しないようにすると同時に、見る人が、その表面を通して見られる物体の色および輪郭を区別できるようにする。スクリーン12は、本明細書では、半透明である少なくとも1つの主要な表面を有する限り、「半透明スクリーン」に含まれる。
本発明の実施形態によれば、ある入力シナリオ(状況A)で、ユーザの手は、スクリーン12、具体的にはフロント側12Bに接触しないと仮定される。状況Aでは、カメラ14に来る破線A1は、カメラ14によって見られるユーザの指の画像(点A)から入来する光の主方向に対応する。半透明のスクリーン12上の原点に達する破線は、フロント光源18から入来する光に対応する。状況Aでのスクリーンのリア側12Aの点Aでの光は、フロント光源18から入来する光とリア光源16から入来する光の合計であり、このフロント光源18から入来する光は、この場合の半透明効果に起因して、スクリーン12のリア側12Aで複数の方向に均一に散乱される。その代わりに、リア光源16からの光はスクリーン12によって反射される。したがって、状況Aでは、ユーザの指の位置(点A)に対応する、カメラ14によって得られる画像は、フロント光源18(この場合には散乱される)とリア光源16(反射される)の両方からの寄与を含む。
第2の入力シナリオ(状況B)では、ユーザの手(たとえば、ユーザの人差し指の指先)が、スクリーン12のフロント側12Bに接触していると仮定される。状況Bでは、ユーザの指の接触点(点B)からカメラ14に来る線は、点Bからカメラのアパーチャに入来する光の主方向に対応する。ユーザの指は、半透明のスクリーン12と接触しているので、フロント光源18から発する光は、指先によって塞がれ、スクリーン12のフロント側12Bに達しない。したがって、状況Bでのスクリーン12のリア側12Aの点Bでの光は、リア光源16だけから来、リア側12Aから反射された光とユーザの指先の皮膚によって反射された光との合計に対応する。したがって、状況Bでは、カメラ14によって得られる、ユーザの指の位置(点B)に対応する画像は、リア光源16から入来する光の反射だけに起因する。点Bの周囲の領域内の、ユーザの指によって覆われる点は、点Aと類似する特性を有する(すなわち、カメラ14に達する光は、フロント光源18とリア光源16の両方から発する光である)ことがわかる。
スクリーン12上の点Aおよび/または点Bの正確な位置は、カメラ14座標からスクリーン12座標への変換からたやすく判定することができる。
したがって、本発明の一態様は、ユーザ入力を検出する動作を実行するためにディジタル処理装置によって実行可能な機械可読命令のプログラムを有形に実施する信号担持媒体であることを諒解されたい。この動作には、ユーザとの相互作用が行われる第2の側と反対のスクリーンの第1の側を結像するように配置された画像取込デバイスを有する半透明のスクリーンを有するシステムを設けることに応答して、人がスクリーンの第2の側の領域に接触する場所および時のうちの少なくとも1つを、触れられる領域から発する光の、囲む領域に対する強度の変化を検出することによって判定することが含まれる。
図2に、ユーザがスクリーン12に接触する時に、フロント光源18とリア光源16との間の差分に従ってカメラ14によって得られるイメージの例を示す。フロント光源18がリア光源16より明るい場合に対応する、画像の上の行(2Aと示されている)に示されているように、スクリーン12に接触することによって、接触点に暗い領域が作られる。フロント光源18は、リア光源16より明るいので、接触している状況は、接触点でのユーザの指の皮膚をフロント光源18の影響から覆い隠す。この状況では、ユーザの指は、リア光源16から入来する光だけを反射し、この光は、フロント光源18より暗く、これによって、指先のシルエット効果が生じる。画像の第2の下側の行(2Bと示されている)は、リア光源16がフロント光源18より明るい、反対の効果を示す。この状況では、指がスクリーン12に接触する時に、その指は、リア光源16から生じる光のほとんどを反射し、この光はフロント光源18より明るいので、指の画像は、カメラ14からはより明るく見える。図2の最後(右端)の列は、同一の行の2つの前の画像の間の絶対差を示す。たやすくわかるように、各行の2つの前の画像の間の最大の絶対差は、正確にフロント側12Bのユーザが接触する点で発生する。
図3に、1以上のユーザが順次または同時のいずれかでスクリーン12に接触する状況を検出する方法の1サイクルを示す論理流れ図を示す。この論理流れ図は、図1のデータ・プロセッサ20によって実行されるプログラム・コードを表現している。この手順は、カメラ14によって作られたビデオ・ストリームの1つのディジタル化されたフレームをグラブすること(110)によって開始される(010)。カメラのビデオ出力がアナログ形式である場合には、アナログ・ビデオ信号が、この点でディジタル化されることが好ましい。次のステップでは、グラブされたフレームを、前のサイクルにキャプチャされたフレーム(100)から画素ごとに減算して(120)、差分画像を作る。これに続く計算を単純にするために、本発明の非限定的な実施形態は、各画素の差分の絶対値を使用する。差分画像をスキャンし、最大の値を有する画素を検出し、メモリ22に保管されたデータ構造内で一緒にクラスタ化する(130)。そのようなクラスタが見つからない場合に(140)、この手順は、終了にジャンプし、次のサイクルで前のフレーム(100)として使用するために現在のフレームを保存し(160)、このサイクルを完了する(300)。大きい差分値の少なくとも1つのクラスタが見つかる場合に(140)、この手順は、各検出されたクラスタを別々に検査する(150)。クラスタごとに、この手順は、現在のクラスタ・データおよび前のクラスタ・データ(210)のいずれかまたは両方を考慮して、タッチ・イベントを生成することが適当であるかどうかを判定する(200)。この評価には、大きい差分値画素のクラスタのサイズの判定と、大きい差分値画素のクラスタの形状の判定とのうちの1つまたは複数を含めることができるが、もちろんこれらに限定はされない。クラスタが、イベントの生成に適当であることがわかった場合には、この手順は、検出されたタッチ・イベントを生成し、クライアント・アプリケーションまたはシステムにディスパッチする(220)。タッチ・イベントを生成(220)した後に、または、クラスタがタッチ・イベントの生成に適当でないと思われる場合((200)からのNo経路)に、この手順は、将来のサイクルでの使用(210)のためにクラスタ・データを保存する(230)。すべてのクラスタを検査(150)した後に、この手順は、次のサイクルで使用するために現在のフレームを保存し(160)、現在のサイクルを完了する(300)。
本発明の非限定的な態様は、スクリーン12を通過するフロント光源18からの光の量が、皮膚によって反射されるリア光源16からの光の量と異なると仮定する。そうでない場合に、変化は、コンピュータ・ビジョン・システムによって検出可能ではない。しかし、両方の光レベルが類似する状況が、まれに発生し、フロント光またはリア光の量を増やすことによって補償することができる。具体的に言うと、フロント光源18をリア光源16より明るくすることが好ましいことがわかっている。
図2の議論で注記したように、スクリーン12のリア側12Aを通過する前で生成された光の量が、リア側表面から反射されるリア光より多い場合に、フロント側12Bとのユーザの接触点が、シルエット化され、暗い点が作成される(行2A)。画像ストリームの連続するフレーム(たとえば、毎秒30枚のレートで生成されるフレーム)の差分をとることによって、データ・プロセッサ20は、ユーザがスクリーン12に接触した時を検出でき、接触の持続時間も検出することができる。接触の瞬間に、光の差分のゆえに、画像に著しく不連続な変化があることに留意されたい。反対の状況すなわち、ユーザの指の皮膚によって反射されるリア光が、フロント光源18からリア側12Aを通過する光より明るい場合(行2B)に、やはり、接触の瞬間の画像に明瞭な変化を観察することができる。
図3で説明した手順では、画像ディファレンシング(image differencing)と呼ばれるものなど、比較的基本的なコンピュータ・ビジョン法を使用することができる。画像ディファレンシングの使用の1つの非限定的な利益は、手順が、スクリーン12のフロント側12Bに対する、および環境照明の漸次の変化に対するユーザの動きに対応しやすいことである。しかし、ユーザがスクリーンに接触する時以外のスクリーン12の後画像の変化がほとんどない、もう1つの実施形態では、バックグラウンド除去法に基づく方法論を使用することができる。この場合に、表面の画像は、ユーザとの相互作用がないことがわかっている状況(たとえば、較正フェーズ中)で撮影される。この基準画像が、次に、カメラ14によってディジタル化された各フレームと比較される。ユーザがフロント側12Bに接触する時に、強い光の変化が、接触点で発生する(前に説明したように)。この場合に、スクリーン12に接触しているユーザの手の動きを追跡すること、ならびにユーザがどれほど長くスクリーン12に接触するかを検出することが可能である。類似する手法は、統計的技法を使用して基準画像をゆっくりと更新して、環境および照明条件の変化に対処することができる。
本発明のもう1つの実施形態は、スクリーン12の半透明表面を、スライド・プロジェクタ、ビデオ・プロジェクタ、または照明器具などの投影システムと組合せ、その表面を対話型グラフィカル・ディスプレイに変換する。そのような実施形態では、前述の動作が、それでも有効である。というのは、フロント光源18が、投影される画像よりかなり明るい場合に、リア側12Aのカメラ14から撮影される画像が、実質的に投影によって影響されないからである。したがって、ユーザの手の接触点は、それでも、データ・プロセッサ20ビジョン・システムによって検出可能な強いシルエットを生成する。しかし、背面投影される画像が、リア側12Aを通過するフロント光よりかなり明るい場合には、投影される画像の変化が、フロント側12Bとのユーザの接触として誤って認識され得る状況がありえる。しかし、この潜在的な問題に対する解決策がある、すなわち、a)相互作用の領域を、投影されるイメージから解放することができ、コンピュータ・ビジョン・システムに、これらの領域だけでの相互作用を探すように指示することができ、b)差分パターンの形状を、コンピュータ・ビジョンおよびパターン認識方法(統計的方法および学習ベースの方法を含む)によって分析することができ、特定の種類のユーザとの相互作用(指で触ることなど)に似た形状だけが、受け入れられる。この後者の解決策は、上で図2および3に関して説明した一般的な事例での検出性能を改善するのに使用することもできる。
もう1つの実施形態で、複数のユーザが、ユーザ入力システム10を同時に使用することができ、あるいは、両手で相互作用することができる。接触点が適度に離れている限り、図3で説明した手順は、スクリーン12のフロント側12Bとの接触の複数の領域を検出する。
本発明のもう1つの実施形態で、データ・プロセッサ20は、スクリーン12のフロント側12Bまたはリア側12Aでの光源レベルを監視する少なくとも1つの光センサ(光センサ)24を備えて、この2つの側面の間の照明の差の量を判定する。この実施形態は、さらに、データ・プロセッサ20がリア光源16およびフロント光源18の一方または両方の輝度を制御することを可能にし、その結果、輝度の差を制御できるようにすることによって機能を向上することができる。光源制御は、図1では、データ・プロセッサ20からリア光源16への線26によって示されている。
一般に、光センサ24は、環境光レベルの差を判定して、ユーザ入力システム10が使用可能であることを保証するために、および/またはスケール・ファクタもしくはある他のパラメータとしての画像処理アルゴリズムへの入力として、使用することができる。光センサ24は、データ・プロセッサ20またはある他のネットワーク・デバイスに結合され、その結果、画像処理アルゴリズムが、ユーザ入力システム10がある期待される性能レベルで動作するのに十分な環境光差があるかどうかを自動的に判定するために環境光レベルを得られるようにすることが好ましい。半透明のスクリーン12のフロント側またはリア側からの光レベルを増減する能力があることが好ましい。この場合に、データ・プロセッサ20に、輝度制御26を設けることができる。光センサ24および輝度制御26は、データ・プロセッサ20がスクリーン12のフロント側またはリア側の輝度レベルを変更できるような形で一緒に使用できることが好ましい。
もう1つの実施形態で、システムが、カメラ14および/またはプロジェクタを複数のスクリーン12のそれぞれに伴うように向けることができると仮定して、複数のスクリーン12および単一のカメラ14またはプロジェクタ/カメラ・システムを有するシステムを使用することができる。この場合に、複数のスクリーン12を、順次または同時のいずれかで、単一の光源によってまたは複数の光源によって照射することができる。
前述の説明に基づいて、本発明が、その一態様において、カメラ14と、カメラ14からの画像ストリームを処理するデータ・プロセッサ20とを使用する、半透明表面を有するスクリーン12の入力の装置および方法を提供することを諒解されたい。カメラ14は、スクリーン12の、ユーザ入力システム10の1以上のユーザと反対側に置かれる。表面が半透明なので、ユーザおよびその手の画像が、激しくぼける可能性がある。しかし、ユーザがフロント側12Bに接触する時に、その表面上の接触点の画像は、表面の両側からの入射光の間の差によって、表面の残りよりかなり明るいまたはかなり暗いのいずれかになる。ユーザの側の入射光が、カメラ側より明るい場合には、接触点は、シルエット化され、したがって、かなりより暗いものとなる。ユーザの側の入射光が、カメラ側より暗い場合には、表面と接触するユーザの皮膚が、カメラ側から入来する光を反射し、したがって、接触点は、背景よりかなり明るいものとなる。ユーザが表面に接触した時間を検出するために、画像ディファレンシング技法を使用することができる。この非限定的な場合に、連続するフレームが、互いから減算され、ユーザが表面に接触した時に、接触点での輝度のかなりの差を、閾値処理機構によってまたは動き検出アルゴリズムによってたやすく検出できるようになっている。この装置および方法は、スクリーン12の異なる領域での複数同時の相互作用が互いに適度に離れている限り、これらの相互作用に対処する。
本発明の少なくとも1つの実施形態で、リア光源16だけを設けることができ、フロント光源18を、環境照明(たとえば、日中の太陽光および夜の街路照明)だけによって提供できることに留意されたい。この場合に、スクリーン12のフロント側12Bでの照明の変化するレベルに対処するために、リア光源の輝度に対する輝度制御26を設けることが望ましい可能性がある。
さらに、本発明の少なくとも1つの実施形態で、ユーザ入力システム10によって検出されるユーザ入力を使用して、半透明のスクリーン12に投影されるイメージを制御できることに留意されたい。
さらに、本発明の少なくとも1つの実施形態で、ユーザ入力システム10によって検出されるユーザ入力を、指または手など、特定の身体部分あるいは義肢を認識するためにデータ・プロセッサ20によって使用できることに留意されたい。
本発明の実施形態による装置および方法は、普通の技法に対する複数の利益を有する。たとえば、本発明による実施形態は、ユーザに関してスクリーン12の反対側に配置されたカメラ14によって撮影される画像を使用する。したがって、本発明は、カメラ14などのシステム・ハードウェアを環境の影響から保護することが望まれる、店頭および類似の状況で使用することができる。
本発明の実施形態による装置および方法は、サウンド、レーザー、ドップラ・レーダー、およびLEDアレイに基づく通常の方法およびシステムと異なって、1以上のユーザによる複数同時入力をも可能にする。
さらに、本発明の実施形態による装置および方法は、IRフィルタまたは特殊な照明を必要としない。したがって、より単純で安価なユーザ入力システムが実現可能となり、このシステムは、店頭が直射日光にさらされる時など、スクリーン12が相当量の赤外線光にさらされる状況でも使用することができる。
タッチベースの入力装置を示す単純化されたシステム・レベル・ブロック図である。 異なる前後の環境光条件の下での画像差分処理の結果を示す図である。 タッチ・イベント検出画像処理手順の1サイクルを示す論理流れ図である。

Claims (35)

  1. 半透明スクリーンと、
    ユーザとの相互作用が行われる第2の側と反対の前記スクリーンの第1の側を結像するように配置された画像取込デバイスと、
    前記画像取込デバイスの出力に結合された画像プロセッサであって、前記スクリーンの前記第2の側の領域に人が接触した場所または時間のうちの少なくとも1つを、前記接触領域から発する光の周囲の領域に対する強度の変化によって判定するための画像プロセッサと、
    を備える、情報入力装置。
  2. 前記画像プロセッサが、画像ディファレンシング技法を使用する、請求項1に記載の情報入力装置。
  3. 前記画像プロセッサが、バックグラウンド除去技法を使用する、請求項1に記載の情報入力装置。
  4. 前記スクリーンの前記第1の側を照射するように配置された少なくとも1つの光源をさらに備える、請求項1に記載の情報入力装置。
  5. 前記スクリーンの前記第2の側を照射するように配置された少なくとも1つの光源をさらに備える、請求項4に記載の情報入力装置。
  6. 前記スクリーンの前記第2の側の入射光が前記スクリーンの前記第1の側の入射光より明るい場合に、前記スクリーンとの接触領域の画像がシルエット化されて前記周囲の領域より暗く見え、前記スクリーンの前記第1の側の入射光が前記スクリーンの前記第2の側の入射光より明るい場合に、前記スクリーンとの前記接触領域の画像が明るくされて前記周囲の領域より明るく見える、請求項1に記載の情報入力装置。
  7. 前記画像プロセッサが、前記スクリーンの前記第1の側の第1の画像を前記スクリーンの前記第1の側の第2の画像と比較することによって前記接触領域の位置を検出する、請求項6に記載の情報入力装置。
  8. 前記画像プロセッサが、前記スクリーンの前記第1の側の第1の画像を前記スクリーンの前記第1の側の第2の画像と比較することによって前記接触時間を検出する、請求項6に記載の情報入力装置。
  9. 単一のカメラによって順次または同時のうちのいずれかでサービスされる複数のスクリーンがある、請求項1に記載の情報入力装置。
  10. 前記スクリーンが、イメージング・デバイスによって生成される投影されるイメージを表示するように配置される、請求項1に記載の情報入力装置。
  11. ユーザとの相互作用が行われる第2の側と反対の前記スクリーンの第1の側を結像するように配置された画像取込デバイスを有する半透明のスクリーンを有するシステムにおいて、ユーザ入力を検出する方法であって、
    前記スクリーンの前記第2の側の領域に人が接触した場所または時間のうちの少なくとも1つを、前記接触領域から発する光の周囲の領域に対する強度の変化を検出することによって判定するステップを含む、方法。
  12. 検出することが、画像ディファレンシング技法を使用する、請求項11に記載の方法。
  13. 検出することが、バックグラウンド除去技法を使用する、請求項11に記載の方法。
  14. 前記スクリーンの前記第1の側を照射するように配置された少なくとも1つの光源を設けることをさらに含む、請求項11に記載の方法。
  15. 前記スクリーンの前記第2の側を照射するように配置された少なくとも1つの追加光源を設けることをさらに含む、請求項14に記載の方法。
  16. 前記スクリーンの前記第2の側の入射光が、前記スクリーンの前記第1の側の入射光より明るい場合に、検出することは、前記スクリーンとの前記接触点の画像が、シルエット化され、前記囲む領域より暗く見えることを検出し、前記スクリーンの前記第1の側の入射光が、前記スクリーンの前記第2の側の入射光より明るい場合に、検出することは、前記スクリーンとの前記接触点の画像が、明るくされ、前記囲む領域より明るく見えることを検出する、請求項11に記載の方法。
  17. 検出することが、前記スクリーンの前記第1の側の第1の画像を前記スクリーンの前記第1の側の第2の画像と比較することによって前記接触点の位置を検出する、請求項16に記載の方法。
  18. 検出することが、前記スクリーンの前記第1の側の第1の画像を前記スクリーンの前記第1の側の第2の画像と比較することによって前記接触の時間を検出する、請求項16に記載の方法。
  19. 設けられ、単一のカメラによって順次または同時にサービスされる複数のスクリーンがある、請求項11に記載の方法。
  20. イメージング・デバイスによって生成される投影されるイメージを前記スクリーンに表示することをさらに含む、請求項11に記載の方法。
  21. 前記スクリーンの前記第2の側への入射光と前記スクリーンの前記第1の側への入射光との間の差分を検出するステップと、前記検出された差を使用して少なくとも1つの光源の前記輝度を制御するステップと、をさらに含む、請求項11に記載の方法。
  22. ユーザ入力を検出する動作を実行するためにディジタル処理装置によって実行可能な機械可読命令のプログラムを有形に実施する信号担持媒体であって、前記動作が、ユーザとの相互作用が行われる第2の側と反対の前記スクリーンの第1の側を結像するように配置された画像取込デバイスを有する半透明のスクリーンを有するシステムを設けることに応答して、人が前記スクリーンの前記第2の側の領域に接触する場所および時のうちの少なくとも1つを、前記触れられる領域から発する光の、囲む領域に対する強度の変化を検出することによって判定することを含む、信号担持媒体。
  23. 検出することが、画像ディファレンシング技法を使用する、請求項22に記載の信号担持媒体。
  24. 検出することが、バックグラウンド除去技法を使用する、請求項22に記載の信号担持媒体。
  25. 設けることが、さらに、前記スクリーンの前記第1の側を照射するように配置された少なくとも1つの光源を設ける、請求項22に記載の信号担持媒体。
  26. 設けることが、さらに、前記スクリーンの前記第2の側を照射するように配置された少なくとも1つの追加光源を設ける、請求項25に記載の信号担持媒体。
  27. 前記スクリーンの前記第2の側の入射光が、前記スクリーンの前記第1の側の入射光より明るい場合に、検出することは、前記スクリーンとの前記接触点の画像が、シルエット化され、前記囲む領域より暗く見えることを検出し、前記スクリーンの前記第1の側の入射光が、前記スクリーンの前記第2の側の入射光より明るい場合に、検出することは、前記スクリーンとの前記接触点の画像が、明るくされ、前記囲む領域より明るく見えることを検出する、請求項22に記載の信号担持媒体。
  28. 検出することが、前記スクリーンの前記第1の側の第1の画像を前記スクリーンの前記第1の側の第2の画像と比較することによって前記接触点の位置を検出する、請求項27に記載の信号担持媒体。
  29. 検出することが、前記スクリーンの前記第1の側の第1の画像を前記スクリーンの前記第1の側の第2の画像と比較することによって前記接触の時間を検出する、請求項27に記載の信号担持媒体。
  30. 設けられ、単一のカメラによって順次または同時にサービスされる複数のスクリーンがある、請求項22に記載の信号担持媒体。
  31. イメージング・デバイスによって生成される投影されるイメージを前記スクリーンに表示することをさらに含む、請求項22に記載の信号担持媒体。
  32. 前記スクリーンの前記第2の側への入射光と前記スクリーンの前記第1の側への入射光との間の差を検出することと、少なくとも1つの光源の前記輝度を制御するのに前記検出された差を使用することとをさらに含む、請求項22に記載の信号担持媒体。
  33. 半透明スクリーンと、
    ユーザが前記スクリーンに接触する第2の側と反対の前記スクリーンの第1の側を結像するように配置された画像取込デバイスと、
    前記スクリーンの前記第1の側を照明し、前記第1の側と前記第2の側との間の照明差を提供するように配置された少なくとも1つの光源と、
    前記ユーザが前記スクリーンの前記第2の側の領域に接触する場所および時のうちの少なくとも1つを、前記触れられる領域から発する光の、囲む領域に対する強度の変化によって判定するために、前記画像取込デバイスの前記出力に結合された画像プロセッサであって、前記スクリーンの前記第2の側の入射光が、前記スクリーンの前記第1の側の入射光より明るい場合に、前記スクリーンとの前記接触点の画像が、シルエット化され、前記囲む領域より暗く見え、前記スクリーンの前記第1の側の入射光が、前記スクリーンの前記第2の側の入射光より明るい場合に、前記スクリーンとの前記接触点の画像が、明るくされ、前記囲む領域より明るく見える、画像プロセッサと
    を含む、タッチ・スクリーン・システム。
  34. 前記スクリーンが、ウィンドウの少なくとも一部を含み、前記第2の側が、前記ウィンドウの戸外側である、請求項33に記載のタッチ・スクリーン・システム。
  35. 前記スクリーンの前記第2の側での照明の量の関数として照明の前記少なくとも1つの源の前記輝度レベルを調整する光源制御をさらに含む、請求項34に記載のタッチ・スクリーン・システム。
JP2007529818A 2004-08-27 2005-04-15 半透明表面を有するスクリーンとともに使用されるユーザ入力の装置、システム、方法、およびコンピュータ・プログラム Pending JP2008511069A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US60511504P 2004-08-27 2004-08-27
US10/981,151 US20060044282A1 (en) 2004-08-27 2004-11-03 User input apparatus, system, method and computer program for use with a screen having a translucent surface
PCT/US2005/013041 WO2006025872A2 (en) 2004-08-27 2005-04-15 User input apparatus, system, method and computer program for use with a screen having a translucent surface

Publications (2)

Publication Number Publication Date
JP2008511069A true JP2008511069A (ja) 2008-04-10
JP2008511069A5 JP2008511069A5 (ja) 2008-05-22

Family

ID=35942390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007529818A Pending JP2008511069A (ja) 2004-08-27 2005-04-15 半透明表面を有するスクリーンとともに使用されるユーザ入力の装置、システム、方法、およびコンピュータ・プログラム

Country Status (7)

Country Link
US (1) US20060044282A1 (ja)
EP (1) EP1782415A2 (ja)
JP (1) JP2008511069A (ja)
KR (1) KR20070045188A (ja)
CN (1) CN101385069B (ja)
TW (1) TW200608294A (ja)
WO (1) WO2006025872A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8319749B2 (en) 2007-02-23 2012-11-27 Sony Corporation Image pickup apparatus, display-and-image-pickup apparatus and image pickup processing apparatus
JP2014535096A (ja) * 2011-10-07 2014-12-25 クアルコム,インコーポレイテッド 視覚ベースの対話式投影システム

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8508710B2 (en) * 2004-12-02 2013-08-13 Hewlett-Packard Development Company, L.P. Display panel
US7853041B2 (en) * 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
US10026177B2 (en) * 2006-02-28 2018-07-17 Microsoft Technology Licensing, Llc Compact interactive tabletop with projection-vision
JP4797752B2 (ja) * 2006-03-31 2011-10-19 株式会社デンソー 移動体用操作物体抽出装置
US20080096651A1 (en) * 2006-07-28 2008-04-24 Aruze Corp. Gaming machine
US9348463B2 (en) * 2006-08-03 2016-05-24 New York University Retroreflection based multitouch sensor, method and program
JP4747232B2 (ja) * 2006-09-06 2011-08-17 独立行政法人産業技術総合研究所 小型携帯端末
FR2911204B1 (fr) * 2007-01-09 2009-02-27 Sagem Defense Securite Procede de traitement d'une image d'une empreinte.
KR100887093B1 (ko) * 2007-05-25 2009-03-04 건국대학교 산학협력단 테이블탑 컴퓨팅 환경을 위한 인터페이스 방법
US8094137B2 (en) * 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
US8125458B2 (en) * 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
US8581852B2 (en) 2007-11-15 2013-11-12 Microsoft Corporation Fingertip detection for camera based multi-touch systems
US8698753B2 (en) 2008-02-28 2014-04-15 Lg Electronics Inc. Virtual optical input device with feedback and method of controlling the same
KR101606834B1 (ko) * 2008-07-10 2016-03-29 삼성전자주식회사 움직임과 사용자의 조작을 이용하는 입력장치 및 이에적용되는 입력방법
KR101012081B1 (ko) * 2008-09-11 2011-02-07 건국대학교 산학협력단 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템 및 방법
DE112008003983T5 (de) * 2008-09-15 2011-07-21 Hewlett-Packard Development Co., L.P., Tex. Berührungsbildschirmanzeige mit mehreren Kameras
US8421747B2 (en) * 2008-09-24 2013-04-16 Microsoft Corporation Object detection and user settings
US20100079385A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for calibrating an interactive input system and interactive input system executing the calibration method
US20100079409A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Touch panel for an interactive input system, and interactive input system incorporating the touch panel
US20100083109A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for handling interactions with multiple users of an interactive input system, and interactive input system executing the method
US8810522B2 (en) * 2008-09-29 2014-08-19 Smart Technologies Ulc Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method
US8433138B2 (en) * 2008-10-29 2013-04-30 Nokia Corporation Interaction using touch and non-touch gestures
BRPI1006911A2 (pt) * 2009-01-05 2016-02-16 Smart Technologies Ulc método de reconhecimento de gestos e sistema de entrada interativo empregando o mesmo
CA2707950A1 (en) * 2009-06-15 2010-12-15 Smart Technologies Ulc Interactive input system and components therefor
WO2011003171A1 (en) * 2009-07-08 2011-01-13 Smart Technologies Ulc Three-dimensional widget manipulation on a multi-touch panel
CA2772424A1 (en) * 2009-09-01 2011-03-10 Smart Technologies Ulc Interactive input system with improved signal-to-noise ratio (snr) and image capture method
US8816991B2 (en) * 2009-10-02 2014-08-26 Dedo Interactive, Inc. Touch input apparatus including image projection
JP5493702B2 (ja) * 2009-10-26 2014-05-14 セイコーエプソン株式会社 位置検出機能付き投射型表示装置
JP5326989B2 (ja) * 2009-10-26 2013-10-30 セイコーエプソン株式会社 光学式位置検出装置および位置検出機能付き表示装置
KR100974894B1 (ko) * 2009-12-22 2010-08-11 전자부품연구원 멀티 적외선 카메라 방식의 3차원 공간 터치 장치
US8502789B2 (en) * 2010-01-11 2013-08-06 Smart Technologies Ulc Method for handling user input in an interactive input system, and interactive input system executing the method
US9720525B2 (en) * 2011-06-29 2017-08-01 Wen-Chieh Geoffrey Lee High resolution and high sensitivity optically activated cursor maneuvering device
US9195127B1 (en) 2012-06-18 2015-11-24 Amazon Technologies, Inc. Rear projection screen with infrared transparency
US9262983B1 (en) * 2012-06-18 2016-02-16 Amazon Technologies, Inc. Rear projection system with passive display screen
KR101400575B1 (ko) * 2012-10-09 2014-05-30 한경대학교 산학협력단 거울 반사 효과를 이용한 공간 베젤 인터페이스 방법 및 그 장치
EP2733657A1 (de) * 2012-11-19 2014-05-21 CSS electronic AG Vorrichtung zur Eingabe von Daten und/oder Steuerbefehlen
US9329727B2 (en) * 2013-12-11 2016-05-03 Microsoft Technology Licensing, Llc Object detection in optical sensor systems
US9430095B2 (en) 2014-01-23 2016-08-30 Microsoft Technology Licensing, Llc Global and local light detection in optical sensor systems
JP6623812B2 (ja) * 2016-02-17 2019-12-25 セイコーエプソン株式会社 位置検出装置、及び、そのコントラスト調整方法
US11158220B2 (en) * 2018-12-10 2021-10-26 Universal City Studios Llc Interactive animated protection window with haptic feedback system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240501A (ja) * 2003-02-03 2004-08-26 Ricoh Co Ltd 表示装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7084859B1 (en) * 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US7098891B1 (en) * 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6532152B1 (en) * 1998-11-16 2003-03-11 Intermec Ip Corp. Ruggedized hand held computer
US6545670B1 (en) * 1999-05-11 2003-04-08 Timothy R. Pryor Methods and apparatus for man machine interfaces and related activity
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6654070B1 (en) * 2001-03-23 2003-11-25 Michael Edward Rofe Interactive heads up display (IHUD)
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240501A (ja) * 2003-02-03 2004-08-26 Ricoh Co Ltd 表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8319749B2 (en) 2007-02-23 2012-11-27 Sony Corporation Image pickup apparatus, display-and-image-pickup apparatus and image pickup processing apparatus
JP2014535096A (ja) * 2011-10-07 2014-12-25 クアルコム,インコーポレイテッド 視覚ベースの対話式投影システム
US9626042B2 (en) 2011-10-07 2017-04-18 Qualcomm Incorporated Vision-based interactive projection system

Also Published As

Publication number Publication date
EP1782415A2 (en) 2007-05-09
WO2006025872A2 (en) 2006-03-09
WO2006025872A3 (en) 2008-11-20
TW200608294A (en) 2006-03-01
CN101385069B (zh) 2011-01-12
US20060044282A1 (en) 2006-03-02
CN101385069A (zh) 2009-03-11
KR20070045188A (ko) 2007-05-02

Similar Documents

Publication Publication Date Title
JP2008511069A (ja) 半透明表面を有するスクリーンとともに使用されるユーザ入力の装置、システム、方法、およびコンピュータ・プログラム
US20070063981A1 (en) System and method for providing an interactive interface
JP4668897B2 (ja) タッチスクリーン信号処理
US5936615A (en) Image-based touchscreen
JP3968477B2 (ja) 情報入力装置及び情報入力方法
JP5950130B2 (ja) カメラ式マルチタッチ相互作用装置、システム及び方法
US8085243B2 (en) Input device and its method
US8115753B2 (en) Touch screen system with hover and click input methods
US8847924B2 (en) Reflecting light
US7593593B2 (en) Method and system for reducing effects of undesired signals in an infrared imaging system
TWI450159B (zh) Optical touch device, passive touch system and its input detection method
US20110032215A1 (en) Interactive input system and components therefor
US20060028442A1 (en) Cursor control device
EP2353069A2 (en) Stereo optical sensors for resolving multi-touch in a touch detection system
JP2006031275A (ja) 座標入力装置およびその制御方法
JP2000506643A (ja) スクリーンと物体の接触点を決定する方法及びそのシステム
TW201421322A (zh) 混合式指向裝置
WO2011098654A1 (en) Interactive display
US9104270B2 (en) Video system having a touch screen
JP4570145B2 (ja) 位置検出平面外に撮像部を有する光学式位置検出装置
TW201128455A (en) Signaling device position determination
JP4687820B2 (ja) 情報入力装置及び情報入力方法
EP3973376A1 (en) System for detecting interactions with a surface
JPH05298016A (ja) グラフィックス用入力機器
KR101481082B1 (ko) 투과 스크린을 이용한 적외선 터치 시스템 및 그 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308