JP2006048650A - 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム - Google Patents

赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム Download PDF

Info

Publication number
JP2006048650A
JP2006048650A JP2005176633A JP2005176633A JP2006048650A JP 2006048650 A JP2006048650 A JP 2006048650A JP 2005176633 A JP2005176633 A JP 2005176633A JP 2005176633 A JP2005176633 A JP 2005176633A JP 2006048650 A JP2006048650 A JP 2006048650A
Authority
JP
Japan
Prior art keywords
image capture
light source
image
infrared light
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005176633A
Other languages
English (en)
Other versions
JP2006048650A5 (ja
Inventor
Andrew D Wilson
ディー.ウィルソン アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006048650A publication Critical patent/JP2006048650A/ja
Publication of JP2006048650A5 publication Critical patent/JP2006048650A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Input (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 赤外線光源を用いる画像システムにおいて、不要赤外線の影響を低減させる。
【解決手段】 必要赤外線光源が活性化され、画像データの第1組が第1の画像キャプチャ区間中に獲得される。その後、必要赤外線光源が非活性化され、画像データの第2組が第2の画像キャプチャ区間中に獲得される。その後、画像データの第2組の第2値に対応する画像データの第1組の第1値から減じることで画像データの合成組が生成される。これにより、IR光路から信号の発生しない減算された画像からIR光源から発生する信号と、他のIR信号との両方を含み、IR光源からだけ生じる信号を含むデータを除く全赤外線信号のデータが収集される画像組を画像データの合成組が含む。
【選択図】 図6

Description

本発明は、主に能動赤外線(IR)画像作成、特に能動IR光源からの画像データの質を改善するため、関心領域における意図しない不要IR光源から受信されるIR信号を取り除くことに関する。
不要信号の有無は、ほとんどあらゆる電磁信号の処理における関心事である。ラジオといった比較的単純なシステムにおいても、当該信号が受信されていない際に聞こえる不要な背景空電雑音を避けるようある大きさ未満の信号を減衰させるため、スケルチ制御が行われることが多い。何が不要な背景空電雑音になるかはユーザが判断するものであり、ユーザは、その判断に基づいて受信信号の可聴性を制限するようスケルチ制御を設定できる。
コンピュータが自動的に入力信号に応答する自動信号処理システムには、さらに難しい問題がある。上述のスケルチ制御の例と異なり、ユーザが経験と判断に基づいてスケルチレベルを調節できる場合、必要な信号タイプと不要な信号タイプとを区別するため自動的に制限値を設定するようコンピュータシステムのプログラムを行うことは、さらに困難である。例えば、コンピュータは、キーボード、ポインティング装置やそれに類する入力装置からの明確な入力に対しては良好に応答するが、音声命令に対しては十分に応答しない。音声認識プログラムを用いた人は、ユーザが用いたある言葉に対してコンピュータが認識に失敗した場合の難しさを経験したことがあるが、コンピュータが感知する音声入力に影響を与える背景雑音あるいはその他の音声がある場合、こういったケースはさらに多くなる。
コンピュータビジョンには、概して音声認識よりもはるかに複雑な問題がある。コンピュータが処理すべき視覚信号が多すぎる、あるいは視覚信号の範囲が広すぎる場合、入力がコンピュータで誤って読み込まれる恐れが大きくなる。一方、コンピュータが視覚信号の抑制を行いすぎると、コンピュータが視覚入力を誤って読み込む、あるいは意図された視覚入力を全て無視してしまう可能性がある。
現行のコンピュータビジョンは、コンピュータやそのインタフェースをさらにユーザが使いやすくする必要性が高まるにつれて徐々に重要な領域になりつつある。例えば、『メタデスク:有形ユーザインタフェースのためのモデルおよびプロトタイプ』UIST10/1997:14−17でブリグ・ウルマーおよびヒロシ・イシイが報告しているとおり、MITメディア研究室が『キーボードのない』ヒューマンマシンインタフェースの新たな形態を開発した。メタデスクには、一般的に、計算システムのテキストおよび図形出力を表示するだけでなく、図形面に設置された対象を『見て』それに応じることでユーザの入力を受け入れる平面図形面を含む。メタデスクの図形面の合成対象応答性および表示性は、メタデスク面の下部に配設されたIRランプ、IRカメラ、ビデオカメラ、ビデオプロジェクタ、鏡を用いて容易になる。図形表示面上部からユーザが見ることのできる画像をもたらすため、鏡は図形表示面の下部にプロジェクタで映し出された図形画像を反射する。IRカメラは、図形面に設置された対象下面からのIR反射を検出することができる。図形表示面に配設される対象から特別に形成された対象あるいはIR反射光を『見て』それを検出することにより、メタデスクは表示面上の対象の同時設置や移動に応答し、MITのキャンパス地図を表示させて移動させるといった所定機能を実行することができる。
その他、同様のキーボードのないインタフェースが開発されている。例えば、株式会社ソニー・コンピュータ・サイエンス研究所のジュン・レキモトとその関係者による論文では、表面に画像を表示する『ホロウォール』や『ホロテーブル』および表面に隣接して設置された対象を検出するためのIR光線について説明している。
メタデスクおよびホロウォール/ホロテーブルは両方とも対象および動きを見るためにIR光線を用いるが、それには十分な理由がある。システムが可視光線に対して反応すれば、システムで投影され対話面で反射された可視光線によりコンピュータシステムが誤った読み込みを行う恐れがある。さらに、反射が抑えられたとしても、システムが暗い部屋におかれない限り、対話面を通過する部屋の光やその他の光により、コンピュータビジョンシステムにかなりの悪影響をもたらす恐れがある。
対話表示面に設置された対象を検出するために反射IR光線を用いることにより、いたるところにある可視光線を用いて対象を認識しようとする試みで発生する問題の多くを避けることができる。しかし、大部分の光源で生成される光線のIR成分について大まかにわかるようになってきたが、裸眼で見ることができないことから、コンピュータビジョンシステムに悪影響をもたらす周囲IR光線信号も非常に一般的なものである。白色光、太陽光、さらにその他のさまざまな一般的光源もIR光線を発生させる。こういった意図されないIR信号は、意図されない可視光線信号とまったく同様に、IR感知式コンピュータビジョンシステムに望ましくない入力をもたらしうる。帯域フィルタを用いれば可視光線や他の非IR光線をおさえることができるが、背景IR光線から検出される対象から反射されるIR光線を分離する際には役に立たない。
いくつかの文献に上述のような従来の技術に関連した技術内容が開示されている(例えば、特許文献1参照)。
米国特許第4,992,650号明細書
そのため、IR光線ビジョンシステムが外部のIR光線信号に反応することを防ぐため、意図しない不要なIR光線のフィルタリング、マスクを行う、あるいはその影響を低減させることが必要である。IRコンピュータビジョンシステムを全ての背景IR光源からの遮蔽を行う環境下で作動させることなく、対象検出時に不要背景IR光線の影響を避ける必要がある。
本発明は、このような状況に鑑みてなされたもので、その目的とするところは、能動IR光源からの画像データの質を改善する、赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステムを提供することにある。
本発明のさらに重要な機能の1つは、IR画像システムにおいて、太陽光、白色光、その他のIR光源などの周囲光源を含む不要IR光源の影響を低減させることである。画像データは、IR画像システムで制御されるIR光源が活性化されている場合と、それが活性化されていない場合の両方で獲得される。制御されたIR光源が非活性化されている際に収集される画像データは、不要IR光源による画像データである。これにより、IR光源が活性化されている際に収集された画像データ組からIR光源が非活性化されている際に収集された画像データ組を画素に関して減算することにより、得られた合成画像データ組が、制御されたIR光源で生成された照射による画像データだけを含む。
本発明の1つの観点は、このように、IR光源を用いる画像システムにおける不要IR光源の影響を低減させるための方法に関する。IR光源は第1の画像キャプチャ区間中で活性化され、画像データの第1組が第1の画像キャプチャ区間中に獲得される。その後、IR光源が非活性化され、画像データの第2組が第2の画像キャプチャ区間中に獲得される。その後、画像データの第2組の第2値に対応する画像データの第1組の第1値から減じることで画像データの合成組が生成される。
本発明の1つの実施形態において、画像キャプチャ装置で生成される画像キャプチャ信号によりIR光源を第1の画像キャプチャ区間中で活性化し、第2の画像キャプチャ区間中で非活性化するようIR光源の活性化が画像キャプチャ装置で制御される。
IR光源は透光面の第1面に配設される。その結果、IR光源が、透光面の反対側に隣接配設される対象物にIR光線を向ける。IR光源のような画像キャプチャ装置は透光面の第1面に配設され、対象物により反射されたIR光源で発せられたIR光線を獲得するために用いられる。
画像処理システムは、対象物の特性を認識するため、画像データの合成組において対象物で反射される光線を用いる。この方法において、画像データの第1組の第1値は、IR光源が活性化されている際に第1の画像キャプチャ区間で透光面の第1面にわたる複数点のそれぞれに対して獲得されるIR光線の強度を示す。この画像データ組の第2値は、IR光源が非活性化されている際に第2の画像キャプチャ区間で透光面の第1面にわたる複数点のそれぞれに対して獲得されるIR光線の強度を示す。
本発明の1つの実施形態において、合成画像データは式:
D(x,y)=ION(x,y)−IOFF(x,y)
で決められ、
ここで:
・x,yは、透光面の第1面のある点の座標位置を示し;
・ION(x,y)は、点x,yにおける第1の画像キャプチャ区間中で検出されるIR光線の強度を示し;
・IOFF(x,y)は、点x,yにおける第2の画像キャプチャ区間中で検出されるIR光線の強度を示し;
・D(x,y)は、第2の画像キャプチャ区間中において点x,yで獲得されるIR光線の強度が、第1の画像キャプチャ区間中において点x,yで獲得されるIR光線の強度から減算される際の点x,yにおけるIR光線の正味強度を示す。
生成される画像データの合成組は画像処理システムに送られる。ここで、対象物で反射されるIR光線は、対象物の特性を認識するために用いられる。さらに、好ましくは、プロジェクタが透光面の第1面に設置され、このプロジェクタを透光面の反対側に画像を示すために用いることが可能である。透光面の反対側にある対象物は、このように、その上で示される画像と相互作用が可能である。
本発明の前述の観点および付随する多数の利点については、添付される図面と連係させた、以下の詳細な説明を参照することでさらによく理解されることがすぐに認められるであろう。
以下、図面を参照して本発明を適用できる実施形態を詳細に説明する。
本発明を実施するための例示的なコンピューティングシステム
図1を参照すると、本発明のさまざまな部分を実行する際に適した代表的システムが示されている。このシステムは、プロセッサ21、システムメモリ22、システムバス23とともに従来型PC(personal computer)20形態の汎用計算装置を含む。システムバスは、システムメモリを含むさまざまなシステム構成要素をプロセッサ21に結合し、メモリバスあるいはメモリ制御装置、周辺バス、さまざまなバス構成のいずれかを用いるローカルバスを含む複数タイプのバス構造のいずれかである。システムメモリには読出専用メモリ(ROM)24やランダムアクセスメモリ(RAM)25がある。起動中といったPC20内の要素間で情報を転送する際に助けとなる基本ルーチンを含む基本入出力システム26(BIOS)がROM24に保存される。パソコン20にはさらに、(図示されていない)ハードディスクからの読み込みやそこへの書き込みを行うためのハードディスクドライブ27、リムーバブル磁気ディスク29からの読み込み、あるいはそこへの書き込みを行うための磁気ディスクドライブ28、コンパクトディスク読出専用メモリ(CD−ROM)あるいは他の光媒体といったリムーバブル光ディスク31からの読み込み、あるいはそこへの書き込みを行うための光ディスクドライブ30が含まれる。ハードディスクドライブ27、磁気ディスクドライブ28、光ディスクドライブ30は、ハードディスクドライブインタフェース32、磁気ディスクドライブインタフェース33、光ディスクドライブインタフェース34によりそれぞれシステムバス23に結合される。ドライブと、関連するコンピュータ読み込み可能媒体により、PC20に対するコンピュータ読み込み可能マシン命令、データ構造、プログラムモジュール、他のデータの非揮発性保存が行われる。ここで説明された典型的環境ではハードディスク、リムーバブル磁気ディスク29、リムーバブル光ディスク31を用いているものの、磁気カセット、フラッシュメモリカード、デジタルビデオディスク(DVD)、ベルヌーイカートリッジ、RAM、ROM等のコンピュータでアクセス可能なデータやマシン命令を保存することのできる他のタイプのコンピュータ読み込み可能媒体を、典型的作動環境でも用いることができることを当業者であれば認めるであろう。
オペレーティングシステム35、1つ以上のアプリケーションプログラム36、他のプログラムモジュール37、プログラムデータ38を含む多数のプログラムモジュールが、ハードディスク、磁気ディスク29、光ディスク31、ROM24あるいはRAM25で保存される。ユーザは、PC20に命令や情報を入力し、キーボード40やポインティング装置42といった入力装置を通して制御入力を行う。ポインティング装置42にはマウス、スタイラス、ワイヤレスリモコン、その他のポインタがあるが、ユーザが入力および制御に対して対話表示を用いることができるため、本発明に関しては、そのような従来型ポンティング装置をなくすことができる。これ以降、『マウス』という用語は、スクリーン上のカーソル位置を制御する上で有用な、実質的にあらゆるポンティング装置を含むと意図される。(図示されていない)他の入力装置には、マイク、ジョイスティック、触覚ジョイスティック、ヨーク、フットペダル、ゲームパッド、衛星ディスク、スキャナ等が含まれる。これらの、そして、さらに他の入出力(I/O)装置が、システムバス23に結合されたI/Oインタフェース46を通してプロセッサ21に結合されることが多い。I/Oインタフェースという用語は、特にシリアルポート、パラレルポート、ゲームポート、キーボードポート、および/またはユニバーサルシリアルバス(USB)に対して用いられる各インタフェースを含むよう意図される。システムバス23はまた、カメラインタフェース59に接続されており、このカメラインタフェースは、以下に説明するとおり内部に含まれるデジタルビデオカメラからの信号を受信するため対話ディスプレイ60に結合されている。代わりにデジタルビデオカメラは、USBバージョン2.0ポートといった適当なシリアルI/Oポートに結合される。オプションとして、モニタ47はビデオアダプタ48といった適当なインタフェース経由でシステムバス23に接続可能である;しかし、本発明の対話ディスプレイテーブルにより、さらに詳細な表示を行い、ユーザに対して情報入力やソフトウェアアプリケーションの制御のための対話を行わせることができるため、ビデオアダプタと結合されることが好ましい。PCは、スピーカ(音声カードあるいは他の音響インタフェース図示されていない)やプリンタといった(図示されていない)他の周辺出力装置に結合されることが多いということが認められるであろう。
PC20は、リモートコンピュータ49といった1つ以上のリモートコンピュータへの論理結合を用いるネットワーク環境で作動するものの、本発明は単体のマシン上でも実行できる。リモートコンピュータ49は、他のPC、(典型的には、PC20と非常に似た形で一般的に構成される)サーバ、ルータ、ネットワークPC、ピアデバイス、衛星あるいは他の共通ネットワークノードであり、典型的には、PC20に関して上述の要素の多く、あるいはその全てを含むものであるが、図1では外部メモリ記憶装置50だけが示されている。図1に示される論理結合にはローカルエリアネットワーク(LAN)51やワイドエリアネットワーク(WAN)52が含まれる。このようなネットワーク環境は、事務所、全社的コンピュータネットワーク、イントラネット、インターネットでは普通のものである。
LANネットワーク環境で用いられる場合、PC20はネットワークインタフェースあるいはアダプタ53経由でLAN51に結合される。WANネットワーク環境で用いられる場合、PC20は、典型的には、モデム54、あるいはケーブルモデム、デジタル加入者回線(DSL)インタフェースといった他の手段、インターネットのような、WAN52上での通信を確立するための統合サービスデジタルネットワーク(ISDN)インタフェースを含む。内部あるいは外部にあるインターネットモデム54は、システムバス23に接続される、あるいは、I/O装置インタフェース46、すなわちシリアルポートを通してバスに結合される。ネットワーク環境において、PC20で使用されるプログラムモジュール、あるいはその一部がリモートメモリストレージ装置内に保存される。ここで示されたネットワーク接続は代表的なものであり、無線通信広帯域ネットワークリンクといったコンピュータ間で通信リンクを確立するための他の手段も使われるということが認められよう。
例示的な対話面
図2において、代表的な対話ディスプレイテーブル60が示されているが、これはフレーム62内にPC20を含んでおり、コンピュータ用の光入力とビデオディスプレイ装置との両方に対して機能する。この対話ディスプレイテーブルの断面図では、テキストおよび図形画像を表示するために用いられる光線が、一般的に点線で示されており、対話ディスプレイテーブルの表示装置64a上、あるいはそのすぐ上に置かれた対象を検出するために用いられる赤外(IR)光線が一点鎖線を用いて示されている。表示面64aは対話ディスプレイテーブルの上面64内に設定される。テーブル面の周囲は、表示面64aに表示されている図形画像あるいは仮想環境との相互作用のために用いられる対象を含む、ユーザの腕や他の対象を支持するために有用である。
IR光源66は、好ましくは複数のIR発光ダイオード(LED)を含み、フレーム62の内側に設けられる。IR光源66で生成されるIR光線は、点線78a,78b,78cで示されるとおり、表示面64aの下部に向けて上方に向けられている。IR光源66からのIR光線は、光拡散性の、ベラム(上質皮紙)あるいは他の適当な半透明材料を備えるテーブルの半透明層64bを通過後に表示面の上あるいはその近傍にある任意の対象から反射される。1つのIR光源66だけが示されているものの、フレーム62の内側付近の離れた場所に複数のIR光源が設けられ、表示面64aの均等照射を行うことが認められるであろう。IR光源で生成される赤外線は:
・点線78aで示されるとおり、対象を照射することなくテーブル面を通して抜け出る;
・点線78bで示されるとおり、テーブル面の対象を照射する;
・あるいは、点線78cで示されているとおり、テーブル面上の少し離れたところにあってそれに接触しない対象を照射する。
表示面64a上の対象は、表示面上にある『接触』対象76aと、表示面近くにあってそれには実際に接触しない『ホバー』対象76bとを含む。表示面を通過するIR光線を拡散させるための表示面下部の半透明層64bを用いた結果、対象が表示面64aの最上部に近づくにつれ、対象で反射されるIR光線量が増加し、対象が実際に表示面と接触するとIR光線量が最大レベルに達する。
デジタルビデオカメラ68は、表示面64a上に配設される接触対象あるいはホバー対象から反射されるIR光線を受信する上で適した位置の表示面64下部のフレーム62に設けられる。デジタルビデオカメラ68は、点線84aに沿って表示面64aを通過するIR光線だけを通して周辺可視光線をブロックするIR帯域フィルタ86aを備える。IR光源から直接発せられるIR光線がデジタルビデオカメラに入ることを防ぐため、IR光源66とデジタルビデオカメラとの間にバッフル79が配設される。これは、デジタルビデオカメラが、表示面64aのすぐ上、あるいはそれに接触する対象からの反射IR光線にだけ反応し、表示面に、あるいはその上にある対象からの反射IR光線の画像に応じた出力信号を生成する必要があるためである。デジタルビデオカメラ68が、対話ディスプレイ内部の上から、あるいはその中へ表示面64aを通して通過する周辺光線に含まれる任意のIR光線(例えば、点線84aで示される経路を同様に通る周辺IR光線)にも反応することは明らかである。
テーブル面上あるいはその上部から反射されるIR光線は:
・一点鎖線80aおよび80bで示されるとおり、半透明層64bを通って、IR帯域フィルタ86aを通って、デジタルビデオカメラ68のレンズに反射して戻され;または、
・一点鎖線80cで示されるとおり、デジタルビデオカメラ68のレンズに入ることなく対話ディスプレイ内の他の内面で反射あるいは吸収される。
半透明層64bは入射IR光線と反射IR光線との両方を拡散させる。これにより、上で説明したとおり、表示面64aに近い方の『ホバー』対象は、表示面からもっと離れた同じ反射率の対象よりもデジタルビデオカメラ68にIR光線を多く反射する。デジタルビデオカメラ68は、画像部内の『接触』および『ホバー』対象からのIR光線を検出し、各対象の場所、さらにオプションとして、対象の大きさ、向き、形状を判定する処理のためPC20に入力される反射IR光線の画像に対応するデジタル信号を生成する。(ユーザの前腕といった)対象の一部はテーブルの上部にあり、(ユーザの指といった)他の部分は表示面に接触していることに注意するべきである。さらに、対象は、対象、あるいは対象が一部を占める関連対象のクラスに特定の底面にIR光線反射様式、あるいはコード化識別子(例えば、バーコード)を含む。したがって、本発明により、デジタルビデオカメラ68からの画像信号は、そのような特定対象を検出するためだけでなく、反射様式から反射されるIR光線によりその向きを判定するためにも用いることができる。この機能を実行するために実施される論理ステップを以下に説明する。
PC20は、図2に示すとおり対話ディスプレイテーブル60に統合されてもよく、その他、図3の実施形態に示すとおり、対話ディスプレイテーブルの外部においてもよい。図3において、対話ディスプレイテーブル60はデータケーブル63経由で外部PC20(上述のとおり、任意のモニタ47を含む)に接続される。さらに同図で示すとおり、直交するX軸およびY軸の組は、『0』で示される原点と同様に、表示面64aと関連付けられている。特に示されていないが、各直交軸に沿った複数の座標位置により表示面64aの任意の位置を示すことができることが認められる。
対話ディスプレイテーブルが(図3に示すとおり)外部PC20、あるいは(図示されていない)セットトップボックス、ビデオゲーム、ラップトップコンピュータ、メディアコンピュータといった他のタイプの外部計算装置に接続されている場合、対話テーブルは入出力装置を含む。対話ディスプレイテーブル用電源は入力線61を通して供給されるが、この入力線は(図示されていない)通常の交流(AC)線電源に結合される。データケーブル63は対話ディスプレイテーブル60’に接続するものであり、PC20上のUSB2.0ポート、米国電気電子学会(IEEE)1394(すなわちファイヤーワイヤー)ポート、あるいはイーサネット(登録商標)ポートに結合できる。無線接続の速度が向上するにつれ、そのような高速無線接続を通して、あるいは他の適切な有線または無線データ通信リンクを通してPC20のような計算装置に対話ディスプレイテーブルを接続させることも考えられている。対話ディスプレイの一部として内部に含まれるにしても、外部に置かれるにしても、PC20は、デジタルビデオカメラ68からのデジタル画像の処理のためのアルゴリズムを実行し、対話ディスプレイテーブル60のさらに直感的なユーザインタフェース機能を有利に用いるよう設計されたソフトウェアアプリケーションを実行するとともに、そのような機能を利用するよう特に設計されてはいない、他のソフトウェアアプリケーションを実行する。さらに他の方法として、対話ディスプレイが、外部計算装置に結合できるとともに、画像処理や外部PCで実行されない他の作業を行うための内部計算装置を含む。
対話ディスプレイテーブルの重要で強力な特性(すなわち上で説明した実施形態の特性)は、ゲームあるいは他のソフトウェアアプリケーションに対する図形画像あるいは仮想環境を表示し、表示面64aで見ることのできる図形画像、あるいは仮想環境と、対象76aといった表示面上にある、あるいは対象76bといったそのすぐ上の空間にある対象との間の対話を可能にするものである。これは、そのような対象や、この豊富な相互作用を大いに簡略化する、ユーザの操作により動くユーザの指あるいは他の対象を視覚的に検出するための対話ディスプレイテーブルの機能である。
再び図2を参照すると、対話ディスプレイテーブル60は、図形画像、仮想環境、あるいはテキスト情報を表示面64aに表示するために用いられるビデオプロジェクタ70を含む。ビデオプロジェクタは、好ましくは、液晶ディスプレイ(LCD)あるいはデジタル光プロセッサ(DLP)タイプ、あるいは少なくとも640×480ピクセルの解像度をもつシリコン上液晶(LCoS)ディスプレイタイプでできている。IRカットフィルタ86bは、ビデオプロジェクタにより発せられるIR光線が、表示面64a上の、あるいはその上部にある対象からの反射IR光線とIR光線が干渉する対話ディスプレイテーブルの内部に入り込むことを防ぐため、ビデオプロジェクタ70のプロジェクタレンズの前に設けられる。第1の鏡アセンブリ72aは、フレーム62の透明開口90aを通して点線82aに沿ってプロジェクタレンズからくる投射光を、この投射光が第2の鏡アセンブリ72bに入射するように向ける。第2の鏡アセンブリ72bは投射光を半透明層64bに向けて反射させるが、この層はプロジェクタレンズの焦点にあり、そのため投射画像を、表示面64aの焦点で見られる。
アラインメント装置74aおよび74bが設けられ、この装置は、表示面に投射される画像が表示面に対して位置合わせされるよう第1および第2の鏡アセンブリの角度を調節するためのねじ棒および回転可能な調整ナット74cを含む。投射画像を必要な方向に向けることに加えて、これら2つの鏡アセンブリを利用することにより、プロジェクタ70と半透明層64bとの間の経路が長くなり、さらに重要なこととして、対話ディスプレイテーブルの必要な大きさと形状を実現する助けとなるため、対話ディスプレイテーブルが大きくなりすぎず、ユーザが快適にその隣に座ることが可能になるような大きさと形状になる。
上述の、さらに以下の解説は、対話ディスプレイテーブル60および60’の形状の対話ディスプレイ装置を説明している。しかし、対話表示面はほぼ水平のテーブルトップ形状である必要はないということが理解される。本発明の説明で示した原理には、異なる形状や曲率の表示面を適切に含み、それに適用され、さらに水平以外の向きにも適切に設置される。これにより、以下の説明では対象物を対話表示面『上』に設置するとしているが、対象物は、これを表示面に接して設置する、あるいは表示面に近接して設置することで隣接設置してもよい。
制御されたIR光源でキャプチャされたIR画像と制御されたIR光源なしでキャプチャされたIR画像
対話ディスプレイテーブル60(図2)はIR帯域フィルタ86aを用いるものの、このフィルタは、非IR光線がIRビデオカメラに到達することを排除するだけである。不要なIR光線信号が対話ディスプレイテーブル60の機能と干渉することを防ぐため、これらの無用な信号に対して制限を行い、相殺しなければならない。図4A〜4Fは、対話ディスプレイテーブルの一部であり、意図されないIR信号がどのように対話面64aに係るユーザの手402のIRスペクトル画像を変形させるかを示している。
図4Aは、表示面64aに対して部分的に接触し、この表示面に対して部分的に『ホバー』状態にあるユーザの手402を示す。IR画像システムは、対話表示面に接している対象物と表示面に近接して離れている対象物との間の違いに対応することができ、これについては、2004年3月31日に提出された『対話面に対する3D対象の接続性およびオフセットの判定』という件名の、同一出願人による、同時係属中の米国特許出願第10/814,761号で説明されているが、この明細書および図面については、ここでは特に参照によって組み込まれている。
さらに詳細には、図4A,4C,4Eにおいて、ユーザの手402の親指404と中指408は対話表示面に接しているが、人差し指406と薬指410は対話表示面64a上の少し離れたところに『ホバー』しており、小指412は対話表示面64aからさらに少し離れたところにホバーしている。
図4Aにおいて、IR光源66から放射するIR光線414ビームは対話表示面64aを通過し、ユーザの手402に入射している。反射されたIR光線416のビームは対話表示面64aを通って戻り、IR帯域フィルタ86aに続いてIRビデオカメラ68に入射する。IRビデオカメラは、カメラに入射するIR光線の画像に対応する信号を発生させる。この画像は、IRビデオカメラに達するIR光線ビーム416やその他の任意のIR光線の関数である。図4Aにおいて、IR光線の唯一の光源はIR光源66である;図4Aでは意図されない周辺、あるいは無用なIR光源がない。バッフル79は、IR光源66からのIR光線が直接にIRビデオカメラ68のレンズに入射することを防ぐ。
図4Bは、ユーザの手402で反射されるIR光源66に対するIR光線416ビームだけに応じて得られるIRビデオカメラ68で生成されるユーザの手402aのIR画像を示す。反射されるIR光線416ビームに応じて、この画像ではユーザの手402aは背景420aよりも強度あるいは明るさが大きい。さらに、親指404aおよび中指408aの先端は残りの指406a,410a,412aや、手402aの残りの部分よりも強度あるいは明るさが大きい。親指404aおよび中指408aの先端は、表示面64aに接している手402aのほんの一部であるため(図4A)、親指や中指の先端から反射されるIR光線は、対話表示面64aの散乱による減衰が少なく、そのため、手402aの他の部分や背景420aよりも強度が大きい。2つのはっきり異なる強度レベルだけが図4Bで示されているが、反射されるIR光線の強度は、対象物の反射度や対話表示面64aからの距離により変わりうる。
図4Cにおいて、IR光源66は非活性化されている。これにより、図4Aに示したものとは異なり、IR光線414のビームはユーザの手402に向けて投影されておらず、ユーザの手から反射されてIRビデオカメラ68に向いたIR光線416のビームはない。しかし、図4Aに示したものとは異なり、図4Cは、対話表示面64aを越えたところにあり、IRビデオカメラ68で獲得されるIR光源422および424のビームを示す。例えば、IRビーム422は、対話ディスプレイテーブルの周囲環境にある白色光源から放出されるIR光線を示し、IRビーム424は、(図示されていない)窓を通って周囲環境を照らす太陽光線に含まれるIR光線ビームを示す。IR光線ビーム422および424はユーザの手402周囲とユーザの指404〜412間を通り、続けてIR帯域フィルタ86aを通る。したがって、ユーザの手402の『背面光』により、図4Dに示すとおり明るい背景420bに対してユーザの手402の影を含む画像ができる。
図4Dにおいて、ユーザの手402は暗い−図4Bにように明るくなく、照らされていない。ユーザの手402からのみ来るIR光線は、この画像におけるユーザの手よりもはるかに明るく見えるため、ユーザの手は、明るい背景420bに対する影にしか見えない。図4Dの画像は、太陽を背景にして人が立っているものであり、その人が太陽により背面から照らされているものと理解できる。背面光の拡散光線により、非常に明るい背景に対する均一な人の影の画像ができる。図4Dでわかるとおり、親指404bや中指408bの指先端と、図4Bにあるような手402bや指406b,410b,412bの画像の残りの部分との間で明確な差異はない。これにより、周囲IR光線のある場合のユーザの手の背面光は、少なくとも、指や手が接している場合とホバーしている場合の対比が小さくなる傾向があり、ユーザの手402を含む画像の画像処理の有利さがかなり小さくなる。一般的に、画像の区分、すなわち各画素に対してユーザの手の一部であるかどうかのラベリングを行う、あるいは対話表示面上におかれた対象の一部であるかどうかのラベリングを行うことは、こういった条件下ではさらに難しくなる。周辺光レベルは、IR光源からの反射IR光のレベルにすぐに匹敵する。一般的に、ある対象の表面外観を読み取ることは可能である(対象が不透明であれば、その対象から戻る光に周辺光が影響を与えないため)が、外形や形状、あるいはどの対象が対話表示面と接しているかを示す画像における絶対画素強度に頼るのは不可能である。
図4Eにおいて、IR光源66は、図4Aのように再び活性化される。しかしこの場合、IR光源も活性であることから、例えば、白色光422や太陽光線424からの周辺IR光線が存在することになる。図4Eで示されるとおり、IR光線414の照射ビームはIR光源66からユーザの手402および指404〜412に到達し、手および指からのIR光線416の反射ビームはIRビデオカメラ68に到達する。同時に、周辺IR光線422および424はユーザの手402周囲を照らし、ユーザの指404〜412を通って、同様にIRビデオカメラに到達する。ここでもまた、ビーム416,422,424はいずれもIR帯域フィルタ86aでブロックされない。
図4Fで得られた画像は、ユーザの手から反射されたIR光線ビーム416と周辺IR光線ビーム422および424が効果的にお互いに相殺しあっている様子を示している。その結果、対話ディスプレイ64aに接しているユーザの指404cおよび408cの先端と、ユーザの手402cおよび指406c,410c,412cの残りの部分との間だけでなく、一般的に、ユーザの手402cおよび指404c〜412cと背景420cとの間においてもコントラストがかなり低減される。背景420cは図4Dに示すとおり明るく、ユーザの指404cおよび408cが、IR光源からの反射IRのために識別可能になる。また、ユーザの手402cは、明るい周辺背景に対する影として明確になる。ユーザの手からの反射IR光線416のビームが、周辺IR光線422および424のビームよりも実質的にはるかに大きい場合、ユーザの手402cおよび指404c〜412cの画像は背景420cよりも明るく浮かび上がる。IR光源66の強度の能動的調整は、周辺光線422および424のビームを考慮しながら、対話表示面64aに接している指404cおよび408cの先端と、周辺IR光線ビーム422および424で照らされる背景との間のコントラストを保つよう試みなければならない。
したがって、本発明により、IR光線の周辺光源が実質的に除去される画像データの合成組を作成することで、外部白色光422および太陽光線424といったIR光源の不必要な、および/または意図しない周辺光源の効果を相殺できる。再び図4B,4D,4Eを参照すると、必要なことは、図4Bの画像と等価なものを得ることであり、ここではIR光線416(図4A)の反射ビームだけがIRビデオカメラ68で受信される。残念ながら、環境における周辺IR光線の大部分を実質的になくさない限り、IR光線422および424の外部光源がIR光線416の反射ビームに含まれるため、周辺IR光線が相殺されなければ図4Fによく似た画像になってしまうことになる。適切な相殺がなければ、環境中に周辺IR光源があると、図4Dの画像における不要な背景が、図4Bのように対象から反射されるIR光線の必要画像に追加され、そのため、図4Fのような問題のある画像になる。
図4Bの画像が別個の配置以外で自然に獲得される際、図4Cおよび4Eの環境が典型的な配置で選択的に得られる。図4Cは、無用なIR光線ビーム422および424が図4Dの画像を作成する環境を示し、これはIR光源66が非活性化された場合に獲得される。図4Eは、(IR光源66が活性化された場合の)反射IR光線ビーム416と無用のIR光線ビーム422および424との両方を含む典型的な環境を示す。このように、図4Fの画像は、無用なIR光線がある場合にIR光源66が選択的に活性化されると獲得される。図4Fの画像が、図4Bの必要反射IR光線から得られる画像と、図4Dの不要で無用なIR光線から得られる画像とを整理したものであることから、画像4Fの画像から図4Dの画像を減算することにより図4Bの画像が得られ、それにより無用あるいは周辺のIR光線に対する相殺を行う。
これにより、2組の画像データを収集することにより、典型的な環境で図4Bとほぼ同じ必要画像が得られる。第1組の画像データはIR光源66を活性化させ、既存の周囲もしくは無用IR光源のある状態で収集される。第2組の画像データについてはIR光源66を非活性化させた状態でも収集される。収集された第2組の画像データはその後、第1組の画像データから画素毎に減算され、これによりIR光源で生成された反射IR光線ビームだけを含む相殺された画像データ組を生成する。無用光源が効果的に取り除かれる。理想的には、第1、2組の画像データはできるだけ近づけて即座に、かつ順次収集され、対話表示面上に同一条件で異なる照射がなされた画像が得られる。
本発明の好適実施形態は、静的周囲IR測定、あるいは初期較正に基づいて意図しないIR光源の影響を低減させることを試みるものではない。したがって、IRビデオカメラによる画像取得の開始時点において、画像較正のための遅れがない。さらに、本発明は、周囲IR光源や光レベルにおける変化に対して、静的較正あるいは相殺法よりも良好に適用される。例えば、画像較正のために対話表示面から対象物を取り除き、その後に対話表示面の利用を継続するようユーザが依頼を受けた場合、この較正データでは、較正後に対話表示面に追加された対象物がどのように周囲IR光源からの信号をブロックするかについて考慮していない。しかし本発明では、周囲IR光源をブロックしている対象物により作られる図4Dに示されるようなIRの影について考慮する。このように、本発明では、IR光源が活性化された状態で獲得されたIR画像が、対象物のない状態で獲得された静的IR光源画像に匹敵するものよりも、その点においてIRコントラストがはるかに大きな画像データを作成する。
さらに、本発明は、周囲IR光源や環境中のIR光線における変化を継続的に適切に考慮し、対応する。その結果、室内灯が点灯あるいは消灯される、あるいは天候の変動のために窓を通過する太陽光線の強度が変化する、時間の経過とともに太陽の角度が変わる、ブラインドの移動といった周囲IR光源の変化があっても、本発明による意図されないIR光源の低下の効果は損なわれない。同様に、例えば、人が対話表示面と照明あるいは窓との間を歩いた場合といった周囲IR光源からの光のより一時的な変化があったとしても、本発明により相殺される。
不要IR光源の効果を減じるための画像データ生成システム
図5は、不要IR光源の影響が実質的に相殺される合成画像データを生成するためのシステム500を示す。システム500は対話表示面64aとともに作動する。(図1〜3で示される)PC20は画像処理機能を実行するものであり、記憶装置516を含む。対話表示面上、あるいはその近辺にあるユーザの指408もしくは他の対象物の有無および/または移動を検出するため、PCは、IRビデオカメラで生成された画像を処理する。
図4A,4C,4Eと関連して前に述べたとおり、対話表示面64aにIR光線ビーム414を向けるため、IR光源66が選択的に活性化される。反射されたIR光線ビーム416は、白色光422や太陽光424からの周囲IR光線ビームと同様に対話表示面64aを通過し、IR帯域通過フィルタ86aに続いて、IRビデオカメラ68のセンサ502で検出される。
IRビデオカメラ68は、各画像キャプチャ区間の開始時に画像キャプチャ信号を生成する画像キャプチャ同期出力504を含む。画像キャプチャ信号はIR光源制御装置506で受信され、この制御装置が画像キャプチャ区間毎にIR光源66を活性化する。例えば、IRビデオカメラのフレーム率が毎秒Xフレームであれば、IR光源68を活性化させるための実効率は毎秒X/2倍である。その結果、IRビデオカメラ68で獲得されデータ出力ポート508から信号として送られた他の各画像フレームは、反射IRビーム416と周囲IRビーム422および424とを含み、他の各画像フレームは周囲IRビーム422および424だけを含む。このアプローチは現在、好適実施形態で用いられているが、それに代わり他のアプローチを用いることもできる。IRビデオカメラおよびIR光源はPC20により同期的に起動でき、このPCがIR光源を活性化させる、あるいは非活性化させるための命令を出し、その後すぐにIRビデオカメラを用いてフレームを取得することができる。あるいは、同期を維持するため特別な回路を備えることもできる。上述の実施形態において、簡便化のため、クロックを用いてIRビデオカメラを駆動し、その出力パルスと単純に同期させるというのが好ましい。
典型的なビデオカメラは、毎秒合計30フレームを獲得する。したがって、IR光源66を活性化させた状態で獲得される15フレームと、IR光源66を非活性化させた状態で獲得される15フレームとを合成することで、毎秒15の画像データの合成組が獲得される。高いフレーム率のほうが好ましいということが認められる。毎秒獲得されるフレームが多くなるほど、IR光源66が活性化、および非活性化された状態でフレームが正確に獲得されるかにより、対話表示面64aに対象がどのように時間どおり現れるかを示す。
本発明の1つの実施形態において、データ出力ポート508経由で出力される画像はデータバッファメモリ510に保存される。各フレームは、IR光源がオンあるいはオフの状態でフレームが獲得されたかどうかによりタグが付けられる。フレームのタグ付けは、IR光源がオンまたはオフの状態でフレームが獲得されたかどうかを示すためのフラグを設定することで適切に達成される。その他、奇数あるいは偶数番号のフレームだけでIR光源が活性化されている場合、フレームにタグを付けることができる。現在の好適実施形態において、フレームの強度は、画像に対する画素強度を合計し、1つのフレームと次のフレームとの強度の合計を比較することで評価される。強度の合計が大きいフレームはフレーム『上』にある。その他、対話表示面64aを囲むエプロンの下部の既知の場所に白い目安をおくことが可能であり、これにより、既知の場所の画素強度を調べることで、あるフレームにおけるIR光源が活性であるかどうかをすぐに判定できる。
データバッファメモリ510からフレームがフレームセパレータ512で分割されるが、このフレームセパレータは、フレームが獲得された際にIR光源が活性化されているかどうかに応じてフレームを分割する。IR光源が活性化されたフレームは加算器514のプラス側に送られ、IR光源66が非活性化されたフレームは加算器514のマイナス側に送られるため、周辺IR光源からだけIR照射のある場合の各フレームにおける各点あるいは画素に対する値が、IR光源66が活性化され、かつ周辺IR光源がある場合の点あるいは画素に対応する値から減算することができる。『IR光源オン』フレームから『IR光源オフ』フレームを画素に関して減算することにより、IR光源66からの反射IR光線だけを示し、実質的に周辺IR照射の影響を除去したIR値をもつ合成画像データが得られる。
さらに詳細には、各画像の点は次の式に従って加算器514において画素に関して減算される:
D(x,y)=ION(x,y)−IOFF(x,y)
ここで:
・x,yは、透光面の対話面のある点の座標位置を示し;
ON(x,y)は、点x,yにおける第1の画像キャプチャ区間中で検出されるIR光線の強度を示し;
・IOFF(x,y)は、点x,yにおける第2の画像キャプチャ区間中で検出されるIR光線の強度を示し;
・D(x,y)は、第2の画像キャプチャ区間中において点x,yで獲得されるIR光線の強度が、第1の画像キャプチャ区間中において点x,yで獲得されるIR光線の強度から減算される際の点x,yにおけるIR光線の正味強度を示す。
対応する活性化IR光源66と非活性化IR光源のフレーム対が加算器514で結合されると、生成される画像データの合成組は画像処理あるいは保存装置に送られるため、対話表示面上、あるいはそれに近接して置かれる1つ以上の対象物408の特性が処理され、その結果が対話表示システムで利用される。
図6は、本発明による不要IR照射の影響を実質的になくす、あるいはそれを低減させるための代表的な論理ステップを示すフロー図600である。ステップ602において、対話表示面のIR画像作成が始まる。ステップ604において、IR光源は、IRビデオカメラ(あるいは、それに代わって用いられる他の画像装置)で生成される画像取得信号と選択的に同期される。選択的IR光源同期化が必要な理由は、前に説明したとおり、他の画像取得区間毎だけでIR光源が活性化されるためである。
ステップ606において、IR光源が活性化される。ステップ608において、IR光源がオンの状態で対話表示面が画像表示される。ステップ610において、IR光源は非活性化され、ステップ612において、IR光源がオフの状態で対話表示面が画像表示される。ステップ608および612で獲得された画像フレームを用いて、ステップ614で、不要IR光線からの光線の影響を相殺するための図5および式(1)と合わせてすでに説明したとおり、これら2つの異なる照射条件でのフレーム対に対して獲得された画像データが画素に関して結合される。画像データがステップ614で結合されて合成データが生成された後、ステップ616において、対話表示面上、あるいはその近辺の対象物を検出するよう、この合成データが画像処理用に用いられる、あるいはこのデータがその後の処理用に保存される。
判定ステップ618において、IR画像データが続けて獲得されるかどうかが判定される。獲得される場合、このフロー図はステップ606に戻り、ここで選択的活性化・非活性化および画像キャプチャが継続される。一方、判定ステップ618でIR画像作成が完了したと判定されると、フロー図はステップ620に進んで終了する。
本発明はそれを実行するための好適な形態やそれに対する改良に関連付けて説明されたが、当該分野の通常の当業者であれば、請求項における適用範囲内で本発明に対する多数の他の改良ができるということを理解するであろう。そのため、本発明の適用範囲は、いかなる場合でも上述の説明により制限されることを意図したものではなく、請求項を全て参照することで判断されるものである。
本発明の実施で用いられる対話表示面に対する画像処理に適した、一般に従来の計算装置あるいはパソコン(PC)の機能ブロック図である。 内部構成要素を示すテーブル型対話表示面の断面図である。 外部PCに結合されるテーブル型対話表示面の実施形態の等角図である。 制御されたIR光源からのIR光線および/または周囲IR光線で照射される表示面に隣接する手を用いた場合の表示面部分の拡大断面図である。 手からの反射IR光線により表示面から獲得された画像の図である。 制御されたIR光源からのIR光線および/または周囲IR光線で照射される表示面に隣接する手を用いた場合の表示面部分の拡大断面図である。 手からの反射IR光線により表示面から獲得された画像の図である。 制御されたIR光源からのIR光線および/または周囲IR光線で照射される表示面に隣接する手を用いた場合の表示面部分の拡大断面図である。 手からの反射IR光線により表示面から獲得された画像の図である。 本発明の1つの実施形態による不要IR光源の影響を低減させるためのシステムのブロック図である。 本発明の1つの実施形態による不要IR照射の影響を低減させるための論理ステップを示すフロー図である。
符号の説明
66 IR光源
68 IRカメラ
502 センサ
504 画像キャプチャ同期
506 IR光源制御装置
508 データ出力
510 データバッファメモリ
512 フレームセパレータ
514 加算器
516 画像処理/保存

Claims (31)

  1. 必要赤外線光源を用いる画像システムにおける不要赤外線光源の影響を低下させる方法であって、
    (a)第1の画像キャプチャ区間中で必要赤外線光源を活性化するステップと、
    (b)第1の画像キャプチャ区間中で画像データの第1組を獲得するステップと、
    (c)第2の画像キャプチャ区間中で必要赤外線光源を非活性化するステップと、
    (d)第2の画像キャプチャ区間中で画像データの第2組を獲得するステップと、
    (e)画像データの第2組の第2値に対応する画像データの第1組の第1値から減じることで画像データの合成組を生成するステップと
    を備えることを特徴とする方法。
  2. 画像キャプチャ装置で発生させる画像キャプチャ信号により、必要赤外線光源を第1の画像キャプチャ区間中で活性化し、第2の画像キャプチャ区間中で非活性化するよう画像キャプチャ装置で必要赤外線光源の活性化を制御するステップ
    をさらに備えることを特徴とする請求項1に記載の方法。
  3. (a)透光面の反対側に隣接して配設される対象物に赤外線を向けるよう必要赤外線光源を透光面の第1面に設置するステップと、
    (b)必要赤外線光源で生成され対象物に反射される赤外線を獲得するよう画像キャプチャ装置を透光面の第1面に設置するステップと
    をさらに備えることを特徴とする請求項2に記載の方法。
  4. 画像データの第1組の第1値が、必要赤外線光源が活性化されている際の第1の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して獲得される赤外線の強度を示し、画像データの組の第2値が、必要赤外線光源が非活性化されている際の第2の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して獲得される赤外線の強度を示すことを特徴とする請求項3に記載の方法。
  5. 画像データの第2組の第2値に対応する画像データの第1組の第1値からの減算が、
    D(x,y)=ION(x,y)−IOFF(x,y)で定義され、
    ここで:
    (a)x,yは、透光面の第1面のある点の座標位置を示し、
    (b)ION(x,y)は、点x,yにおける第1の画像キャプチャ区間中で検出される赤外線の強度を示し、
    (c)IOFF(x,y)は、点x,yにおける第2の画像キャプチャ区間中で検出される赤外線の強度を示し、
    (d)D(x,y)は、第2の画像キャプチャ区間中で点x,yで獲得される赤外線の強度が、第1の画像キャプチャ区間中で点x,yで獲得される赤外線の強度から減算される際の点x,yにおける赤外線の正味強度を示す
    ことを特徴とする請求項4に記載の方法。
  6. 画像データの合成組を画像処理システムに送信するステップ
    をさらに備えることを特徴とする請求項3に記載の方法。
  7. 対象物の特性を認識するため、対象物に反射される赤外線を用いるステップ
    をさらに備えることを特徴とする請求項6に記載の方法。
  8. 透光面に向けられるプロジェクタからの光が、対象物と相互作用する透光面の反対側で見える画像を示すために用いられるよう透光面の第1面にプロジェクタを設置するステップ
    をさらに備えることを特徴とする請求項3に記載の方法。
  9. 必要赤外線光源を用いる画像システムにおける不要赤外線光源の影響を低下させる方法であって、
    (a)画像キャプチャ装置で発生させた画像信号で必要赤外線光源の活性化を選択的に調整するステップと、
    (b)画像信号が第1の画像キャプチャ区間の開始点を示す場合に必要赤外線光源を活性化するステップと、
    (c)第1の画像キャプチャ区間中で画像データの第1組を獲得するステップと、
    (d)画像信号が第2の画像キャプチャ区間の開始点を示す場合に必要赤外線光源を非活性化するステップと、
    (e)第2の画像キャプチャ区間中で画像データの第2組を獲得するステップと、
    (f)画像データの第2組の第2値に対応する画像データの第1組の第1値から減じることで画像データの合成組を生成するステップと、
    (g)画像データの合成組を画像処理システムに送信するステップと
    を備えることを特徴とする方法。
  10. (a)透光面の反対側に隣接して配設される対象物に赤外線を向けるよう必要赤外線光源を透光面の第1面に設置するステップと、
    (b)対象物に反射される必要赤外線光源からの赤外線を獲得するよう画像キャプチャ装置を透光面の第1面に設置するステップと
    をさらに備えることを特徴とする請求項9に記載の方法。
  11. 画像データの第1組の第1値が、必要赤外線光源が活性化されている際の第1の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して獲得される赤外線の強度を示し、この画像データ組の第2値が、必要赤外線光源が非活性化されている際の第2の画像キャプチャ区間中で透光面の第1面にわたる対応する複数点に対して獲得される赤外線の強度を示すことを特徴とする請求項10に記載の方法。
  12. 画像データの第2組の第2値に対応する画像データの第1組の第1値からの減算が、
    D(x,y)=ION(x,y)−IOFF(x,y)で定義され、
    ここで、
    (a)x,yは、透光面の第1面のある点の座標位置を示し、
    (b)ION(x,y)は、点x,yにおける第1の画像キャプチャ区間中で検出される赤外線の強度を示し、
    (c)IOFF(x,y)は、点x,yにおける第2の画像キャプチャ区間中で検出される赤外線の強度を示し、
    (d)D(x,y)は、第2の画像キャプチャ区間中で点x,yで獲得される赤外線の強度が、第1の画像キャプチャ区間中で点x,yで獲得される赤外線の強度から減算される際の点x,yにおける赤外線の正味強度を示す
    ことを特徴とする請求項11に記載の方法。
  13. 対象物の特性を認識するため、対象物に反射される赤外線を用いるステップをさらに備えることを特徴とする請求項10に記載の方法。
  14. 透光面に向けられたプロジェクタからの光が、対象物と相互作用する透光面の反対側で見える画像を示すために用いられるよう透光面の第1面にプロジェクタを設置するステップ
    をさらに備えることを特徴とする請求項10に記載の方法。
  15. 必要赤外線光源と画像キャプチャ装置とを用いて透光面上に、あるいはそれに隣接するよう配設される対象物に対して画像データを獲得するための方法であって、
    (a)赤外線を対象物に向けるよう必要赤外線光源を透光面の第1面に設置するステップと、
    (b)必要赤外線光源で投射され対象物で反射される赤外線を獲得するよう画像キャプチャ装置を透光面の第1面に設置するステップと、
    (c)画像信号が第1の画像キャプチャ区間の開始点を示す場合に必要赤外線光源を活性化するステップと、
    (d)第1の画像キャプチャ区間中で画像データの第1組を獲得するステップと、
    (e)画像信号が第2の画像キャプチャ区間の開始点を示す場合に必要赤外線光源を非活性化するステップと、
    (f)第2の画像キャプチャ区間中で画像データの第2組を獲得するステップと、
    (g)画像データの第2組の第2値に対応する画像データの第1組の第1値から減じることで画像データの合成組を生成するステップと
    を備えることを特徴とする方法。
  16. 画像キャプチャ装置で生成される画像キャプチャ信号により、必要赤外線光源を第1の画像キャプチャ区間中で活性化し、第2の画像キャプチャ区間中で非活性化するよう画像キャプチャ装置で必要赤外線光源の活性化を制御するステップ
    をさらに備えることを特徴とする請求項15に記載の方法。
  17. 請求項15に記載の方法であって、画像データの第1組の第1値が、必要赤外線光源が活性化されている際の第1の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して獲得される赤外線の強度を示し、画像データの組の第2値が、必要赤外線光源が非活性化されている際の第2の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して獲得される赤外線の強度を示すことを特徴とする請求項15に記載の方法。
  18. 画像データの第2組の第2値に対応する画像データの第1組の第1値からの減算が、
    D(x,y)=ION(x,y)−IOFF(x,y)で定義され、
    ここで、
    (a)x,yは、透光面の第1面のある点の座標位置を示し、
    (b)ION(x,y)は、点x,yにおける第1の画像キャプチャ区間中で検出される赤外線の強度を示し、
    (c)IOFF(x,y)は、点x,yにおける第2の画像キャプチャ区間中で検出される赤外線の強度を示し、
    (d)D(x,y)は、第2の画像キャプチャ区間中で点x,yで獲得される赤外線の強度が、第1の画像キャプチャ区間中で点x,yで獲得される赤外線の強度から減算される際の点x,yにおける赤外線の正味強度を示す
    ことを特徴とする請求項17に記載の方法。
  19. 画像データの合成組を画像処理システムに送信するステップ
    をさらに備えることを特徴とする請求項15に記載の方法。
  20. 対象物の特性を認識するため、対象物に反射される赤外線を用いるステップ
    をさらに備えることを特徴とする請求項19に記載の方法。
  21. プロジェクタが、対象物と相互作用する透光面の反対側で見える画像を示すため、透光面に光を向けるよう透光面の第1面にプロジェクタを設置するステップ
    をさらに備えることを特徴とする請求項15に記載の方法。
  22. 実行中のアプリケーションに入力を行うためのシステムであって、
    (a)処理面と相互作用面とをもつ透光面であって、対象物を相互作用面上に、あるいはそれに隣接して配設できるよう構成され、処理面が相互作用面の反対側にある透光面と、
    (b)透光面の処理面に配設される必要赤外線光源であって、この必要赤外線光源が選択的に赤外線を照射し、これが透光面を通して相互作用面に伝えられて、透光面の相互作用面上に、あるいはそれに隣接して配設される対象物によって透光面を通して後方反射される赤外線光源と、
    (c)透光面の処理面に配設される画像キャプチャ装置であって、対象物とその場所とを検出するため、透光面を通過して相互作用表示面に画像形成する赤外線をこの画像キャプチャ装置が検出する画像キャプチャ装置と、
    (d)必要赤外線光源と画像キャプチャ装置に通信するプロセッサと、
    (e)プロセッサと通信するメモリであって、このメモリがデータとマシン命令とを保存し、マシン命令がプロセッサに複数の機能を実行させ、該機能が、
    (i)第1の画像キャプチャ区間中で必要赤外線光源を活性化するステップと、
    (ii)画像キャプチャ装置を用いて第1の画像キャプチャ区間中で画像データの第1組を獲得するステップと、
    (iii)第2の画像キャプチャ区間中で必要赤外線光源を非活性化するステップと、
    (iv)画像キャプチャ装置を用いて第2の画像キャプチャ区間中で画像データの第2組を獲得するステップと、
    (v)画像データの第2組の第2値に対応する画像データの第1組の第1値から減算することで画像データの合成組を発生させるステップであって、画像キャプチャ装置で獲得され必要赤外線光源で照射されない赤外線の影響がデータの合成組で大幅に除去されるステップと
    を含むメモリと
    を備えたことを特徴とするシステム。
  23. 画像データの第1組の第1値が、必要赤外線光源が活性化されている際の第1の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して画像キャプチャ装置で獲得される赤外線の強度を示し、画像データ組の第2値が、必要赤外線光源が非活性化されている際の第2の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して画像キャプチャ装置で獲得される赤外線の強度を示すことを特徴とする請求項22に記載のシステム。
  24. メモリに保存されるマシン命令により、さらに、プロセッサに画像データの第2組の第2値に対応する画像データの第1組の第1値からの減算を行わせ、この減算が、
    D(x,y)=ION(x,y)−IOFF(x,y)で定義され、
    ここで、
    (a)x,yは、透光面の第1面のある点の座標位置を示し、
    (b)ION(x,y)は、点x,yにおける第1の画像キャプチャ区間中で画像キャプチャ装置により検出される赤外線の強度を示し、
    (c)IOFF(x,y)は、点x,yにおける第2の画像キャプチャ区間中で画像キャプチャ装置により検出される赤外線の強度を示し、
    (d)D(x,y)は、第2の画像キャプチャ区間中で点x,yで獲得される赤外線の強度が、第1の画像キャプチャ区間中で点x,yで獲得される赤外線の強度から減算される際の点x,yにおける赤外線の正味強度を示す
    ことを特徴とする請求項22に記載のシステム。
  25. メモリに保存されるマシン命令により、さらに、対象物の特性を認識するため、プロセッサに対象物で反射される赤外線を用いさせることを特徴とする請求項22に記載のシステム。
  26. プロジェクタからの光が透光面に向けられ、対象物と相互作用する透光面の相互作用面で見える画像を示すために用いられるよう透光面の処理面に設置されるプロジェクタをさらに備えたことを特徴とする請求項22に記載のシステム。
  27. 実行中のアプリケーションに入力を行うためのシステムであって、
    (a)処理面と相互作用面とをもつ透光面であって、対象物を相互作用面上に、あるいはそれに隣接して配設できるよう構成され、処理面が相互作用面の反対側にある透光面と、
    (b)透光面の処理面に配設される画像キャプチャ装置であって、対象物とその場所とを検出するため、透光面を通過して相互作用表示面に画像形成する赤外線をこの画像キャプチャ装置が検出し、当該画像キャプチャ装置が画像キャプチャ信号を発生させるよう構成される画像キャプチャ装置と、
    (c)透光面の処理面に配設される必要赤外線光源であって、この必要赤外線光源が選択的に赤外線を照射し、これが透光面を通して相互作用面に伝えられて、透光面の相互作用面上に、あるいはそれに隣接して配設される対象物によって透光面を通して後方反射される赤外線光源と、
    (d)赤外線光源制御装置であって、
    (i)画像キャプチャ信号を受け入れ、
    (ii)必要赤外線光源が、第1の画像キャプチャ区間を示す第1の画像キャプチャ信号受信時に活性化され、第2の画像キャプチャ区間を示す第2の画像キャプチャ信号受信時に非活性化されるよう画像キャプチャ信号受信に応じて必要赤外線光源を選択的に操作させる
    よう構成される赤外線光源制御装置と、
    (e)赤外線光源および画像キャプチャ装置と通信するプロセッサと、
    (f)プロセッサと通信するメモリであって、このメモリがデータとマシン命令とを保存し、マシン命令がプロセッサに複数の機能を実行させ、該機能が、
    (i)画像キャプチャ装置を用いて第1の画像キャプチャ区間中で画像データの第1組を獲得するステップと、
    (ii)画像キャプチャ装置を用いて第2の画像キャプチャ区間中で画像データの第2組を獲得するステップと、
    (iii)画像データの第2組の第2値に対応する画像データの第1組の第1値から減算することで画像データの合成組を発生させるステップであって、画像キャプチャ装置で獲得される不要赤外線の影響がデータの合成組で大幅に相殺されるステップと
    を含むメモリと
    を備えたことを特徴とするシステム。
  28. 画像データの第1組の第1値が、必要赤外線光源が活性化されている際の第1の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して画像キャプチャ装置で獲得される赤外線の強度を示し、画像データ組の第2値が、必要赤外線光源が非活性化されている際の第2の画像キャプチャ区間中で透光面の第1面にわたる複数点に対して獲得される赤外線の強度を示すことを特徴とする請求項27に記載のシステム。
  29. メモリに保存されるマシン命令により、さらに、プロセッサに画像データの第2組の第2値に対応する画像データの第1組の第1値からの減算を行わせ、この減算が、
    D(x,y)=ION(x,y)−IOFF(x,y)で定義され、
    ここで、
    (a)x,yは、透光面の第1面のある点の座標位置を示し、
    (b)ION(x,y)は、点x,yにおける第1の画像キャプチャ区間中で検出される赤外線の強度を示し、
    (c)IOFF(x,y)は、点x,yにおける第2の画像キャプチャ区間中で検出される赤外線の強度を示し、
    (d)D(x,y)は、第2の画像キャプチャ区間中で点x,yにおいて獲得される赤外線の強度が、第1の画像キャプチャ区間中で点x,yにおいて獲得される赤外線の強度から減算される際の点x,yにおける赤外線の正味強度を示す
    ことを特徴とする請求項28に記載のシステム。
  30. メモリに保存されるマシン命令により、さらに、対象物の特性を認識するため、プロセッサに対象物に反射される赤外線を用いさせることを特徴とする請求項27に記載のシステム。
  31. プロジェクタで生成される光が透光面に向けられ、対象物と相互作用する透光面の相互作用面で見える画像を示すために用いられるよう透光面の処理面に設置されるプロジェクタ
    をさらに備えたことを特徴とする請求項27に記載のシステム。
JP2005176633A 2004-06-16 2005-06-16 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム Pending JP2006048650A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/870,777 US7593593B2 (en) 2004-06-16 2004-06-16 Method and system for reducing effects of undesired signals in an infrared imaging system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011178989A Division JP2011238292A (ja) 2004-06-16 2011-08-18 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム

Publications (2)

Publication Number Publication Date
JP2006048650A true JP2006048650A (ja) 2006-02-16
JP2006048650A5 JP2006048650A5 (ja) 2008-07-31

Family

ID=34940172

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2005176633A Pending JP2006048650A (ja) 2004-06-16 2005-06-16 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム
JP2011178989A Pending JP2011238292A (ja) 2004-06-16 2011-08-18 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011178989A Pending JP2011238292A (ja) 2004-06-16 2011-08-18 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム

Country Status (6)

Country Link
US (4) US7593593B2 (ja)
EP (1) EP1608157B1 (ja)
JP (2) JP2006048650A (ja)
AT (1) ATE511673T1 (ja)
ES (1) ES2364054T3 (ja)
PL (1) PL1608157T3 (ja)

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US7379562B2 (en) * 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7787706B2 (en) 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7576725B2 (en) * 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
US7499027B2 (en) * 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US8212857B2 (en) 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
JP2008250774A (ja) 2007-03-30 2008-10-16 Denso Corp 情報機器操作装置
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
JP4466706B2 (ja) * 2007-09-27 2010-05-26 ミツミ電機株式会社 画像読取装置及び画像読取方法
US9171454B2 (en) 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US20090219253A1 (en) * 2008-02-29 2009-09-03 Microsoft Corporation Interactive Surface Computer with Switchable Diffuser
WO2009119417A1 (ja) 2008-03-24 2009-10-01 ソニー株式会社 撮像装置、表示撮像装置、電子機器および物体の検出方法
US8952894B2 (en) * 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
US20090295760A1 (en) * 2008-06-02 2009-12-03 Sony Ericsson Mobile Communications Ab Touch screen display
WO2009158662A2 (en) * 2008-06-26 2009-12-30 Global Rainmakers, Inc. Method of reducing visibility of illimination while acquiring high quality imagery
US8773352B1 (en) * 2008-07-16 2014-07-08 Bby Solutions, Inc. Systems and methods for gesture recognition for input device applications
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8847739B2 (en) 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100079409A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Touch panel for an interactive input system, and interactive input system incorporating the touch panel
US20100083109A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for handling interactions with multiple users of an interactive input system, and interactive input system executing the method
US8810522B2 (en) * 2008-09-29 2014-08-19 Smart Technologies Ulc Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method
US20100105479A1 (en) 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
GB2466023A (en) * 2008-12-08 2010-06-09 Light Blue Optics Ltd Holographic Image Projection Systems
JP5230401B2 (ja) 2008-12-19 2013-07-10 キヤノン株式会社 表示制御装置、画像処理装置
CN101923403A (zh) * 2009-06-09 2010-12-22 鸿富锦精密工业(深圳)有限公司 无线双头鼠标
US8817125B2 (en) 2009-06-25 2014-08-26 Koninklijke Philips N.V. Gesture recognition using chroma-keying
WO2011003171A1 (en) * 2009-07-08 2011-01-13 Smart Technologies Ulc Three-dimensional widget manipulation on a multi-touch panel
WO2011026227A1 (en) * 2009-09-01 2011-03-10 Smart Technologies Ulc Interactive input system with improved signal-to-noise ratio (snr) and image capture method
GB0921644D0 (en) * 2009-12-10 2010-01-27 St Microelectronics Res & Dev Improvements in or relating to optical navigation devices
US8502789B2 (en) * 2010-01-11 2013-08-06 Smart Technologies Ulc Method for handling user input in an interactive input system, and interactive input system executing the method
JP5693022B2 (ja) * 2010-03-04 2015-04-01 キヤノン株式会社 表示制御装置および表示制御システム、並びにそれらの制御方法、プログラム、記憶媒体
US9414051B2 (en) * 2010-07-20 2016-08-09 Memory Engine, Incorporated Extensible authoring and playback platform for complex virtual reality interactions and immersive applications
DE102010033649B4 (de) * 2010-08-06 2012-03-29 Daniel Barthels Bildschirm sowie Verfahren zum Darstellen von optischen Inhalten auf einem Bildschirm
GB2484316A (en) * 2010-10-06 2012-04-11 St Microelectronics Res & Dev Self navigation of mobile devices
GB201110157D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
GB201110156D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch-sensitive display devices
GB201110159D0 (en) * 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
US10088924B1 (en) * 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
KR20130028370A (ko) * 2011-09-09 2013-03-19 삼성전자주식회사 영상 모델링 시스템에서 형상 정보, 재질 정보 및 조명 정보를 획득하는 장치 및 방법
JP5806573B2 (ja) * 2011-09-28 2015-11-10 キヤノン株式会社 座標入力装置およびその制御方法、座標入力システム
GB201117542D0 (en) 2011-10-11 2011-11-23 Light Blue Optics Ltd Touch-sensitive display devices
CN104160364A (zh) 2011-10-18 2014-11-19 卡内基梅隆大学 用于分类触敏表面上的触摸事件的方法和设备
US8976249B2 (en) 2011-11-04 2015-03-10 Empire Technology Development Llc IR signal capture for images
US9690396B1 (en) * 2011-12-15 2017-06-27 Brian R. Kubica Paperless blueprint drafting table system
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
CA2862434C (en) * 2012-01-11 2018-07-10 Smart Technologies Ulc Interactive input system and method
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
WO2013108031A2 (en) 2012-01-20 2013-07-25 Light Blue Optics Limited Touch sensitive image display devices
US20140362052A1 (en) 2012-01-20 2014-12-11 Light Blue Optics Ltd Touch Sensitive Image Display Devices
GB201205303D0 (en) 2012-03-26 2012-05-09 Light Blue Optics Ltd Touch sensing systems
US8982265B2 (en) * 2012-04-13 2015-03-17 Young Optics Inc. Image projection and capture apparatus
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
CN103105977A (zh) * 2012-12-11 2013-05-15 武汉智慧城市研究院股份有限公司 一种抗红外噪声的触点识别方法、装置以及系统
TWI477123B (zh) * 2013-01-15 2015-03-11 Univ Nat Chiao Tung 多功能控制照明裝置
US9465484B1 (en) * 2013-03-11 2016-10-11 Amazon Technologies, Inc. Forward and backward looking vision system
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9304594B2 (en) * 2013-04-12 2016-04-05 Microsoft Technology Licensing, Llc Near-plane segmentation using pulsed light source
US10082935B2 (en) * 2013-04-15 2018-09-25 Carnegie Mellon University Virtual tools for use with touch-sensitive surfaces
JP6220653B2 (ja) * 2013-11-28 2017-10-25 シャープ株式会社 光学式位置検出装置およびそれを用いた電子機器
EP3088839B1 (en) * 2013-12-27 2018-12-26 Sony Corporation Image processing device and image processing method
JP6398248B2 (ja) 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
JP6349838B2 (ja) * 2014-01-21 2018-07-04 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
KR102198852B1 (ko) * 2014-03-24 2021-01-05 삼성전자 주식회사 홍채 인식 장치 및 이를 포함하는 모바일 장치
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
CN104598899A (zh) * 2015-02-16 2015-05-06 上海箩箕技术有限公司 指纹成像方法和指纹成像系统
US9983717B2 (en) 2015-04-21 2018-05-29 Dell Products L.P. Disambiguation of false touch inputs at an information handling system projected user interface
US10139854B2 (en) 2015-04-21 2018-11-27 Dell Products L.P. Dynamic display resolution management for an immersed information handling system environment
US11106314B2 (en) 2015-04-21 2021-08-31 Dell Products L.P. Continuous calibration of an information handling system projected user interface
US9804718B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Context based peripheral management for interacting with an information handling system
US11243640B2 (en) 2015-04-21 2022-02-08 Dell Products L.P. Information handling system modular capacitive mat with extension coupling devices
US9753591B2 (en) 2015-04-21 2017-09-05 Dell Products L.P. Capacitive mat information handling system display and totem interactions
US9720550B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Adaptable input active zones at an information handling system projected user interface
US9804733B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US9921644B2 (en) 2015-04-21 2018-03-20 Dell Products L.P. Information handling system non-linear user interface
US9791979B2 (en) * 2015-04-21 2017-10-17 Dell Products L.P. Managing inputs at an information handling system by adaptive infrared illumination and detection
US9720446B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Information handling system projected work space calibration
US9690400B2 (en) 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
US10126636B1 (en) * 2015-06-18 2018-11-13 Steven Glenn Heppler Image projection system for a drum
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
CN105487321B (zh) 2015-12-28 2018-08-14 生迪智慧科技有限公司 红外补光灯的控制方法及拍摄装置
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
US10139973B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139930B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10121054B2 (en) * 2016-11-10 2018-11-06 Synaptics Incorporated Systems and methods for improving spoof detection based on matcher alignment information
EP3410680B1 (en) * 2017-04-19 2020-04-01 Shenzhen Goodix Technology Co., Ltd. Light intensity detection method and device and intelligent terminal
KR20190031416A (ko) * 2017-08-18 2019-03-26 선전 구딕스 테크놀로지 컴퍼니, 리미티드 지문 이미지 획득 방법, 장치 및 단말 장치
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816781A (ja) * 1994-06-27 1996-01-19 Oki Electric Ind Co Ltd 画像認識装置
JPH10154221A (ja) * 1996-11-22 1998-06-09 Matsushita Electric Ind Co Ltd 画像読み取り方法及び装置並びに入出力一体型情報操作装置
JP2001350586A (ja) * 2000-06-09 2001-12-21 Keio Gijuku 位置入力装置

Family Cites Families (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4586817A (en) 1984-02-27 1986-05-06 Rca Corporation Method for determining the MTF of a viewing window
US4972093A (en) 1987-10-09 1990-11-20 Pressco Inc. Inspection lighting system
US4896029A (en) 1988-04-08 1990-01-23 United Parcel Service Of America, Inc. Polygonal information encoding article, process and system
JP2692863B2 (ja) 1988-06-24 1997-12-17 株式会社東芝 無線電話装置
US4992650A (en) 1990-03-29 1991-02-12 International Business Machines Corporation Method and apparatus for barcode recognition in a digital image
US5153418A (en) 1990-10-30 1992-10-06 Omniplanar, Inc. Multiple resolution machine readable symbols
DE69229345T2 (de) 1991-07-11 1999-11-25 United Parcel Service Inc System und verfahren zur erfassung eines optischen zieles
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
JP2855949B2 (ja) * 1992-03-10 1999-02-10 住友電装株式会社 圧着端子画像処理検査における照明方法
US5319214A (en) 1992-04-06 1994-06-07 The United States Of America As Represented By The Secretary Of The Army Infrared image projector utilizing a deformable mirror device spatial light modulator
US5821930A (en) 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US5515452A (en) 1992-12-31 1996-05-07 Electroglas, Inc. Optical character recognition illumination method and system
US5461417A (en) 1993-02-16 1995-10-24 Northeast Robotics, Inc. Continuous diffuse illumination method and apparatus
US5436639A (en) 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
US5526177A (en) 1994-02-14 1996-06-11 Mobi Corporation Dual-view, immersible periscope
US5541419A (en) 1994-03-21 1996-07-30 Intermec Corporation Symbology reader wth reduced specular reflection
DE69504069T2 (de) 1994-06-07 1998-12-10 United Parcel Service Inc Verfahren und gerät zu dekodierung von zweidimensionalen zeichen im raumbereich
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JP3416268B2 (ja) 1994-06-30 2003-06-16 キヤノン株式会社 画像認識装置及びその方法
US5835692A (en) 1994-11-21 1998-11-10 International Business Machines Corporation System and method for providing mapping notation in interactive video displays
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
US5831601A (en) 1995-06-07 1998-11-03 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
US5920688A (en) 1995-11-13 1999-07-06 International Business Machines Corporation Method and operating system for manipulating the orientation of an output image of a data processing system
US6750877B2 (en) 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
US6061091A (en) 1996-05-30 2000-05-09 Agfa Gevaert N.V. Detection of and correction for specular reflections in digital image acquisition
US5909501A (en) 1996-09-09 1999-06-01 Arete Associates Systems and methods with identity verification by comparison and interpretation of skin patterns such as fingerprints
JP3321053B2 (ja) * 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
IL119498A (en) 1996-10-27 2003-02-12 Advanced Recognition Tech Application launching system
GB9622556D0 (en) 1996-10-30 1997-01-08 Philips Electronics Nv Cursor control with user feedback mechanism
FR2756077B1 (fr) 1996-11-19 1999-01-29 Opto System Ecran tactile et dispositif de visualisation utilisant cet ecran tactile
JP2815045B2 (ja) 1996-12-16 1998-10-27 日本電気株式会社 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
ATE232621T1 (de) 1996-12-20 2003-02-15 Hitachi Europ Ltd Verfahren und system zur erkennung von handgesten
US6266061B1 (en) 1997-01-22 2001-07-24 Kabushiki Kaisha Toshiba User interface apparatus and operation range presenting method
US5942762A (en) 1997-01-29 1999-08-24 Accu-Sort Systems, Inc. CCD scanner having improved specular reflection discrimination
US6088612A (en) 1997-04-04 2000-07-11 Medtech Research Corporation Method and apparatus for reflective glare removal in digital photography useful in cervical cancer detection
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6201601B1 (en) 1997-09-19 2001-03-13 Kla-Tencor Corporation Sample inspection system
US20040057045A1 (en) 2000-12-21 2004-03-25 Mehdi Vaez-Iravani Sample inspection system
JP3794180B2 (ja) * 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US6088019A (en) 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
US5940076A (en) 1997-12-01 1999-08-17 Motorola, Inc. Graphical user interface for an electronic device and method therefor
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2938420B2 (ja) 1998-01-30 1999-08-23 インターナショナル・ビジネス・マシーンズ・コーポレイション ファンクション選択方法及び装置、ファンクションを選択するための制御プログラムを格納した記憶媒体、オブジェクトの操作方法及び装置、オブジェクトを操作するための制御プログラムを格納した記憶媒体、複合アイコンを格納した記憶媒体
US5973315A (en) 1998-02-18 1999-10-26 Litton Systems, Inc. Multi-functional day/night observation, ranging, and sighting device with active optical target acquisition and method of its operation
US6154214A (en) 1998-03-20 2000-11-28 Nuvomedia, Inc. Display orientation features for hand-held content display device
US6225620B1 (en) 1998-03-31 2001-05-01 Key Technology, Inc. Peach pit detection apparatus and method
US6448987B1 (en) 1998-04-03 2002-09-10 Intertainer, Inc. Graphic user interface for a digital content delivery system using circular menus
US6269172B1 (en) 1998-04-13 2001-07-31 Compaq Computer Corporation Method for tracking the motion of a 3-D figure
US6111565A (en) 1998-05-14 2000-08-29 Virtual Ink Corp. Stylus for use with transcription system
US6400836B2 (en) 1998-05-15 2002-06-04 International Business Machines Corporation Combined fingerprint acquisition and control device
US6956963B2 (en) 1998-07-08 2005-10-18 Ismeca Europe Semiconductor Sa Imaging for a machine-vision system
US7268774B2 (en) 1998-08-18 2007-09-11 Candledragon, Inc. Tracking motion of a writing instrument
US6088482A (en) 1998-10-22 2000-07-11 Symbol Technologies, Inc. Techniques for reading two dimensional code, including maxicode
JP4043128B2 (ja) 1999-02-24 2008-02-06 富士通株式会社 光走査型タッチパネル
DE19917660A1 (de) 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
US6633338B1 (en) 1999-04-27 2003-10-14 Gsi Lumonics, Inc. Programmable illuminator for vision system
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6522395B1 (en) 1999-04-30 2003-02-18 Canesta, Inc. Noise reduction techniques suitable for three-dimensional information acquirable with CMOS-compatible image sensor ICS
US6788411B1 (en) 1999-07-08 2004-09-07 Ppt Vision, Inc. Method and apparatus for adjusting illumination angle
US6433907B1 (en) 1999-08-05 2002-08-13 Microvision, Inc. Scanned display with plurality of scanning assemblies
US6529183B1 (en) 1999-09-13 2003-03-04 Interval Research Corp. Manual interface combining continuous and discrete capabilities
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
GB2356996A (en) 1999-12-03 2001-06-06 Hewlett Packard Co Improvements to digital cameras
JP2001183994A (ja) 1999-12-27 2001-07-06 Sony Corp 画像表示装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
ATE321310T1 (de) 2000-04-06 2006-04-15 Seiko Epson Corp Verfahren und vorrichtung zum lesen von einem zwei-dimensionalen strichkode und datenspeichermedium
JP2001337978A (ja) 2000-05-26 2001-12-07 Takashi Mine デジタル情報入力システム
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
US8287374B2 (en) 2000-07-07 2012-10-16 Pryor Timothy R Reconfigurable control displays for games, toys, and other applications
US6812907B1 (en) 2000-07-19 2004-11-02 Hewlett-Packard Development Company, L.P. Segmented electronic display
US7161578B1 (en) 2000-08-02 2007-01-09 Logitech Europe S.A. Universal presentation device
US6714221B1 (en) 2000-08-03 2004-03-30 Apple Computer, Inc. Depicting and setting scroll amount
US6791530B2 (en) 2000-08-29 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Circular graphical user interfaces
US7327376B2 (en) 2000-08-29 2008-02-05 Mitsubishi Electric Research Laboratories, Inc. Multi-user collaborative graphical user interfaces
US7009704B1 (en) 2000-10-26 2006-03-07 Kla-Tencor Technologies Corporation Overlay error detection
US6788813B2 (en) 2000-10-27 2004-09-07 Sony Corporation System and method for effectively performing a white balance operation
US7095401B2 (en) 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US7128266B2 (en) 2003-11-13 2006-10-31 Metrologic Instruments. Inc. Hand-supportable digital imaging-based bar code symbol reader supporting narrow-area and wide-area modes of illumination and image capture
US6781069B2 (en) 2000-12-27 2004-08-24 Hewlett-Packard Development Company, L.P. Method and apparatus for virtual interaction with physical documents
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US6925611B2 (en) 2001-01-31 2005-08-02 Microsoft Corporation Navigational interface for mobile and wearable computers
US6520648B2 (en) 2001-02-06 2003-02-18 Infocus Corporation Lamp power pulse modulation in color sequential projection displays
US6895104B2 (en) 2001-02-16 2005-05-17 Sac Technologies, Inc. Image identification system
GB2372391A (en) 2001-02-16 2002-08-21 Hewlett Packard Co Removal of specular reflection
US20020125411A1 (en) 2001-03-08 2002-09-12 Christy Orrin D. Method and apparatus for reducing specular reflection from a scannable surface
US6888960B2 (en) 2001-03-28 2005-05-03 Nec Corporation Fast optimal linear approximation of the images of variably illuminated solid objects for recognition
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
GB2375676A (en) 2001-05-17 2002-11-20 Hewlett Packard Co Reducing the effects of specular reflections appearing in an image
US6959102B2 (en) * 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
JP2002352229A (ja) 2001-05-30 2002-12-06 Mitsubishi Electric Corp 顔部位検出装置
US6639594B2 (en) 2001-06-03 2003-10-28 Microsoft Corporation View-dependent image synthesis
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
CN1304919C (zh) 2001-07-03 2007-03-14 皇家菲利浦电子有限公司 交互显示器和用于显示信息的方法
US6478432B1 (en) 2001-07-13 2002-11-12 Chad D. Dyner Dynamically generated interactive real imaging device
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US7058217B2 (en) 2001-09-28 2006-06-06 Nec Laboratories America, Inc. Broadened-specular reflection and linear subspaces for object recognition
US6663244B1 (en) 2001-12-14 2003-12-16 Infocus Corporation Illumination field blending for use in subtitle projection systems
US20040005920A1 (en) 2002-02-05 2004-01-08 Mindplay Llc Method, apparatus, and article for reading identifying information from, for example, stacks of chips
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7305115B2 (en) 2002-02-22 2007-12-04 Siemens Energy And Automation, Inc. Method and system for improving ability of a machine vision system to discriminate features of a target
JP2003258189A (ja) 2002-03-01 2003-09-12 Toshiba Corp 半導体装置及びその製造方法
US6813016B2 (en) 2002-03-15 2004-11-02 Ppt Vision, Inc. Co-planarity and top-down examination method and optical module for electronic leaded components
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7006128B2 (en) 2002-05-30 2006-02-28 Siemens Corporate Research, Inc. Object detection for sudden illumination changes using order consistency
JP2004259247A (ja) 2002-06-21 2004-09-16 Mitsubishi Electric Research Laboratories Inc マルチユーザコラボラティブ円形グラフィカルユーザインタフェース
US20040001113A1 (en) 2002-06-28 2004-01-01 John Zipperer Method and apparatus for spline-based trajectory classification, gesture detection and localization
AU2003262746A1 (en) 2002-08-20 2004-03-11 Fusionarc, Inc. Method of multiple algorithm processing of biometric data
US7120280B2 (en) 2002-09-27 2006-10-10 Symbol Technologies, Inc. Fingerprint template generation, verification and identification system
JP2004134861A (ja) * 2002-10-08 2004-04-30 Nikon Corp 解像度評価方法、解像度評価プログラム、および光学機器
US20060034492A1 (en) 2002-10-30 2006-02-16 Roy Siegel Hand recognition system
US7390092B2 (en) * 2002-11-08 2008-06-24 Belliveau Richard S Image projection lighting devices with visible and infrared imaging
US6840627B2 (en) 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
US7673145B2 (en) 2003-03-07 2010-03-02 Nippon Telephone And Telegraph Corporation Biometric image collation apparatus and collation method therefor
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP2004304718A (ja) * 2003-04-01 2004-10-28 Nara Institute Of Science & Technology 近接領域画像抽出装置及び近接領域画像抽出方法
JP2004319364A (ja) 2003-04-18 2004-11-11 Alps Electric Co Ltd 照明装置および液晶表示装置
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
JP4517601B2 (ja) 2003-07-09 2010-08-04 ソニー株式会社 投射型画像表示装置
EP1510911A3 (en) 2003-08-28 2006-03-22 Sony Corporation Information processing apparatus, information processing method, information processing program and storage medium containing information processing program
US20050122306A1 (en) 2003-10-29 2005-06-09 E Ink Corporation Electro-optic displays with single edge addressing and removable driver circuitry
JP2007515640A (ja) 2003-12-19 2007-06-14 データカラー ホールディング アーゲー デジタルカメラを有する分光光度計
KR100588042B1 (ko) 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
WO2005084209A2 (en) 2004-02-27 2005-09-15 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US20050212753A1 (en) 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
US7379562B2 (en) 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US20050227217A1 (en) 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7204428B2 (en) 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
CN100573548C (zh) 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US9094615B2 (en) 2004-04-16 2015-07-28 Intheplay, Inc. Automatic event videoing, tracking and content generation
US7310085B2 (en) 2004-04-22 2007-12-18 International Business Machines Corporation User interactive computer controlled display system enabling a user remote from a display screen to make interactive selections on the display screen with a laser beam projected onto the display screen
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7397464B1 (en) 2004-04-30 2008-07-08 Microsoft Corporation Associating application states with a physical object
US7492357B2 (en) 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7467380B2 (en) 2004-05-05 2008-12-16 Microsoft Corporation Invoking applications with virtual objects on an interactive display
US7404146B2 (en) 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7168813B2 (en) 2004-06-17 2007-01-30 Microsoft Corporation Mediacube
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
JP2006031941A (ja) 2004-07-12 2006-02-02 Sharp Corp 面状光源ユニット
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7204420B2 (en) 2004-08-31 2007-04-17 Symbol Technologies, Inc. Scanner and method for eliminating specular reflection
US7576725B2 (en) 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
WO2006058129A2 (en) 2004-11-23 2006-06-01 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
US7398927B2 (en) 2005-01-26 2008-07-15 Datalogic Scanning, Inc. Data reader and methods for imaging targets subject to specular reflection
US20060202974A1 (en) 2005-03-10 2006-09-14 Jeffrey Thielman Surface
US7826687B2 (en) 2005-03-18 2010-11-02 The Invention Science Fund I, Llc Including contextual information with a formed expression
US7499027B2 (en) 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US7525538B2 (en) 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US7828527B2 (en) 2005-09-13 2010-11-09 Illinois Tool Works Inc. Paint circulating system and method
US20070063981A1 (en) 2005-09-16 2007-03-22 Galyean Tinsley A Iii System and method for providing an interactive interface
WO2007050570A2 (en) 2005-10-27 2007-05-03 Xitronix Corporation Method of photo-reflectance characterization of strain and active dopant in semiconductor structures
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7630002B2 (en) 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
US7515143B2 (en) 2006-02-28 2009-04-07 Microsoft Corporation Uniform illumination of interactive display panel
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US8212857B2 (en) 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US9171454B2 (en) 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816781A (ja) * 1994-06-27 1996-01-19 Oki Electric Ind Co Ltd 画像認識装置
JPH10154221A (ja) * 1996-11-22 1998-06-09 Matsushita Electric Ind Co Ltd 画像読み取り方法及び装置並びに入出力一体型情報操作装置
JP2001350586A (ja) * 2000-06-09 2001-12-21 Keio Gijuku 位置入力装置

Also Published As

Publication number Publication date
EP1608157A2 (en) 2005-12-21
US7613358B2 (en) 2009-11-03
JP2011238292A (ja) 2011-11-24
PL1608157T3 (pl) 2011-10-31
US7593593B2 (en) 2009-09-22
EP1608157A3 (en) 2007-01-10
US8165422B2 (en) 2012-04-24
EP1608157B1 (en) 2011-06-01
US20080193043A1 (en) 2008-08-14
ES2364054T3 (es) 2011-08-23
US20120169673A1 (en) 2012-07-05
ATE511673T1 (de) 2011-06-15
US20090262070A1 (en) 2009-10-22
US8670632B2 (en) 2014-03-11
US20050281475A1 (en) 2005-12-22

Similar Documents

Publication Publication Date Title
JP2006048650A (ja) 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム
JP4883970B2 (ja) 光周波数を用いて周囲光のキャンセルを行うための方法及びそのシステム
KR101298384B1 (ko) 상호작용형 디스플레이의 표면을 위한 입력 방법
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US7787706B2 (en) Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
JP6078884B2 (ja) カメラ式マルチタッチ相互作用システム及び方法
US8837780B2 (en) Gesture based human interfaces
KR101247095B1 (ko) 인터랙티브 디스플레이 조명 및 개체 검출 방법과 인터랙티브 디스플레이 시스템
EP1650645A2 (en) Using clear-coded, see-through objects to manipulate virtual objects
EP3015961A1 (en) Information processing device, control method, program, and storage medium
EP1969451A1 (en) Orientation free user interface
US11928291B2 (en) Image projection device
RU2008141173A (ru) Системы и способы для интерактивного определения областей и интересующих объемов
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP2005339269A (ja) 画像表示装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080616

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090812

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110818

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110826

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110916