JP5693972B2 - 切替え可能なディフューザを備える対話型サーフェイスコンピュータ - Google Patents

切替え可能なディフューザを備える対話型サーフェイスコンピュータ Download PDF

Info

Publication number
JP5693972B2
JP5693972B2 JP2010548665A JP2010548665A JP5693972B2 JP 5693972 B2 JP5693972 B2 JP 5693972B2 JP 2010548665 A JP2010548665 A JP 2010548665A JP 2010548665 A JP2010548665 A JP 2010548665A JP 5693972 B2 JP5693972 B2 JP 5693972B2
Authority
JP
Japan
Prior art keywords
surface layer
image
computing device
mode
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010548665A
Other languages
English (en)
Other versions
JP2011513828A (ja
JP2011513828A5 (ja
Inventor
イサディ シャハラン
イサディ シャハラン
エー.ローゼンフェルド ダニエル
エー.ローゼンフェルド ダニエル
イー.ホッジス ステファン
イー.ホッジス ステファン
テイラー スチュアート
テイラー スチュアート
アレクサンダー バトラー デイビッド
アレクサンダー バトラー デイビッド
ヒリゲス オトマール
ヒリゲス オトマール
バクストン ウィリアム
バクストン ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2011513828A publication Critical patent/JP2011513828A/ja
Publication of JP2011513828A5 publication Critical patent/JP2011513828A5/ja
Application granted granted Critical
Publication of JP5693972B2 publication Critical patent/JP5693972B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04109FTIR in optical digitiser, i.e. touch detection by frustrating the total internal reflection within an optical waveguide due to changes of optical properties or deformation at the touch location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Overhead Projectors And Projection Screens (AREA)
  • Image Input (AREA)

Description

従来、コンピュータとのユーザインタラクションは、キーボードおよびマウスによるものであった。スタイラスペンを使用してユーザ入力を可能にするタブレットPCが開発され、また、タッチセンサー式スクリーンでも、ユーザが(例えば、ソフトボタンを押して)スクリーンに触れることにより、より直接的にインタラクションすることを可能にした。しかし、スタイラスペンまたはタッチスクリーンの使用では、一般に、一度に1つの接触点を検出することに限定されている。
近年、ユーザが、複数の指を使用して、コンピュータ上に表示されるデジタルコンテンツと直接インタラクションすることを可能にするサーフェイスコンピュータが開発されている。コンピュータのディスプレイへのそのようなマルチタッチ入力では、直観的なユーザインターフェースがユーザに与えられるが、複数の接触事象を検出することは困難である。マルチタッチ検出へのアプローチでは、ディスプレイ表面より上または下にカメラを使用し、コンピュータビジョンアルゴリズムを使用してキャプチャした映像を処理する。ディスプレイ表面より上にカメラを使用することにより、表面上の手または他の物体を撮像することが可能になるが、表面近くにある物体と、実際に表面に接触している物体の区別が難しい。加えて、そのような「トップダウン」構造においては、オクルージョンが問題になり得る。代替の「ボトムアップ」構造においては、カメラが、ディスプレイ表面より下に、ディスプレイ表面上へ表示する画像の投影に使用されるプロジェクタと共に置かれ、ディスプレイ表面には拡散表面物質が含まれる。そのような「ボトムアップ」システムでは、接触事象をより容易に検出できるが、任意の物体の撮像が難しい。
以下に記載される実施形態は、任意のまたは全ての既知のサーフェイスコンピュータデバイスに関する不都合を解決する実現に限定されない。
以下に、基本的な理解を読者に提供するために開示の簡素化された要約を示す。この要約は、開示の広範囲な概要ではなく、かつ、本発明の重要および/または決定的な要素を特定することまたは本発明の範囲を明確にすること、を意図していない。その唯一の目的は、後に示されるさらに詳細な記載の前置きとして、本明細書に開示されるいくつかの概念を簡素化された形式で示すことである。
切替え可能なディフューザ層を備える対話型サーフェイスコンピュータについて説明する。切替え可能層は2つの状態を有する。透明状態と拡散状態である。該層が拡散状態にある時ときはデジタル画像を表示し、該層が透明状態にある時は該層を通して画像をキャプチャすることが可能である。一実施形態において、プロジェクタを使用して、デジタル画像を拡散状態にある層上に投影し、光センサを使用して接触検出を行う。
以下の発明を実施するための形態を、添付の図面との関連において考察して参照することにより、より良く理解すれば、多くの付随する特徴はさらに容易に理解されるであろう。
本発明は、以下の発明を実施するための形態を添付の図面に照らして読むことにより、より良く理解されるであろう。
サーフェイスコンピュータデバイスの概略図である。 サーフェイスコンピュータデバイスの例示の動作方法のフロー図である。 別のサーフェイスコンピュータデバイスの概略図である。 サーフェイスコンピュータデバイスの別の例示の動作方法のフロー図である。 キャプチャされた画像の二進表現の2つの例を示す図である。 さらなるサーフェイスコンピュータデバイスの概略図である。 さらなるサーフェイスコンピュータデバイスの概略図である。 さらなるサーフェイスコンピュータデバイスの概略図である。 赤外線ソースおよび赤外線センサのアレイの概略図である。 さらなるサーフェイスコンピュータデバイスの概略図である。 さらなるサーフェイスコンピュータデバイスの概略図である。 さらなるサーフェイスコンピュータデバイスの概略図である。 さらなるサーフェイスコンピュータデバイスの概略図である。 さらなるサーフェイスコンピュータデバイスの概略図である。 さらなるサーフェイスコンピュータデバイスの例示の動作方法のフロー図である。 別のサーフェイスコンピュータデバイスの概略図である。同様の参照番号を使用して、添付の図面中の同様の構成部分を示す。
添付の図面との関連において以下に提供される発明を実施するための形態は、本例の説明として意図されるものであり、本例が構築または利用され得る形式のみを表すことを意図していない。記載では、例が有する機能および例を構築および動作するステップの順序が説明される。しかし、同一または同等の機能および順序を、異なる例により達成することができる。
図1は、サーフェイスコンピュータデバイスの概略図であり、サーフェイスコンピュータデバイスには、実質的に拡散である(Diffuse)状態と、実質的に透明な状態との間で切替え可能な表面101と、本例においてはプロジェクタ102を含む表示手段と、カメラまたは他の光学センサ(またはセンサのアレイ)の画像キャプチャデバイス103と、が含まれる。表面は、例えば、卓に水平に埋め込むことができる。図1に示す例において、プロジェクタ102および画像キャプチャデバイス103は、両方とも表面の下に置かれる。他の構成が可能であり、多数の他の構成が以下に記載される。
用語「サーフェイスコンピュータデバイス」は、本明細書で使用されるとき、グラフィカルユーザインターフェースを表示することおよびコンピュータデバイスへの入力を検出すること、に使用される表面を含むコンピュータデバイスに言及する。表面は、平面でも平面でなくとも良く(例えば、曲面または球面)、剛性のものでも可塑性のものでも良い。コンピュータデバイスへの入力は、例えば、ユーザが表面に触れることにより、または物体を使用して(例えば、物体検出またはスタイラス入力)行うことができる。使用される任意の接触検出または物体検出の技術により、単一の接触点の検出が可能とされ、またはマルチタッチ入力が可能とされる。
以下の記載は、「拡散状態」および「透明状態」に言及し、これらは、実質的に拡散(Diffusing)である表面および実質的に透明な表面であって、表面の拡散率が透明状態より拡散状態において実質的に高い、表面について言及する。透明状態において、表面は全体が透明なわけではなく、拡散状態において、表面は全体が拡散(Diffuse)であるわけでなないことを理解されたい。さらに、上述のように、いくつかの例において、表面のある領域のみが切替わる(または切替え可能である)こともある。
サーフェイスコンピュータデバイスの動作の例は、図2に示すフロー図およびタイミングチャート21から23を参照して説明することができる。タイミングチャート21から23は、それぞれ、切替え可能表面101(タイミングチャート21)、プロジェクタ102(タイミングチャート22)、および画像キャプチャデバイス(タイミングチャート23)の動作を示す。表面101が拡散状態211にあると(ブロック201)、プロジェクタ102は、デジタル画像を表面上へ投影する(ブロック202)。このデジタル画像には、サーフェイスコンピュータデバイス用のGUI(graphical user interface:グラフィカルユーザインターフェース、以下GUI)または任意の他のデジタル画像が含むことができる。表面が透明状態212に切替わると(ブロック203)、画像を、画像キャプチャデバイス(ブロック204)により該表面を通してキャプチャすることができる。キャプチャされた画像は、以下に詳述するように、物体の検出に使用することができる。処理は繰り返すことができる。
本明細書に記載されるサーフェイスコンピュータデバイスは、2つのモードを有する。表面が拡散状態にある時の「投影モード」、および、表面が透明モードにある時の「画像キャプチャモード」である。表面101が、フリッカ知覚の閾値を超える速度の状態間で切替わると、サーフェイスコンピュータデバイスを見ている者は、表面に投影される安定したデジタル画像を見ることができる。
図1に示すような、切替え可能なディフューザ層(例えば、表面101)を備えるサーフェイスコンピュータデバイスは、ボトムアップ構造およびトップダウン構造の両方の機能性、例えば、接触事象を見分ける能力を提供する、可視スペクトルでの撮像をサポートする、および、表面から大きく離れた物体の撮像および/または感知を可能にする、といった機能性を提供することができる。検出および/または撮像することができる物体には、ユーザの手もしくは指、または無生物の物体が含まれる。
表面101には、PSCT(Polymer Stabilised Cholesteric Textured:高分子安定化コレステリックテクスチャ、以下PSCT)液晶のシートが含まれ、そのようなシートは、電圧を印加することにより拡散状態と透明状態を電気的に切替えることができる。PSCTは、フリッカ知覚の閾値を超える速度で切替わることが可能である。一例において、表面は、120Hz程度で切替わる。別の例において、表面101には、PDLC(Polymer Dispersed Liquid Crystal:高分子分散型液晶、以下PDLC)のシートが含まれる。しかし、PDLCを使用して達成できる切替え速度は、一般にPSCTによるものより遅い。拡散状態と透明状態を切替え可能な表面の他の例には、拡散ガスまたは透明ガスで選択的に充満させることができるガス充満キャビティ、および、表面の平面の内外で分散素子を切替えることが可能で(例えば、ベネチアンブラインドに類似した方法で)機械的デバイス、が含まれる。これらの全ての例において、表面は、拡散状態と透明状態を電気的に切替え可能である。表面を提供する技術に依存して、表面101は2つの状態のみを有すること、またはより多くの状態を有することができ、例えば、拡散率を制御して、異なる拡散率を持つ多くの状態を提供することが可能である。
いくつかの例において、表面101全体を、実質的に透明な状態と、実質的に拡散な状態に切替えることができる。他の例においては、スクリーンの一部分でのみ状態を切替えることができる。いくつかの例において、切替えられる領域の制御の粒度に依存して、透明の窓が表面(例えば、表面に置かれた物体の下)に開かれ、一方、表面の残りの部分は実質的に拡散状態にある。表面の一部分を切替えることは、表面の切替え速度がフリッカの閾値より下回る場合、画像またはGUIを表面の一部分に表示させる一方、表面の別の部分を通して撮像を行うため、有用である。
他の例においては、表面は、拡散状態と透明状態の間で切替えておらず、表面に入射する光の性質により、拡散動作モードおよび透明動作モードを有することができる。例えば、表面は、偏光の一方向についてのディフューザとして作動し、別の偏光については透過的であることができる。別の例において、表面の光学的特性、および、従って動作のモードは、入射光の波長(例えば、可視光については拡散性であり、赤外線については透過性である)、または入射光の入射角に依存し得る。図13および14に関しては、例が以下に記載される。
図1に示すサーフェイスコンピュータデバイスの表示手段には、デジタル画像を表面101の背面に投影するプロジェクタ102が含まれる(すなわち、プロジェクタは、見る者に対して表面の反対側にある)。これにより、適切な表示手段の一例が提供されるのみであり、他の例には、図7に示すようなフロントプロジェクタ(すなわち、見る者と表面の同じ側にあって、表面の前面に投影するプロジェクタ)、または、図10に示すようなLCD(liquid crystal display:液晶ディスプレイ、以下LCD)が含まれる。プロジェクタ102は、任意のタイプのプロジェクタ、例えば、LCD、LCOS(liquid crystal on silicon:反射型液晶、以下LCOS)、DLP(Digital Light Processing:デジタル光処理方式、以下DLP)(登録商標)、またはレーザプロジェクタ、とすることができる。プロジェクタは、固定または、可動とすることができる。サーフェイスコンピュータデバイスには、以下に詳述するように、複数のプロジェクタを含むことができる。別の例においては、ステレオプロジェクタを使用することができる。サーフェイスコンピュータデバイスに、複数のプロジェクタ(または複数の表示手段)が含まれる場合、プロジェクタは、同じタイプでも異なるタイプのものでも良い。例えば、サーフェイスコンピュータデバイスには、異なる焦点距離、異なる動作波長、異なる解像度、異なる指向方向等、を備えるプロジェクタを含むことができる。
プロジェクタ102は、表面が拡散(Diffuse)であるかまたは透明であるかに関わらず画像を投影することができ、あるいは、プロジェクタの動作を、表面の切替えと同期させて、画像が、表面が一方の状態にある時(例えば、拡散状態にある時)に投影されるようにすることができる。プロジェクタを、表面と同じ速度で切替えることが可能である場合、プロジェクタは、表面と同期して直接切替えられる。しかし、他の例においては、切替え可能なシャッタ(または、鏡またはフィルタ)104をプロジェクタの前に配置し、シャッタを表面に同期させて切り替えることができる。切替え可能なシャッタの例には、強誘電LCDシャッタがある。
プロジェクタ102、任意の他の表示手段、または別の光源等の、サーフェイスコンピュータデバイス内の任意の光源は、表面が透明のときは以下の内の1つまたは複数に対して使用することができる。
・物体の照明(例えば、画像の撮像を可能にする)
・深さの判定、例えば、構造化された光のパターンを物体に投影することによる
・データ送信、例えば、IrDAを使用する
光源が表示手段でもある場合、デジタル画像を表面上へ投影すること以外にこのようなことも行う(例えば、図1のように)。あるいは、複数の光源をサーフェイスコンピュータデバイスに設けることができ、異なる光源を異なる目的に使用することができる。さらなる例が以下に記載される。
画像キャプチャデバイス103には、スチルカメラまたはビデオカメラを含むことができ、キャプチャされた画像は、サーフェイスコンピュータデバイスに近接した物体の検出、接触検出、および/または、サーフェイスコンピュータデバイスから離れた物体の検出に、使用することができる。画像キャプチャデバイス103には、波長選択型および/または偏光選択型のフィルタ105をさらに含むことができる。画像は、表面101が透明状態にある時に「画像キャプチャモード」(ブロック204)でキャプチャされると説明したが、画像は、表面が拡散状態にある時に(例えば、ブロック202と並行して)、このまたは別の画像キャプチャデバイスによりキャプチャすることもできる。サーフェイスコンピュータデバイスには、1つまたは複数の画像キャプチャデバイスを含むことができ、さらなる例が以下に記載される。
画像のキャプチャは、表面の切替えと同期させることができる。画像キャプチャデバイス103を十分に迅速に切替えることが可能である場合、画像キャプチャデバイスは、直接切替えられる。あるいは、強誘電LCDシャッタ等の切替え可能シャッタ106を、画像キャプチャデバイス103の前に配置することができ、シャッタを表面と同期させて切替えることができる。
サーフェイスコンピュータデバイス内の、画像キャプチャデバイス103等の画像キャプチャデバイス(または他の光学センサ)はまた、表面が透明のときは以下の内の1つまたは複数に対して使用することができる。
・物体の撮像、例えば、文書のスキャニング、指紋検出等
・高解像度撮像
・ジェスチャ認識
・深さの判定、例えば、物体に投影される構造化された光パターンを撮像することによる
・ユーザの識別
・データの受信、例えば、IrDAを使用する
接触検出で画像キャプチャデバイスを使用すること以外に、このようなことも行うことができ、これについては以下で詳述する。あるいは、他のセンサを接触検出に使用することができる。さらなる例がまた、以下に記載される。
接触検出は、動作モードの一方または両方でキャプチャされる画像の分析を介して実行することができる。これらの画像は、画像キャプチャデバイス103および/または別の画像キャプチャデバイスを使用してキャプチャされてきた。他の実施形態においては、接触感知は、容量性感知、誘導性感知、または、抵抗性感知等の他の技術を使用して実現することができる。光学センサを使用する接触感知のための多くの例示の配置が、以下に記載される。
用語「接触検出」は、コンピュータデバイスに接触する物体の検出の言及に使用される。検出される物体は、無生物の物体とすることができ、または、ユーザの体の一部とすることができる(例えば、手または指)。
図3は、別のサーフェイスコンピュータデバイスの概略図を示し、図4は、サーフェイスコンピュータデバイスの別の例示の動作方法を示す。サーフェイスコンピュータデバイスには、表面101、プロジェクタ102、カメラ301および赤外線バンドパスフィルタ302が含まれる。接触検出は、表面101に接触する物体303、304により投じられる影の検出によって(「シャドウモード」として知られる)、および/または、物体により反射される光を検出することにより(「反射モード」として知られる)、実行することができる。反射モードにおいて、光源(または発光体)は、スクリーンに接触する物体に光をあてるために必要である。指は、赤外線に対して20%反射するため、赤外線系のマーカまたは赤外線反射物体の影のように、赤外線はユーザの指から反射され、検出される。説明目的のみのため、反射モードが記載され、図3には複数の赤外線光源305が示される(代わりに他の波長を使用することも可能である)。他の例ではシャドウモードを使用することができ、従って赤外線光源305が含まれなくても良いことは理解されるであろう。光源305には、高出力赤外線LED(light emitting diode:発光ダイオード、以下LED)が含まれる。図3に示すサーフェイスコンピュータデバイスにはまた、プロジェクタ102により投影される光を反射する鏡306が含まれる。鏡により、光学縦列が折り畳まれデバイスはより小さくなるが、他の例に、鏡を含めなくとも良い。
反射モードでの接触検出は、表面101に光を当てること(ブロック401、403)、反射光をキャプチャすること(ブロック402、204)、および、キャプチャされた画像を分析すること(フロック404)、により実行することができる。上述したように、接触検出は、投影(拡散)モードおよび画像キャプチャ(透明)モードの一方または両方(図4では両方を示す)でキャプチャされた画像に基づくことができる。拡散状態にある表面101を通過する光は、透明状態にある表面101を通過する光より減衰される。カメラ103は、グレースケールの赤外線深さ画像をキャプチャし、減衰が進んだ結果、表面が拡散(Diffuse)であるときは反射光においてシャープカットオフになり(点線307で示すように)、物体は、物体が表面に近づくとキャプチャされた画像に現れるのみであり、物体が表面に近づくように移動すると、反射光の強度が高まる。表面が透明のときは、表面からより離れた物体からの反射光を、検出することが可能であり、赤外線カメラは、シャープカットオフがより少ないより詳細な深さ画像をキャプチャする。減衰の差による結果、表面に近接する物体が変わらない場合でも2つのモードのそれぞれで異なる画像をキャプチャすることができ、かつ、分析において両方の画像を使用することにより(ブロック404)、物体に関する追加の情報を取得することができる。この追加の情報により、例えば、物体の(例えば、赤外線に対する)反射率を測定可能にすることができる。そのような例において、透明モードのスクリーンを通してキャプチャされた画像が、反射率が既知である(例えば、肌は赤外線に20%の反射率を有する)肌の色または別の物体(または物体のタイプ)を検出することができる。
図5は、キャプチャされた画像501、502の2つの例示の二進表現を示し、また、2つの表現が重なりあったもの503を示す。二進表現は、(ブロック404の分析において)強度の閾値を使用して生成され、閾値を超える強度を有する検出画像の領域が白で示され、閾値を超えない領域が黒で示される。第1の例501は、表面が拡散(Diffuse)であるときに(ブロック402にて)キャプチャされた画像を代表するものであり、第2の例502は、表面が透明のときに(フロック204にて)キャプチャされた画像を代表するものである。拡散表面により減衰が進んだ結果、(およびその結果得られるカットオフ307の結果)、第1の例501は、表面に接触する5本の指先に対応する5つの白い領域504を示し、一方、第2の例502は、2つの手505の位置を示す。例503に示すように、これら2つの例501、502からデータを組み合わせることにより、追加の情報が得られ、この特定の例においては、表面に接触している5本の指が2つの異なる手からものである、と判定することが可能である。
図6は、接触検出のためにFTIR(frustrated total internal reflection:妨害された全反射、以下FTIR)という現象を利用する、別のサーフェイスコンピュータデバイスの概略図を示す。発光ダイオード(LED)601(または、複数のLED)を使用して、アクリル板602に光を照らし、この光はアクリル板602内でTIR(total internal reflection:全反射、以下TIR)が起こる。指603が、アクリル板602の上面に対して押圧されると、光を散乱させる。散乱した光は、アクリル板の背面を通り、アクリル板602の背後に置かれたカメラ103により検出することができる。切替え可能表面101は、アクリル板602の背後におくことができ、プロジェクタ102を使用して、画像を拡散状態にある切替え可能表面101の背面に投影することができる。サーフェイスコンピュータデバイスは、シリコンゴムの層等の薄い可塑性層604をアクリル板602の上部にさらに備えて、TIR妨害する際に補助することができる。
図6において、TIRが、アクリル板602内に示される。これは例示のみのためであり、TIRは、異なる材料でできた層においても起こり得る。別の例において、TIRは、透明状態のときの切替え可能表面自体の中、または、切替え可能表面内の層の中で起こる。多くの例において、切替え可能表面には、ガラス、アクリル、または他の材料とすることができる2つの透明シートの間に、液晶または他の材料を含むことができる。そのような例において、TIRは、切替え可能表面内の透明シートうちの1つの内部で起こり得る。
周囲の赤外線放射の接触検出への影響を減少または除去するために、赤外線フィルタ605を、TIRが起こる平面の上に含めることができる。このフィルタ605は、全ての赤外線波長を遮断することができ、または、別の例においては、ノッチフィルタを使用して、TIRに実際に使用される波長のみを遮断することができる。これにより、(以下に詳述するように)必要であれば、表面を通した撮像のために赤外線を使用することが可能にされる。
図6に示すように、表面に接近しているが接触していない物体を検出するために、接触検出のためのFTIRの使用を、(透き通った状態にある)切替え可能表面を通した撮像と組み合わせることができる。撮像には、接触事象の検出に使用されるものと同じカメラ103を使用することができ、または、別の撮像デバイス606を設けても良い。加えて、または、代わりに、透き通った状態にある表面を通して光を投影しても良い。これらの態様は、以下で詳述される。デバイスにはまた、以下に記載する要素607を含むことができる。
図7および8は、赤外線ソースのアレイ701および接触検出用の赤外線センサを使用する2つの例示のサーフェイスコンピュータデバイスの概略図を示す。図9は、アレイ701の一部をより詳細に示す。アレイ内の赤外線ソース901は、切替え可能表面101を通過する赤外線903を出射する。切替え可能表面101の上または近くにある物体は、赤外線を反射し、反射された赤外線904が1つまたは複数の赤外線センサ902により検出される。フィルタ905が、各赤外線センサ902より上に配置されて、感知に使用されない波長をフィルタで除去することができる(例えば、可視光をフィルタで除去する)。上述したように、赤外線が表面を通過することに伴う減衰は、表面が拡散状態にあるか透明状態にあるかに依存し、これが赤外線センサ902の検出範囲に影響する。
図7に示すサーフェイスコンピュータデバイスでは、前面投影が使用され、一方、図8に示すサーフェイスコンピュータデバイスでは、CamFPD社により開発されたウェッジ(登録商標)等のくさび型光学部材801が使用され、よりコンパクトなデバイスを製造する。図7において、プロジェクタ102は、デジタル画像を切替え可能表面102の前面に投影し、これが、表面が拡散状態にある時に、見る者に見える。プロジェクタ102は、画像を連続的に投影することができ、または、投影は表面の切替えと同期させることができる(上述の通り)。図8において、くさび型光学部材は、一端802において入力される投影された画像を広げ、投影された画像は、表示面803から入力光に対して90度の角度で出る。光学部材は、端から投入された光の入射角を表示面に沿ってある距離まで変換する。この配置で、画像は、切替え可能表面の背面に投影される。
図10は、赤外線ソース1001および接触検出用のセンサ1002を使用するサーフェイスコンピュータデバイスの別の例を示す。サーフェイスコンピュータデバイスには、固定のディフューザ層の代わりに切替え可能表面101を含むLCDパネル1003がさらに含まれる。LCDパネル1003は、表示手段を提供する(上述したとおり)。図1、3および7から9に示すコンピュータデバイスで示すように、切替え可能表面101が拡散状態にある時は、赤外線センサ1002は、拡散表面の減衰のため、接触表面1004に非常に近い物体のみを検出し、切替え可能表面101が透明状態にある時は、接触表面1004から非常に離れた物体を検出することが可能である。図1、3および7から9に示すデバイスにおいて、接触表面は、切替え可能表面101の前面表面であり、一方、図10に示すデバイスにおいては(図6に示すデバイスにおいても)、接触表面1004は切替え可能表面101の前にある(すなわち、切替え可能表面よりも見る者に近い)。
接触検出において、表面の上または近くにある物体により(例えば、上述したように、FTIRまたは反射モードを使用して)偏向された光(例えば、赤外線光)の検出を使用する場合、光源を変調して、周囲の赤外線または別のソースからの散乱された赤外線による影響を軽減することができる。そのような例において、検出された信号は、成分を変調周波数にて考慮するのみのためフィルタリングされることや、ある範囲の周波数を除去するためにフィルタリングされることがある(例えば、閾値より低い周波数)。他のフィルタリングの形態を使用することもできる。
別の例において、切替え可能表面101の上に配置されるステレオカメラを、接触検出に使用することができる。トップダウンのアプローチで接触検出にステレオカメラを使用することは、IEEE Conference on Horizontal Interactive Human−Computer Systems,Tabletop 2007(水平で人間とコンピュータ対話型システムに関するIEEE国際会議、テーブルトップ2007)発行の、S.Izadiらの「C−Slate:A Multi−Touch and Object Recognition System for Remote Collaboration using Horizontal Surfaces」(C−Slate:水平表面を使用するリモートコラボレーションのためのマルチタッチおよび物体認識システム)と題する論文に記載されている。ステレオカメラは、ボトムアップ構造での方法と同様に使用することができ、ステレオカメラは切替え可能表面より下に配置され、撮像は、切替え可能表面が透明状態にある時に実行される。上述したように、撮像は、表面の切替えと同期させることができる(例えば、切替え可能シャッタを使用して)。
サーフェイスコンピュータデバイス内の光学センサは、接触検出に使用する以外にまたはそれに代えて、撮像に使用することができる(例えば、接触検出が代替の技術を使用して達成される場合)。さらに、カメラ等の光学センサを設けて、可視的撮像および/または高解像度撮像を提供することができる。撮像は、切替え可能表面101が透明状態にある時に実行することができる。いくつかの例において、撮像は、表面が拡散状態にある時に実行することもでき、物体の2つのキャプチャされた画像を組み合わせることにより、追加の情報が得られる。
表面を通して物体を撮像するとき、撮像は、(図4に示すように)物体に光を照らすことにより支援される。この照明は、プロジェクタ102または任意の他の光源により提供される。
一例において、図6に示すサーフェイスコンピュータデバイスには、切替え可能表面が透明状態にある時に切替え可能表面を通して撮像するために使用することができる、第2の撮像デバイス606が含まれる。画像のキャプチャは、例えば、画像キャプチャデバイスを直接切替えるおよび/または起動させることにより、または切替え可能シャッタの使用を介して、切替え可能表面101の切替えと同期させることができる。
サーフェイスコンピュータデバイスの表面を通して撮像する、多くの異なる用途があり、用途によって、異なる画像キャプチャデバイスが必要とされる。サーフェイスコンピュータデバイスには、1つまたは複数の画像キャプチャデバイスを含むことができ、これらの画像キャプチャデバイスは、同じタイプでも異なるタイプのものでも良い。図6および11は、複数の画像キャプチャデバイスを含むサーフェイスコンピュータデバイスの例を示す。種々の例が以下に記載される。
可視波長で動作する高解像度画像キャプチャデバイスを使用して、サーフェイスコンピュータデバイス上に置かれた文書等の物体を撮像またはスキャンすることができる。高解像度画像キャプチャは、表面全体または表面の一部に作用する。一例において、切替え可能表面が拡散状態にある時に、赤外線カメラ(例えば、カメラ103をフィルタ105と組み合わせて)により、または、赤外線センサ(例えば、センサ902、1002)により、キャプチャされた画像を使用して、高解像度画像キャプチャが必要な画像の一部を決定することができる。例えば、赤外線画像(拡散表面を通してキャプチャされた)は、表面上の物体(例えば、物体303)の存在を検出することができる。そして、物体の領域が、切替え可能表面101が透明状態にある時に同じまたは異なる画像キャプチャデバイスを使用して、高解像度画像キャプチャに対して識別される。上述したように、プロジェクタまたは他の光源を使用して、撮像またはスキャンする物体を照らすことができる。
画像キャプチャデバイス(これは高解像度画像キャプチャデバイスであり得る)によりキャプチャされた画像は、続いて処理されて、OCR(optical character recognition:光学式文字認識)または手書き文字認識等の追加の機能性を提供することができる。
さらなる例において、ビデオカメラ等の画像キャプチャデバイスを使用して、顔および/または物体のクラスを認識することができる。一例において、外観および形状の手掛かりを使用するランダムフォレストベースの機械学習法を使用して、特定のクラスの物体の存在を検出することができる。
切替え可能表面101の背後に配置されたビデオカメラを使用して、透明状態にある切替え可能表面を通してビデオクリップをキャプチャすることができる。これには、赤外線、可視または他の波長を使用することができる。キャプチャされた映像の分析により、表面から離れた地点でのジェスチャ(例えば、手のジェスチャ)を介するサーフェイスコンピュータデバイスとのユーザインタラクションを可能にすることができる。別の例において、ビデオクリップの代わりに、静止画のシーケンスを使用することができる。データ(すなわち、映像または画像のシーケンス)を分析して、検出した接触点をユーザに対してマッピングすることも可能にできる。例えば、接触点は、手に対してマッピングすることができ(例えば、映像の分析、または図5を参照して上述した方法を使用して)、手および腕を、対にしてマッピングして(例えば、それらの位置、または服の色および/またはパターン等のそれらの視覚的特徴、に基づき)、ユーザの人数、および、どの接触点が異なるユーザの動作に対応するか、を識別することを可能にできる。同様の技術を使用して、手が一時的に視界から消えてまた戻る場合でも、手をトラッキングすることができる。これらの技術は、複数のユーザが同時に使用することが可能なサーフェイスコンピュータデバイスについては、特に適切である。接触点のグループを特定のユーザに対してマッピングする能力がないと、マルチユーザ環境においては接触点が間違って解釈されることがある(例えば、誤ったユーザインタラクションに対してマッピングされる)。
拡散状態にある切替え可能表面を通した撮像により、物体のトラッキングならびに粗いバーコードおよび他の識別マークの認識を可能にする。しかし、切替え可能なディフューザを使用することで、透明状態にある表面を通した撮像により、より詳細なバーコードの認識を可能にする。これにより、より広い範囲の物体の(例えば、より複雑なバーコードを使用した)一意的な識別を可能とし、および/または、バーコードをより小さくすることを可能とする。一例において、物体の位置は、接触検出技術(光学的または他の技術でも良い)を使用して、または、(どちらかの状態にある)切替え可能表面を通して撮像することにより、トラッキングすることができ、高解像度画像を周期的にキャプチャして、物体上の任意のバーコードの検出を可能にする。高解像度撮像デバイスは、赤外線、紫外線または可視波長で、動作することができる。
高解像度撮像デバイスを、指紋認識に使用することもできる。これにより、ユーザの識別、接触事象の分類、ユーザ認証等を可能とする。用途によっては、全指紋検出を行う必要はなく、指紋の特定の特徴に簡素化された分析を施すこともある。撮像デバイスは、手のひらまたは顔認識等の他のタイプの生体認証に使用することもできる。
一例において、白黒画像キャプチャデバイス(例えば、白黒カメラ)を使用して、および、撮像中の物体を順次、赤、緑、青の光で照らすことにより、カラー撮像を行うことができる。
図11は、軸外画像キャプチャデバイス1101を含むサーフェイスコンピュータデバイスの概略図を示す。軸外画像キャプチャデバイスは、例えば、静止画カメラまたはビデオカメラを含むことができ、ディスプレイの周囲の物体および人の撮像に使用することができる。これにより、ユーザの顔をキャプチャすることを可能にする。続いて、顔認識を使用して、ユーザを識別すること、または、ユーザの人数、および/または、ユーザが表面上の何を見ているか(すなわち、表面のどの部分をユーザが見ているか)、を判定することができる。これは、視線認識、視線トラッキング、認証等に使用することができる。別の例において、コンピュータデバイスが表面の回りの人の位置に反応する(例えば、ユーザインターフェースを変更すること、オーディオに使用するスピーカを変更することなどにより)ことを可能にする。図11に示すサーフェイスコンピュータデバイスには、高解像度画像キャプチャデバイス1105を含むこともできる。
上記の記載は、表面を通して物体を直接撮像することに関する。しかし、表面より上に配置される鏡を使用すると、他の表面を撮像することができる。一例において、サーフェイスコンピュータデバイスより上に鏡が組み込まれる場合(例えば、天井に組み込む、特別な装備に組み込むなどして)、表面に置かれた文書の両面を撮像することができる。使用する鏡は、固定されること(すなわち、常に鏡である)、または鏡の状態と非鏡の状態を切替えることが可能である。
上述したように、表面全体、または表面の一部のみをモード間で切替えることができる。一例において、物体が置かれる場所は、接触検出を介して、または、キャプチャされた画像を分析することにより、検出することができる。そして、表面は、物体の領域において切替えられて、透明の窓を開き、その窓を通して撮像、例えば、高解像度撮像を行うことができ、一方、表面の残りの部分は拡散状態にあり、画像を表示することができる。例えば、手のひら認識または指紋認識が実行される場合、表面に接触する手のひらまたは指の存在を、(例えば、上述したような)接触検出法を使用して検出することができる。透明の窓は、手のひらおよび/または指先が置かれた領域内の切替え可能表面(開いていないときは拡散状態である)で開かれ、撮像がこれらの窓を通して実行されて、手のひらおよび/または指紋認識を可能にすることができる。
上述のいずれかのようなサーフェイスコンピュータデバイスは、表面に接触していない物体に関する深さの情報をキャプチャすることもできる。図11に示す例示のサーフェイスコンピュータデバイスには、深さの情報をキャプチャするための要素1102(本明細書においては、「深さキャプチャ要素」と称する)が含まれる。この深さの情報を取得するために使用される多数の異なる技術があり、多数の例を以下に記載する。
第1の例においては、深さキャプチャ要素1102には、ステレオカメラまたは対のカメラが含むことができる。別の例において、要素1102には、例えば、3DV Systems社により開発されたような三次元TOF方式(time of flight:飛行時間計測式、以下TOF方式)カメラを含むことができる。TOF方式カメラは、任意の適切な技術を使用することができ、この技術には、音響、超音波、無線、または光信号を使用することが含まれるが、これに限定されない。
別の例において、深さキャプチャ要素1102は、画像キャプチャデバイスとすることができる。正則グリッドのような構造化された光のパターンは、例えば、プロジェクタ102により、または、第2のプロジェクタ1103により、(透明状態にある)表面101を通して投影され、物体に投影されるパターンは、画像キャプチャデバイスによりキャプチャされ、かつ、分析される。構造化された光のパターンは、可視光または赤外線光を使用することができる。拡散表面への画像の投影に使用するプロジェクタ(例えば、プロジェクタ102)、および、構造化された光のパターンの投影使用するプロジェクタ(例えば、プロジェクタ1103)が別々である場合、デバイスは直接切替えられるか、あるいは、切替え可能シャッタ104、1104をプロジェクタ102、1103の前に配置して切替え可能表面101に同期させて切替えることが可能である。
図8に示すサーフェイスコンピュータデバイスは、CamFPD社により開発されたウェッジ(登録商標)等のくさび型光学部材801を備え、プロジェクタ102を使用して、構造化された光のパターンを透明状態にある表面101を通して投影することができる。
投影される構造化された光のパターンは、変調され、周囲の赤外線または他のソースからの散乱した赤外線の影響を軽減することができるようにする。そのような例において、キャプチャされた画像は、フィルタリングされて、変調の周波数から離れた成分が除去され、または別のフィルタリングスキームを使用することできる。
図6に示すサーフェイスコンピュータデバイスは、接触検出のためにFTIRを使用するが、TOF方式の技術を使用することにより、または、赤外線を使用して構造化された光のパターンを投影することにより、深さの検出に赤外線を使用することもできる。要素607には、TOF方式のデバイスまたは構造化された光のパターンを投影するプロジェクタを含むことができる。接触検出および深さ感知を切り離すために、異なる波長を使用することができる。例えば、TIRは、800nmで動作し、一方、深さの検出は、900nmで動作する。フィルタ605には、800nmを遮断し、よって、深さ感知に影響せずに、周囲の赤外線が接触検出に干渉することを防ぐ、ノッチフィルタが含まれる。
FTIRの例においてフィルタを使用することに加えて、またはその代わりに、赤外線ソースの一方または両方を変調することができ、両方を変調する場合は、異なる周波数で変調し、検出される光(例えば、接触検出用および/または深さ検出用)はフィルタリングされて、不要の周波数を除去することができる。
フィールドの深さが、表面の拡散の程度に反比例するため、すなわち、表面101に対するカットオフ307(図3に示すような)の位置が、表面101の拡散率に依存するため、深さ検出は、切替え可能表面101の拡散率を変化させることによって行うことができる。画像をキャプチャし、または反射光を検出し、そしてその結果得られるデータを分析して、物体がどこで可視なのか否か、および、物体に焦点が合っているのか否かを判定することができる。別の例において、拡散率の値を変化させてキャプチャされたグレースケール画像を、分析することができる。
図12は、別のサーフェイスコンピュータデバイス概略図を示す。デバイスは、図1に示す(および、上述した)ものと同様であるが、追加の表面1201および追加のプロジェクタ1202を備える。上述したように、プロジェクタ1202は、切替え可能表面101と同期させて切替えることができ、または、切替え可能シャッタ1203を使用することができる。追加の表面1201には、第2の切替え可能表面またはホログラフィックの背面投射型スクリーン等の半拡散表面を含むことができる。追加の表面1201が切替え可能表面である場合、表面1201は、逆位相で第1の切替え可能表面101に切替えられ、第1の表面101が透明である時に、追加の表面1202が拡散(Diffuse)であり、逆の場合も同様である。そのようなサーフェイスコンピュータデバイスでは、2層ディスプレイが提供され、これを使用して、深さを有する外観を見る者に与えることができる(例えば、文字を追加の表面1201に、背景を第1の表面101に投影することにより)。別の例において、あまり使用されない窓および/またはアプリケーションを後方の表面に投影し、主要な窓および/またはアプリケーションを前方の表面に投影することができる。
さらに追加の表面を設けることも考えられるが(例えば、2つの切替え可能表面および1つの半拡散表面、または3つの切替え可能表面)、使用する切替え可能表面の数を増やす場合、見る者には、投影された画像にフリッカが少しも見えないようにするのであれば、表面の切替え速度およびプロジェクタまたはシャッタを増やす必要がある。マルチ表面の使用は背面投影に関して上述したが、記載した技術は、前面投影で実現することもできる。
上述した多くのサーフェイスコンピュータデバイスには、赤外線センサ(例えば、センサ902、1002)または赤外線カメラ(例えば、カメラ301)が含まれる。接触事象の検出および/または撮像することに加えて、赤外線センサおよび/またはカメラを、近くの物体からデータを受け取るように配置することもできる。同様に、サーフェイスコンピュータデバイスの任意の赤外線ソース(例えば、ソース305、901、1001)を、近くの物体にデータを伝送するように配置することができる。通信は、一方向性(一方の方向)でも、双方向性でも良い。近くの物体は、接触表面に近いまたは接触しており、または、他の例においては、近くの物体は、タッチスクリーンから近距離(例えば、数キロメートルではなく数メートルまたは数十メートルの程度)にあるものとすることできる。
データは、切替え可能表面101が透明状態にある時に、サーフェイスコンピュータにより伝送され、または受け取られる。通信には、標準のテレビのリモートコントロールプロトコルまたはIrDA等の、任意の適切なプロトコルを使用することができる。通信は、切替え可能表面101の切替えに同期させることができ、または、切替え可能表面101が拡散状態にある時の減衰によるデータの損失を最小限にするために、短いデータパケットを使用することができる。
例えば、受け取られる任意のデータを使用して、例えば、ポインタを提供したりユーザ入力として(例えば、ゲーム用途)、サーフェイスコンピュータデバイスを制御することができる。
図10に示すように、固定拡散層の代わりに、切替え可能表面101を、LCDパネル1003内に使用することができる。画像が浮くことを防ぎ、バックライトシステム(図10には図示しない)内の任意の非線形性を除去するために、LCDパネル内にはディフューザが必要である。接近センサ1002が、LCDパネルの背後に配置される場合、図10に示すように、拡散層から切替える能力(すなわち、切替え可能層を透き通った状態に切替えることにより)により、接近センサの範囲が広がる。一例において、範囲は、1桁分拡大される(例えば、15mm程度から15cm程度まで)。
拡散状態と透明状態との間で層を切替える能力は、視覚的効果を(例えば、テキストを浮遊させる、画像を固定させることにより)与えるような他の用途を有する。別の例において、切替え可能表面の層の背後に赤、緑、青のLEDを配置して、モノクロのLCDを使用することができる。切替え可能の層は、拡散状態においては、カラーディスプレイを提供するために色が順次照らされると(例えば、各色のLEDがうまく広がっている場合)スクリーン全体に広がるように使用することができる。
上述の例においては、電気的に切替え可能な層101を示したが、他の例においては、表面は、表面に入射する光の性質に依存して、拡散動作モードおよび透明動作モードを有することができる(上述の通り)。図13は、動作のモードが光の入射角に依存する表面101を備える例示のサーフェイスコンピュータデバイスの概略図を示す。サーフェイスコンピュータデバイスには、表面に対して角度を成して、表面101の背面への画像の投影を可能にする、プロジェクタ1301が含まれる(すなわち、表面は拡散モードで動作する)。コンピュータデバイスには、スクリーンを通過する光(矢印1303で示すような)をキャプチャするよう配置される画像キャプチャデバイス1302を含むこともできる。図14は、動作のモードが波長および/または偏光による場合の、表面101を備える例示のサーフェイスコンピュータデバイスの概略図を示す。
表面101の切替え可能の性質により、外部からデバイスへの表面を通した撮像も、可能にする。一例において、画像キャプチャデバイス(カメラを備える携帯電話等)を含むデバイスが、表面に置かれる場合、画像キャプチャデバイスは、透明状態にある表面を通して撮像することができる。図12に示すようなマルチ表面の例では、画像キャプチャデバイスを含むデバイスは、最上部の表面1201上に置かれる場合、表面1201が拡散状態にある時に表面1201を撮像し、最上部の表面が透明状態にあり、かつ、下部の表面が拡散状態にある時に、表面101を、撮像することができる。上部の表面の任意のキャプチャされた画像は、焦点から外れており、一方、下部の表面のキャプチャされた画像は、焦点が合っている(2つの表面の間隔およびデバイスの焦点機構による)。この一用途は、サーフェイスコンピュータデバイスに置かれたデバイスを一意的に識別することであり、これについては以下にさらに詳細に記載する。
サーフェイスコンピュータデバイスの表面上にデバイスが置かれると、サーフェイスコンピュータデバイスは、2つの表面のうちの下部の表面101に光のパターン等の光学指標を表示する。サーフェイスコンピュータデバイスは次に、発見プロトコルを行って、範囲内の無線デバイスを識別し、各識別されたデバイスにメッセージを送信してデバイスに任意の光センサを使用させ信号を検出させる。一例において、光センサは、カメラであり、検出された信号は、カメラによりキャプチャされた画像である。各デバイスは次に、何が検出されたのかを識別するデータ(例えば、キャプチャされた画像、または、キャプチャされた画像を代表するデータ)をサーフェイスコンピュータデバイスに送り返す。このデータを分析することにより、サーフェイスコンピュータデバイスは、表示した指標をどの他のデバイスが検出したのかを判定することが可能であり、従って、特定のデバイスが、表面上にあるデバイスであるかどうかを判定することが可能である。これは、表面上のデバイスが一意的に識別されるまで繰り返され、次に、対形成、同期または任意の他のインタラクションを、識別されたデバイスとサーフェイスコンピュータデバイスとの間の無線リンクに渡って生じさせることが可能である。下部の表面を使用して光学指標を表示することにより、カメラ等の光センサがこの下部の表面に焦点を合わせやすいため、詳細なパターンおよび/またはアイコンを使用することが可能である。
図15は、本明細書記載され、図1、3、6から14、および16に示す任意のデバイス等のサーフェイスコンピュータデバイスの例示の動作方法を示すフロー図である。表面が拡散状態にある時に(ブロック201から)、デジタル画像が表面に投影される(ブロック202)。表面が拡散状態にある時に、表面の上または近くにある物体の検出も、実行することができる(ブロック1501)。この検出には、表面を照らすこと(図4のブロック401のように)、および反射光をキャプチャすること(図4のブロック402のように)、が含まれ、または代替の方法を使用することができる。
表面が透明状態にある時に(ブロック203にて切替えられるため)、画像は、表面を通してキャプチャされる(ブロック204)。この画像キャプチャ(ブロック204における)には、表面を照らすことが含まれる(例えば、図4のブロック403に示すように)。キャプチャされた画像(ブロック204から)は、深さの情報を取得すること(ブロック1502)、および/または、表面を通して物体の検出すること(ブロック1503)、に使用することができ、あるいは、キャプチャされた画像(ブロック204から)を使用することなく、深さの情報を取得し(ブロック1502)、または物体を検出する(ブロック1503)ことができる。キャプチャされた画像(ブロック204から)は、ジェスチャ認識(ブロック1504)に使用することができる。表面は透明状態にある時に、データが送信および/または受信(ブロック1505)される。
処理は繰り返され、その間、表面(またはその一部)が拡散状態と透明状態の間を任意の速度で切替えられる。いくつかの例において、表面は、フリッカ知覚の閾値を超える速度で切替えることができる。他の例において、画像のキャプチャが周期的に起こるのみである場合、表面は、画像キャプチャが要求されるまで拡散状態のまま保持され、要求されると表面が透明状態に切替えられる。
図16は、種々の例示のサーフェイスコンピュータ系デバイス1600の構成要素を例示し、サーフェイスコンピュータ系デバイス1600は、任意の形式のコンピュータデバイスおよび/または電子デバイスとして実現することができ、それにおいて、本明細書に記載される方法の実施形態(例えば、図2、4および15に示すように)を実現することができる。
コンピュータ系デバイス1600には、1つまたは複数のプロセッサ1601が含まれ、プロセッサ1601は、マイクロプロセッサ、コントローラ、または、上述のように(例えば、図15に示すように)動作させるためにデバイスの動作を制御する、コンピュータ実行可能命令を処理するための任意の他の適切なタイプのプロセッサ、とすることができる。オペレーティングシステム1602を備えるプラットフォームソフトウェア、または任意の他の適切なプラットフォームソフトウェアが、コンピュータ系デバイスに設けられて、アプリケーションソフトウェア1603から1611がデバイス上で実行されることを可能にする。
アプリケーションソフトウェアには、以下のうちの1つまたは複数を含むことができる。
・1つまたは複数の画像キャプチャデバイス103、1614を制御するよう配置される画像キャプチャモジュール1604。
・切替え可能表面101に透明状態と拡散状態との間で切替えさせるよう配置される表面モジュール1605。
・表示手段1615を制御するよう配置される表示モジュール1606。
・表面に近接する物体を検出するよう配置される物体検出モジュール1607。
・接触事象を検出するよう配置される接触検出モジュール1608(例えば、物体検出および接触検出に異なる技術が使用される場合)。
・データを受信および/または送信するよう配置されるデータ送信および/または受信モジュール1609(上述の通り)。
・画像キャプチャモジュール1604からデータを受け取り、そのデータを分析してジェスチャを認識するよう配置されるジェスチャ認識モジュール1610。
・例えば、画像キャプチャモジュール1604から受け取ったデータを分析することにより、表面に近接する物体の深さの情報を取得するよう配置される深さモジュール1611。
各モジュールは、切替え可能表面式コンピュータに、上記の例のうちの任意の1つまたは複数において記載される通りに動作させるよう、配置される。
オペレーティングシステム1602およびアプリケーションソフトウェア1603から1611等のコンピュータ実行可能命令は、メモリ1612等の任意のコンピュータ可読媒体を使用して提供される。メモリは、RAM(random access memory:ランダムアクセスメモリ)、磁気記憶装置もしくは光記憶装置等の任意のタイプのディスク記憶装置、ハードディスクドライブ、または、CD、DVDもしくは他のディスクドライブ、等の任意の適切なタイプのものである。フラッシュメモリ、EPROMまたはEEPROMも、使用することができる。メモリには、キャプチャされた画像、キャプチャされた深さのデータ等を記憶するために使用されるデータストア1613を含むこともできる。
コンピュータ系デバイス1600には、切替え可能表面101、表示手段1615および画像キャプチャデバイス103を含むこともできる。デバイスは、1つまたは複数の追加の画像キャプチャデバイス1614および/またはプロジェクタまたは他の光源1616をさらに含むことができる。
コンピュータ系デバイス1600には、1つまたは複数の入力(例えば、メディアコンテンツを受け取るのに適切な任意のタイプの入力、IP(Internt Protocol:インターネットプロトコル)入力等)、通信インターフェース、およびオーディオ出力等の1つまたは複数の出力をさらに含むことができる。
図1、3、6から14および16は、上記において、サーフェイスコンピュータデバイスの種々の異なる例を示す。任意のこれらの例の態様は、他の例の態様と組み合わせることができる。例えば、FTIR(図6に示すような)は、前面投影(図7に示すような)と、または、ウェッジ(登録商標)(図8に示すような)の使用と、の組み合わせにおいて使用することができる。別の例において、軸外撮像(図11に示すような)の使用は、赤外線(図3に示すような)を使用して接触を感知するFTIR(図6に示すような)と組み合わせて使用することができる。さらなる例において、鏡(図3に示すような)は、任意の他の例において光学縦列を折り畳むことに使用することができる。記載されない他の組み合わせも、本発明の精神および範囲内で可能である。
上記の記載では、表面が水平であるような方向に置かれるサーフェイスコンピュータデバイスに言及しているが(他の要素は、その表面より上または下にあるものとして記載される)、サーフェイスコンピュータデバイスは、任意の方法で置かれる。例えば、コンピュータデバイスは、切替え可能表面が垂直になるように壁に掛けることができる。
本明細書に記載されるサーフェイスコンピュータデバイスには多くの異なる用途がある。一例において、サーフェイスコンピュータデバイスは、家庭または職場環境おいて使用することができ、および/または、ゲームに使用することができる。更なる例には、ATM(automated teller machine:現金自動預け払い機、以下ATM)内で(または現金自動預け払い機として)の使用が含まれ、表面を通した撮像は、カードを撮像するため、および/または、ATMのユーザを認証する生体認証技術を使用するため、に使用することができる。別の例において、サーフェイスコンピュータデバイスを使用して、例えば、高度なセキュリティが必要な空港や銀行等の場所に、隠しCCTV(close circuit television:閉回路テレビ)を設けることができる。ユーザは、表面上に表示された情報(例えば、空港のフライト情報)を読み、接触感知能力を使用して表面でやりとりすることができ、一方、同時に、表面が透明モードにある時に表面を通して、画像をキャプチャすることが可能である。
本例は、サーフェイスコンピュータシステムにおいて実現されるものとして本明細書に記載され例示されるが、記載されるシステムは、一例として提供されるものであり限定するものではない。当業者は理解するであろうが、本例は、様々な異なるタイプのコンピュータシステムにおける用途に適応する。
用語「コンピュータ」は、本明細書で使用されるとき、命令を実行することが可能な処理能力を有する任意のデバイスに言及する。当業者は、そのような処理能力が多くの異なるデバイスに組み込まれ、従って、用語「コンピュータ」には、PC、サーバ、携帯電話、携帯端末、および多くの他のデバイス、が含まれることを理解するであろう。
本明細書に記載される方法は、有形の記憶媒体上の機械可読形式のソフトウェアにより実行することができる。ソフトウェアは、パラレルプロセッサまたはシリアルプロセッサ上での実行に適応することが可能であり、方法のステップが任意の適切な順番で、または同時に実行され得る。
これにより、ソフトウェアが、有益で個別に交換可能な品であるものである、ということが認識される。「データ処理能力の無い」または標準のハードウェア上で稼働する、またはそれを制御して、所望の機能を実行するソフトウェアが、包含されることが意図される。また、ハードウェアの構成を「記載する」または定義する、HDL(hardware description language:ハードウェア記述言語)ソフトウェア等の、シリコンチップの設計、または、ユニバーサルプログラマブルチップを構成に使用されるような、所望の機能を実行するソフトウェアが、包含されることも意図される。
当業者は、理解するであろうが、プログラム命令を記憶するのに利用される記憶装置は、ネットワークを介して分散させることが可能である。例えば、リモートコンピュータは、ソフトウェアとして記載される処理の例を記憶することができる。ローカルまたは端末のコンピュータは、リモートコンピュータにアクセスし、プログラムを実行するソフトウェアの一部または全てをダウンロードすることができる。あるいは、ローカルコンピュータは、必要であればいくつかのソフトウェアをダウンロードし、または、いくつかのソフトウェア命令をローカル端末で実行し、いくつかをリモートコンピュータ(またはコンピュータネットワーク)で実行することができる。当業者はまた、理解するであろうが、当業者には既知の従来の技術を利用することにより、全てまたは一部のソフトウェア命令は、DSP、プログラマブル論理アレイ、等の専用の回路により実行することができる。
本明細書に与えられる任意の範囲またはデバイスの値は、当業者には理解されるように、求められた効果を失うことなく拡大または変更することができる。
上述の利益および利点が、一実施形態に関連する、またはいくつかの実施形態に関連するということは理解されるであろう。実施形態は、述べられた問題点の任意または全てのものを解決するもの、または、述べられた利益および利点の任意または全てのものを有するもの、に限定されない。さらに、一項目への言及が、1つまたは複数の項目への言及となることは、理解されるであろう。
本明細書に記載される方法のステップは、必要に応じて、任意の適切な順番でまたは同時に、実行することができる。加えて、個々のブロックは、本明細書に記載される主題の精神および範囲から逸脱することなく、任意の方法から削除することができる。上述したものの任意の例の態様は、上記の任意の他の例の態様と組み合わせて、求められた効果を失うことなくさらなる例を形成することができる。
用語「含む(備える)」は、本明細書で使用されるとき、識別される方法のブロックまたは要素を含むが、そのようなブロックまたは要素には、排他的に網羅されるものは含まれない、ことを意味し、方法または装置には、追加のブロックまたは要素を包含することができる。
好ましい実施形態についての上記の記載は、単に例として与えられ、当業者により種々の修正を行うことができることは、理解されるであろう。上記の仕様、例、およびデータにより、本発明の例示の実施形態の構造および使用について完結した記載が提供される。本発明の種々の実施形態は、ある程度の特殊性を持って、かつ、1つまたは複数の個々の実施形態を参照して記載されたが、当業者は、本発明の精神または範囲から逸脱することなく、開示される実施形態に対して多数の変形をなすことが可能である。

Claims (12)

  1. 少なくとも2つの動作モードを有する表面層であって、第1の動作モードでは前記表面層が実質的に拡散状態であり、第2の動作モードでは前記表面層が実質的に透明状態である、表面層と、
    前記第1の動作モードにおける前記表面層上にデジタル画像を表示するよう配置される表示手段と、
    前記第2の動作モードにおける前記表面層を通して光を投影するよう配置される第1の光源と、
    前記第1の動作モード及び前記第2の動作モードにおいて前記表面層上の物体の画像をキャプチャするよう配置される画像キャプチャデバイスであって、前記第1の動作モードにおいてキャプチャされた画像と前記第2の動作モードにおいてキャプチャされた画像を分析してユーザのジェスチャを識別する、画像キャプチャデバイスと
    を備え、前記画像キャプチャデバイスは、前記第1の動作モードにおいてキャプチャされた画像と前記第2の動作モードにおいてキャプチャされた画像とを組み合わせて、前記物体に関する追加の情報を得て、前記ユーザのジェスチャを識別するように構成される、サーフェイスコンピュータデバイス。
  2. 前記表面層が、少なくとも前記2つの動作モード間で、フリッカ知覚の閾値を超える速度で切替えられる請求項1に記載のサーフェイスコンピュータデバイス。
  3. 前記表示手段が、プロジェクタおよびLCDパネルのうちの1つを備える請求項1又は2に記載のサーフェイスコンピュータデバイス。
  4. 前記表面層を照らすよう配置される第2の光源と、
    前記第2の光源により出射され、前記表面層に近接する前記物体により偏向される光を検出するよう配置される光センサと
    をさらに備える請求項1乃至3のいずれかに記載のサーフェイスコンピュータデバイス。
  5. 前記画像キャプチャデバイスが、高解像度画像キャプチャデバイスを備える請求項1乃至4のいずれかに記載のサーフェイスコンピュータデバイス。
  6. 前記表面層は第1の表面層であり、第2の表面層をさらに備える請求項1乃至5のいずれかに記載のサーフェイスコンピュータデバイス。
  7. 前記表面層のモード間の切替えを制御する手段と、
    前記表面層の切替えと前記表示手段を同期させる手段と
    をさらに備える請求項1乃至6のいずれかに記載のサーフェイスコンピュータデバイス。
  8. 表面層を、実質的に拡散状態である第1の動作モードと実質的に透明状態第2の動作モードとの間で切替えるステップと、
    前記第1の動作モードにおいて、
    前記表面層上にデジタル画像を表示するステップと、
    前記表面層を通して第1の光を投影するステップと、
    物体からの前記第1の光の反射であって、前記表面層を通過する前記第1の光の反射を検出するステップと、
    前記第1の光の反射の検出に基づいて、前記表面層にする前記物体を検出し、前記物体の画像をキャプチャするステップと、
    前記第2の動作モードにおいて、
    前記表面層上の前記物体の画像をキャプチャするステップであって、前記画像を分析してユーザのジェスチャを識別する、ステップと
    を含み、前記画像を分析してユーザのジェスチャを識別することは、前記第1の動作モードにおいてキャプチャされた画像と、前記第2の動作モードにおいてキャプチャされた画像とを組み合わせて、前記物体に関する追加の情報を得て、前記ユーザのジェスチャを識別することを含む、方法。
  9. デジタル画像を表示するステップが、デジタル画像を前記表面層上に投影するステップを備える請求項8に記載の方法。
  10. 前記第2の動作モードにおいて、前記表面を通して光を投影するステップをさらに備える請求項8又は9に記載の方法。
  11. 前記表面層を通して物体を検出するステップをさらに備える請求項8乃至10のいずれかに記載の方法。
  12. 前記第2の動作モードにおいて、前記表面層を通してデータの送信及び受信の一方を実行するステップをさらに備える請求項8乃至11のいずれかに記載の方法。
JP2010548665A 2008-02-29 2008-12-31 切替え可能なディフューザを備える対話型サーフェイスコンピュータ Expired - Fee Related JP5693972B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/040,629 2008-02-29
US12/040,629 US20090219253A1 (en) 2008-02-29 2008-02-29 Interactive Surface Computer with Switchable Diffuser
PCT/US2008/088612 WO2009110951A1 (en) 2008-02-29 2008-12-31 Interactive surface computer with switchable diffuser

Publications (3)

Publication Number Publication Date
JP2011513828A JP2011513828A (ja) 2011-04-28
JP2011513828A5 JP2011513828A5 (ja) 2012-02-16
JP5693972B2 true JP5693972B2 (ja) 2015-04-01

Family

ID=41012805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010548665A Expired - Fee Related JP5693972B2 (ja) 2008-02-29 2008-12-31 切替え可能なディフューザを備える対話型サーフェイスコンピュータ

Country Status (10)

Country Link
US (1) US20090219253A1 (ja)
EP (1) EP2260368A4 (ja)
JP (1) JP5693972B2 (ja)
KR (1) KR20100123878A (ja)
CN (1) CN101971123B (ja)
CA (1) CA2716403A1 (ja)
IL (1) IL207284A0 (ja)
MX (1) MX2010009519A (ja)
TW (1) TWI470507B (ja)
WO (1) WO2009110951A1 (ja)

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009099280A2 (en) * 2008-02-05 2009-08-13 Lg Electronics Inc. Input unit and control method thereof
US8042949B2 (en) * 2008-05-02 2011-10-25 Microsoft Corporation Projection of images onto tangible user interfaces
US20090322706A1 (en) * 2008-06-26 2009-12-31 Symbol Technologies, Inc. Information display with optical data capture
WO2010001661A1 (ja) * 2008-07-01 2010-01-07 シャープ株式会社 表示装置
US8842076B2 (en) * 2008-07-07 2014-09-23 Rockstar Consortium Us Lp Multi-touch touchscreen incorporating pen tracking
US9268413B2 (en) 2008-07-07 2016-02-23 Rpx Clearinghouse Llc Multi-touch touchscreen incorporating pen tracking
US8154428B2 (en) * 2008-07-15 2012-04-10 International Business Machines Corporation Gesture recognition control of electronic devices using a multi-touch device
US20100095250A1 (en) * 2008-10-15 2010-04-15 Raytheon Company Facilitating Interaction With An Application
TWI390452B (zh) * 2008-10-17 2013-03-21 Acer Inc 指紋感測裝置與方法以及具指紋感測之觸控裝置
JP2012508913A (ja) * 2008-11-12 2012-04-12 フラットフロッグ ラボラトリーズ アーベー 一体型タッチセンシングディスプレー装置およびその製造方法
US20100309138A1 (en) * 2009-06-04 2010-12-09 Ching-Feng Lee Position detection apparatus and method thereof
US8947400B2 (en) * 2009-06-11 2015-02-03 Nokia Corporation Apparatus, methods and computer readable storage mediums for providing a user interface
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
KR101604030B1 (ko) 2009-06-16 2016-03-16 삼성전자주식회사 어레이 방식의 후방 카메라를 이용한 멀티터치 센싱 장치
EP2336861A3 (en) * 2009-11-13 2011-10-12 Samsung Electronics Co., Ltd. Multi-touch and proximate object sensing apparatus using sensing array
US8490002B2 (en) * 2010-02-11 2013-07-16 Apple Inc. Projected display shared workspaces
WO2011101518A1 (es) * 2010-02-16 2011-08-25 Universidad Politécnica De Valencia (Upv) Dispositivo de múltiple tacto por proyección de imágenes y datos sobre superficies, y procedimiento de operación de dicho dispositivo
US9405404B2 (en) * 2010-03-26 2016-08-02 Autodesk, Inc. Multi-touch marking menus and directional chording gestures
WO2011121484A1 (en) * 2010-03-31 2011-10-06 Koninklijke Philips Electronics N.V. Head-pose tracking system
WO2011142202A1 (ja) * 2010-05-12 2011-11-17 シャープ株式会社 表示装置
JP2012003585A (ja) * 2010-06-18 2012-01-05 Toyota Infotechnology Center Co Ltd ユーザインタフェース装置
JP2012003690A (ja) * 2010-06-21 2012-01-05 Toyota Infotechnology Center Co Ltd ユーザインタフェース装置
WO2012015395A1 (en) * 2010-07-27 2012-02-02 Hewlett-Packard Development Company, L.P. System and method for remote touch detection
TW201205551A (en) * 2010-07-29 2012-02-01 Hon Hai Prec Ind Co Ltd Display device assembling a camera
US8780085B2 (en) * 2010-08-03 2014-07-15 Microsoft Corporation Resolution enhancement
US8682030B2 (en) 2010-09-24 2014-03-25 Microsoft Corporation Interactive display
US20130215027A1 (en) * 2010-10-22 2013-08-22 Curt N. Van Lydegraf Evaluating an Input Relative to a Display
US8941683B2 (en) 2010-11-01 2015-01-27 Microsoft Corporation Transparent display interaction
KR20120052649A (ko) * 2010-11-16 2012-05-24 삼성모바일디스플레이주식회사 투명 표시 장치 및 그 제어 방법
US20120127084A1 (en) * 2010-11-18 2012-05-24 Microsoft Corporation Variable light diffusion in interactive display device
US9535537B2 (en) * 2010-11-18 2017-01-03 Microsoft Technology Licensing, Llc Hover detection in an interactive display device
US8770813B2 (en) 2010-12-23 2014-07-08 Microsoft Corporation Transparent display backlight assembly
KR101816721B1 (ko) * 2011-01-18 2018-01-10 삼성전자주식회사 센싱 모듈, gui 제어 장치 및 방법
US9050740B2 (en) 2011-05-19 2015-06-09 Microsoft Technology Licensing, Llc Forming non-uniform optical guiding structures
US9213438B2 (en) * 2011-06-02 2015-12-15 Omnivision Technologies, Inc. Optical touchpad for touch and gesture recognition
US8928735B2 (en) * 2011-06-14 2015-01-06 Microsoft Corporation Combined lighting, projection, and image capture without video feedback
US9317130B2 (en) 2011-06-16 2016-04-19 Rafal Jan Krepec Visual feedback by identifying anatomical features of a hand
US8982100B2 (en) 2011-08-31 2015-03-17 Smart Technologies Ulc Interactive input system and panel therefor
US9030445B2 (en) 2011-10-07 2015-05-12 Qualcomm Incorporated Vision-based interactive projection system
WO2013081894A1 (en) 2011-11-28 2013-06-06 Corning Incorporated Optical touch-screen systems and methods using a planar transparent sheet
WO2013081896A1 (en) 2011-11-28 2013-06-06 Corning Incorporated Robust optical touch-screen systems and methods using a planar transparent sheet
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US9462255B1 (en) 2012-04-18 2016-10-04 Amazon Technologies, Inc. Projection and camera system for augmented reality environment
US9880653B2 (en) 2012-04-30 2018-01-30 Corning Incorporated Pressure-sensing touch system utilizing total-internal reflection
WO2013163720A1 (en) * 2012-05-02 2013-11-07 University Of Manitoba User identity detection on interactive surfaces
US20130300764A1 (en) * 2012-05-08 2013-11-14 Research In Motion Limited System and method for displaying supplementary information associated with a graphic object on a display of an electronic device
US9952719B2 (en) 2012-05-24 2018-04-24 Corning Incorporated Waveguide-based touch system employing interference effects
JP6161241B2 (ja) * 2012-08-02 2017-07-12 シャープ株式会社 机型表示装置
KR101382287B1 (ko) * 2012-08-22 2014-04-08 현대자동차(주) 적외선을 이용한 터치스크린 및 그 터치스크린의 터치 인식장치 및 방법
US9134842B2 (en) 2012-10-04 2015-09-15 Corning Incorporated Pressure sensing touch systems and methods
US20140210770A1 (en) 2012-10-04 2014-07-31 Corning Incorporated Pressure sensing touch systems and methods
US9557846B2 (en) 2012-10-04 2017-01-31 Corning Incorporated Pressure-sensing touch system utilizing optical and capacitive systems
US9619084B2 (en) 2012-10-04 2017-04-11 Corning Incorporated Touch screen systems and methods for sensing touch screen displacement
US9285623B2 (en) 2012-10-04 2016-03-15 Corning Incorporated Touch screen systems with interface layer
WO2014087634A1 (ja) * 2012-12-03 2014-06-12 パナソニック株式会社 入力装置
US9223442B2 (en) * 2013-01-10 2015-12-29 Samsung Display Co., Ltd. Proximity and touch sensing surface for integration with a display
JP6111706B2 (ja) * 2013-02-01 2017-04-12 セイコーエプソン株式会社 位置検出装置、調整方法、および調整プログラム
WO2014183262A1 (en) 2013-05-14 2014-11-20 Empire Technology Development Llc Detection of user gestures
US9575352B2 (en) 2013-07-23 2017-02-21 3M Innovative Properties Company Addressable switchable transparent display
US9137542B2 (en) 2013-07-23 2015-09-15 3M Innovative Properties Company Audio encoding of control signals for displays
US10003777B2 (en) 2013-11-21 2018-06-19 Hewlett-Packard Development Company, L.P. Projection screen for specularly reflecting light
JP6447516B2 (ja) * 2013-12-27 2019-01-09 ソニー株式会社 画像処理装置、および画像処理方法
US9720506B2 (en) * 2014-01-14 2017-08-01 Microsoft Technology Licensing, Llc 3D silhouette sensing system
JP6398248B2 (ja) * 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
CN105723306B (zh) * 2014-01-30 2019-01-04 施政 改变标记在物体上的用户界面元素的状态的系统和方法
US9653044B2 (en) 2014-02-14 2017-05-16 Microsoft Technology Licensing, Llc Interactive display system
KR20150106232A (ko) * 2014-03-11 2015-09-21 삼성전자주식회사 터치인식장치 및 이를 채용한 디스플레이장치
CN104345995B (zh) * 2014-10-27 2018-01-09 京东方科技集团股份有限公司 一种触控面板
US10901548B2 (en) 2015-04-07 2021-01-26 Omnivision Technologies, Inc. Touch screen rear projection display
US10666848B2 (en) 2015-05-05 2020-05-26 Microsoft Technology Licensing, Llc Remote depth sensing via relayed depth from diffusion
US20180246617A1 (en) * 2015-09-03 2018-08-30 Smart Technologies Ulc Transparent interactive touch system and method
US9818234B2 (en) 2016-03-16 2017-11-14 Canon Kabushiki Kaisha 3D shape reconstruction using reflection onto electronic light diffusing layers
PT3866389T (pt) * 2016-05-27 2022-09-29 Wayne Fueling Systems Llc Dispensador de combustível transparente
US10520782B2 (en) 2017-02-02 2019-12-31 James David Busch Display devices, systems and methods capable of single-sided, dual-sided, and transparent mixed reality applications
WO2019059061A1 (ja) * 2017-09-25 2019-03-28 Kddi株式会社 タッチパネル装置
US10641942B2 (en) 2018-07-16 2020-05-05 Shenzhen Guangjian Technology Co., Ltd. Light projecting method and device
US10690752B2 (en) * 2018-07-16 2020-06-23 Shenzhen Guangjian Technology Co., Ltd. Light projecting method and device
US10545275B1 (en) 2018-07-16 2020-01-28 Shenzhen Guangjian Technology Co., Ltd. Light projecting method and device
CN109036331B (zh) * 2018-08-24 2020-04-24 京东方科技集团股份有限公司 显示屏的亮度调节方法及装置、显示屏
US10690846B2 (en) 2018-10-24 2020-06-23 Shenzhen Guangjian Technology Co., Ltd. Light projecting method and device
CN111323931B (zh) 2019-01-15 2023-04-14 深圳市光鉴科技有限公司 光投射系统和方法
CN111323991A (zh) * 2019-03-21 2020-06-23 深圳市光鉴科技有限公司 一种光投射系统及光投射方法
US10564521B1 (en) 2019-01-15 2020-02-18 Shenzhen Guangjian Technology Co., Ltd. Switchable diffuser projection systems and methods
US10585194B1 (en) 2019-01-15 2020-03-10 Shenzhen Guangjian Technology Co., Ltd. Switchable diffuser projection systems and methods
US10585173B1 (en) 2019-01-15 2020-03-10 Shenzhen Guangjian Technology Co., Ltd. Systems and methods for enhanced ToF resolution
CN110149510B (zh) 2019-01-17 2023-09-08 深圳市光鉴科技有限公司 用于屏下的3d摄像头模组及电子设备
CN113253475A (zh) * 2019-01-25 2021-08-13 深圳市光鉴科技有限公司 可切换式漫射器投射系统和方法
DE102019127674A1 (de) * 2019-10-15 2021-04-15 Audi Ag Berührungslos bedienbare Bedienvorrichtung für ein Kraftfahrzeug
CN111128046B (zh) * 2020-01-16 2021-04-27 浙江大学 一种led显示屏幕的无透镜成像装置及方法
US11544994B2 (en) 2020-03-27 2023-01-03 Aristocrat Technologies, Inc. Beacon to patron communications for electronic gaming devices
DE102020111336A1 (de) * 2020-04-27 2021-10-28 Keba Ag Selbstbedienungsautomat
US20210338864A1 (en) * 2020-04-30 2021-11-04 Aristocrat Technologies, Inc. Ultraviolet disinfection and sanitizing systems and methods for electronic gaming devices and other gaming equipment
US20230403451A1 (en) * 2020-10-27 2023-12-14 Google Llc System and apparatus of under-display camera
US11106309B1 (en) * 2021-01-07 2021-08-31 Anexa Labs Llc Electrode touch display

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3647284A (en) * 1970-11-30 1972-03-07 Virgil B Elings Optical display device
US4743748A (en) * 1985-08-09 1988-05-10 Brien Thomas P O Three-dimensional display system with a feedback control loop sensitive to the instantaneous positioning of a flexible mirror membrane
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US5572375A (en) * 1990-08-03 1996-11-05 Crabtree, Iv; Allen F. Method and apparatus for manipulating, projecting and displaying light in a volumetric format
JP3138550B2 (ja) * 1992-09-28 2001-02-26 株式会社リコー 投射スクリーン
JPH06265891A (ja) * 1993-03-16 1994-09-22 Sharp Corp 液晶光学素子及び画像投影装置
US5754147A (en) * 1993-08-18 1998-05-19 Tsao; Che-Chih Method and apparatus for displaying three-dimensional volumetric images
US5644369A (en) * 1995-02-24 1997-07-01 Motorola Switchable lens/diffuser
US7190518B1 (en) * 1996-01-22 2007-03-13 3Ality, Inc. Systems for and methods of three dimensional viewing
EP0919043B1 (en) * 1996-09-03 2000-05-17 Christian Stegmann Method for displaying a 2-d design on a 3-d object
JP3794180B2 (ja) * 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US7239293B2 (en) * 1998-01-21 2007-07-03 New York University Autostereoscopic display
US6377229B1 (en) * 1998-04-20 2002-04-23 Dimensional Media Associates, Inc. Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing
EP1116201A1 (en) * 1998-09-24 2001-07-18 Actuality Systems Inc. Volumetric three-dimensional display architecture
US6765566B1 (en) * 1998-12-22 2004-07-20 Che-Chih Tsao Method and apparatus for displaying volumetric 3D images
US8287374B2 (en) * 2000-07-07 2012-10-16 Pryor Timothy R Reconfigurable control displays for games, toys, and other applications
JP2004508779A (ja) * 2000-09-07 2004-03-18 アクチュアリティー システムズ, インク. 立体3次元表示システム
US20020084951A1 (en) * 2001-01-02 2002-07-04 Mccoy Bryan L. Rotating optical display system
US6775014B2 (en) * 2001-01-17 2004-08-10 Fujixerox Co., Ltd. System and method for determining the location of a target in a room or small area
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7134080B2 (en) * 2002-08-23 2006-11-07 International Business Machines Corporation Method and system for a user-following interface
JP2004184979A (ja) * 2002-09-03 2004-07-02 Optrex Corp 画像表示装置
US6840627B2 (en) * 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
US8118674B2 (en) * 2003-03-27 2012-02-21 Wms Gaming Inc. Gaming machine having a 3D display
US20040257457A1 (en) * 2003-06-19 2004-12-23 Stavely Donald J. System and method for optical data transfer
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7277226B2 (en) * 2004-01-16 2007-10-02 Actuality Systems, Inc. Radial multiview three-dimensional displays
CN1922470A (zh) * 2004-02-24 2007-02-28 彩光公司 用于平板显示器的光笔和触摸屏数据输入系统和方法
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7466308B2 (en) * 2004-06-28 2008-12-16 Microsoft Corporation Disposing identifying codes on a user's hand to provide input to an interactive display application
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US20070291035A1 (en) * 2004-11-30 2007-12-20 Vesely Michael A Horizontal Perspective Representation
US7809722B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for enabling search and retrieval from image files based on recognized information
JP2007024975A (ja) * 2005-07-12 2007-02-01 Sony Corp 立体画像表示装置
WO2007072439A2 (en) * 2005-12-23 2007-06-28 Koninklijke Philips Electronics N.V. Rear projector and rear projecting method
US7630002B2 (en) * 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
US7515143B2 (en) * 2006-02-28 2009-04-07 Microsoft Corporation Uniform illumination of interactive display panel
US7599561B2 (en) * 2006-02-28 2009-10-06 Microsoft Corporation Compact interactive tabletop with projection-vision
JP2007295187A (ja) * 2006-04-24 2007-11-08 Canon Inc 投影装置
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8144271B2 (en) * 2006-08-03 2012-03-27 Perceptive Pixel Inc. Multi-touch sensing through frustrated total internal reflection
US8441467B2 (en) * 2006-08-03 2013-05-14 Perceptive Pixel Inc. Multi-touch sensing display through frustrated total internal reflection
WO2008017077A2 (en) * 2006-08-03 2008-02-07 Perceptive Pixel, Inc. Multi-touch sensing display through frustrated total internal reflection
TW200812371A (en) * 2006-08-30 2008-03-01 Avermedia Tech Inc Interactive document camera and system of the same
US7843516B2 (en) * 2006-09-05 2010-11-30 Honeywell International Inc. LCD touchscreen panel with scanning backlight
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
US8493496B2 (en) * 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8125468B2 (en) * 2007-07-30 2012-02-28 Perceptive Pixel Inc. Liquid multi-touch sensor and display device
US7980957B2 (en) * 2007-09-12 2011-07-19 Elizabeth Schumm Periodic three dimensional illusion in color
US8024185B2 (en) * 2007-10-10 2011-09-20 International Business Machines Corporation Vocal command directives to compose dynamic display text
US8154582B2 (en) * 2007-10-19 2012-04-10 Eastman Kodak Company Display device with capture capabilities
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8581852B2 (en) * 2007-11-15 2013-11-12 Microsoft Corporation Fingertip detection for camera based multi-touch systems
US20090176451A1 (en) * 2008-01-04 2009-07-09 Microsoft Corporation Encoded color information facilitating device pairing for wireless communication
US7884734B2 (en) * 2008-01-31 2011-02-08 Microsoft Corporation Unique identification of devices using color detection
US7864270B2 (en) * 2008-02-08 2011-01-04 Motorola, Inc. Electronic device and LC shutter with diffusive reflective polarizer
US8797271B2 (en) * 2008-02-27 2014-08-05 Microsoft Corporation Input aggregation for a multi-touch device
US7750982B2 (en) * 2008-03-19 2010-07-06 3M Innovative Properties Company Autostereoscopic display with fresnel lens element and double sided prism film adjacent a backlight having a light transmission surface with left and right eye light sources at opposing ends modulated at a rate of at least 90 hz
TW200945123A (en) * 2008-04-25 2009-11-01 Ind Tech Res Inst A multi-touch position tracking apparatus and interactive system and image processing method there of
US8042949B2 (en) * 2008-05-02 2011-10-25 Microsoft Corporation Projection of images onto tangible user interfaces
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US9268413B2 (en) * 2008-07-07 2016-02-23 Rpx Clearinghouse Llc Multi-touch touchscreen incorporating pen tracking
US9134798B2 (en) * 2008-12-15 2015-09-15 Microsoft Technology Licensing, Llc Gestures, interactions, and common ground in a surface computing environment
US8704822B2 (en) * 2008-12-17 2014-04-22 Microsoft Corporation Volumetric display system enabling user interaction
US8004759B2 (en) * 2009-02-02 2011-08-23 Microsoft Corporation Diffusing screen
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction

Also Published As

Publication number Publication date
CN101971123B (zh) 2014-12-17
JP2011513828A (ja) 2011-04-28
EP2260368A1 (en) 2010-12-15
MX2010009519A (es) 2010-09-14
KR20100123878A (ko) 2010-11-25
CA2716403A1 (en) 2009-09-11
US20090219253A1 (en) 2009-09-03
TWI470507B (zh) 2015-01-21
IL207284A0 (en) 2010-12-30
EP2260368A4 (en) 2013-05-22
WO2009110951A1 (en) 2009-09-11
TW200941318A (en) 2009-10-01
CN101971123A (zh) 2011-02-09

Similar Documents

Publication Publication Date Title
JP5693972B2 (ja) 切替え可能なディフューザを備える対話型サーフェイスコンピュータ
US8581852B2 (en) Fingertip detection for camera based multi-touch systems
US9348463B2 (en) Retroreflection based multitouch sensor, method and program
US8272743B2 (en) Projection of images onto tangible user interfaces
US8441467B2 (en) Multi-touch sensing display through frustrated total internal reflection
US8144271B2 (en) Multi-touch sensing through frustrated total internal reflection
EP2188701B1 (en) Multi-touch sensing through frustrated total internal reflection
US20090267919A1 (en) Multi-touch position tracking apparatus and interactive system and image processing method using the same
TWI450159B (zh) Optical touch device, passive touch system and its input detection method
KR20100072207A (ko) 터치-감응 장치상의 손가락 방향의 검출
WO2010047256A1 (ja) 撮像装置、表示撮像装置および電子機器
US11093595B2 (en) Anti-spoofing of two-dimensional fake objects with bright-dark reversal imaging in optical sensing modules
US9377900B1 (en) Optical touch sensor
KR100936666B1 (ko) 적외선 스크린 방식의 투영 영상 터치 장치
US9092094B1 (en) Optical edge touch sensor
KR101507458B1 (ko) 대화식 디스플레이
US20200409217A1 (en) Brightness enhancement and diffuser films for liquid crystal display assemblies
KR20100116267A (ko) 터치 패널 및 그를 가지는 터치 표시 장치
Al Sheikh et al. Design and implementation of an FTIR camera-based multi-touch display
CN111819572A (zh) 在光学感测模块中利用明暗反转成像对二维假对象进行反欺骗
Hušek Multi-touch Table with Image Capturing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130905

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140318

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140618

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140718

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150204

R150 Certificate of patent or registration of utility model

Ref document number: 5693972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees