JP5331887B2 - 複数のカメラを有するタッチスクリーンディスプレイ - Google Patents

複数のカメラを有するタッチスクリーンディスプレイ Download PDF

Info

Publication number
JP5331887B2
JP5331887B2 JP2011526843A JP2011526843A JP5331887B2 JP 5331887 B2 JP5331887 B2 JP 5331887B2 JP 2011526843 A JP2011526843 A JP 2011526843A JP 2011526843 A JP2011526843 A JP 2011526843A JP 5331887 B2 JP5331887 B2 JP 5331887B2
Authority
JP
Japan
Prior art keywords
touch screen
camera
display screen
mode
reflector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011526843A
Other languages
English (en)
Other versions
JP2012503230A (ja
Inventor
サッグズ・ブラッドレイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2012503230A publication Critical patent/JP2012503230A/ja
Application granted granted Critical
Publication of JP5331887B2 publication Critical patent/JP5331887B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、複数のカメラを有するタッチスクリーンディスプレイに関する。
「タッチスクリーン」は、ディスプレイであり、ディスプレイ領域内において、例えば、指による接触の存在および位置を検出することができる。
タッチスクリーンの能力は、抵抗、弾性表面波、容量性、赤外線、歪みゲージ、拡散レーザイメージング、光学イメージング、分散信号技術および音響パルス認識を含む技術範囲により可能にされる。
タッチスクリーンは、マウスまたはトラックパッドのような別のデバイスを必要とすることなくユーザ入力を可能にする。
これらのデバイスとは異なり、タッチスクリーンは、ユーザが、間接的よりむしろ、スクリーン上に直接表示されるものと、それが表示されている場所でやりとりすることを可能にする。
タッチスクリーンは、携帯電話、PDA(複数可)、デジタルオーディオプレーヤーおよびナビゲーションユニットのような小さなデバイスに急速に組み込まれている。
大きなタッチスクリーンディスプレイもまた、キオスクおよび他の商業環境において急速に普及している。
しかしながら、デスクトップコンピュータ用のディスプレイは、通常タッチスクリーンの能力を提供していない。
ヒューレッド・パッカード社から入手できるタッチスマート(登録商標)コンピュータは、明らかな例外である。
タッチスマートコンピュータは、タッチスクリーンディスプレイを含み、タッチスクリーンディスプレイにより、視覚的に特徴付けられている。
ディスプレイの上方角の赤外線エミッターは、反対方向のディスプレイベゼルにより通常反射される光を放射する。
線形検出器アレイ(Linear detector arrays)は、その反射およびあらゆる影を検出し、接触を三角法的に(trigonometrically)位置付ける。
タッチスクリーンの能力は、コンピュータのコストを著しく増大させる。
本発明は、複数のカメラを有するタッチスクリーンディスプレイを提供する。
本発明の一形態は、2次元に拡張する平面ディスプレイスクリーンと、末端部のオブジェクトを見るための前記ディスプレイスクリーンに対して平行よりも、より直角に拡張する視界を有する複数のカメラと、タッチスクリーンの光を、前記ディスプレイスクリーンに沿った方向から、前記カメラに向かう方向へリダイレクトするための反射器と、前記タッチスクリーンの光に応答して、前記カメラによって生成された画像の機能として前記ディスプレイスクリーンに最も近いオブジェクトの前記ディスプレイスクリーンに関連する2D位置を位置付けるビデオプロセッサとを備えるディスプレイシステムを提供する。
本発明の特徴および利点だけでなく、それについての追加の特徴および利点についても、次の図面と併用される本発明の好ましい実施形態の以下の詳細な記載の結果としてより明確に理解される。
本発明の一実施形態に応じたタッチスクリーンディスプレイを組み込んでいるコンピュータシステムの概略図である。 センサーがステレオウェブカメラとして使用されることを許可する「ウェブカメラモード」ポジションにおける反射器を備える図1のディスプレイの概略の上面図である。 センサーがタッチスクリーンの能力を生じさせるために使用されることを許可する「タッチスクリーンモード」ポジションにおける反射器を備える図1のディスプレイの概略の上面図である。 本発明の一実施形態に応じた方法のフローチャートである。
これらの図面は、本発明の実装/実施形態を表現し、本発明そのものを表現するのではない。
本発明は、1組のウェブカメラ(例えば、1組の線形アレイセンサーの代わりに)を使用することを提供し、タッチスクリーンの機能性を提供する。
コスト削減は、規模の経済(economies of scale)によって達成される。ウェブカメラセンサーは、例えば、いくつかのタッチスクリーンの実装に用いられる線形アレイセンサーよりも費用が少なくてすむ。
カメラもまた、ウェブカメラとして利用されることができ、ステレオイメージング(stereo imaging)および3Dジェスチャーコントロール(3D gesture control)を提供するので、コストパフォーマンスはさらに向上される。
本発明の一実施形態に応じたオールインワンコンピュータAP1が、図1に示される。
コンピュータAP1は、ステレオカメラ11Lおよび11Rを有し、ステレオカメラ11Lおよび11Rは、1)タッチスクリーンの機能性、および、2)ウェブカメラの機能性、言い換えれば、イメージング、および、ディスプレイ上の指またはスタイラスペン(stylus)の位置の追跡のために用いられる。
例示の実施形態は、オールインワンコンピュータ(モノリシック(monolithic)なユニットとしてのコンピュータおよびディスプレイ)に関連する一方、他の実施形態は、コンピュータそのものとは分離したディスプレイに関連する。
オールインワンコンピュータAP1は、筺体13、プロセッサ15、コンピュータ可読の記憶媒体17(メインメモリ、ディスクおよびフラッシュベースの記憶装置を含む)、マルチイメージビデオプロセッサ19およびディスプレイスクリーン21を含む通信(I/Oを含む)デバイスを含む。
筺体13は、ディスプレイスクリーン21のためのフレーム23を提供し、フレーム23は、図2および図3で示されるガラス板25を含む。
フレーム23およびディスプレイスクリーン21は、逆反射のベゼル27により架橋される。
カメラ11Lおよび11Rは、ディスプレイスクリーン21のそれぞれの上方角29Lおよび29Rの近くのガラス板25の下に位置する。
カメラ11Lおよび11R(図1)は、それぞれ視界31Lおよび31R(図2)を有する。
視界31Lおよび31Rは、通常外側に向いていて、ステレオウェブカメラとしての使用および3Dジェスチャーコントロールに要求されるような予期されたユーザの位置に向かって視界が集中するように、視界の共通の中心に向かう傾斜を伴う。
たとえ傾斜していても、視界31Lおよび31Rは、ディスプレイスクリーン21(の2D表面)に対して平行よりも、より直角である。
これは、カメラ11Lおよび11Rが、オブジェクトが撮像され得るようにディスプレイスクリーン21に対して中心にあり、ディスプレイスクリーン21から少なくとも1歩離れたオブジェクトから「オブジェクトの光」を検出することを可能にする。
カメラ11Lおよび11Rがタッチスクリーンとしての機能のために用いられることができるように、アイリッド(eyelid)反射器33Lおよび33Rが視界31Lおよび31Rを遮蔽する位置にそれぞれ移動し得る。
これらの位置において、反射器33Lおよび33Rは、ディスプレイスクリーン21(そして、視界31Lおよび31Rの範囲内ではない)に沿ったベゼル27から到着する「タッチスクリーン」の光を引き起こし、カメラ11Lおよび11Rそれぞれに向かってリダイレクトされる。
一実施形態において、この光は、放射性(emissive)のベゼル表面により与えられる。
例示の実施形態において、この光は、カメラ11Lおよび11Rそれぞれとおおむね共同設置された点光源の赤外線エミッター35Lおよび35Rにより与えられる。
この場合、ベゼル27は、エミッター35L,35Rからの入射光34が、最小の散乱でベゼルによりエミッターに向かって戻るタッチスクリーンの光36として反射するという点において、逆反射である。
アイリッド反射器33Lおよび33Rは、それぞれ装置37Lおよび37R(図3)を有し、装置37Lおよび37Rを介して、エミッター35Lおよび35Rからの光が、逆反射のベゼル27の反対側に向かってリダイレクトされる。
各エミッター35L,35Rは、赤外光35を放射し、ベゼル37の2つの向かい側に赤外光を向かわせる。
より具体的には、エミッター35Lは、逆反射のベゼル27の下側38B(図1)および右側39Rに赤外光を向かわせる一方、エミッター35Rは、ベゼル27の下側39Bおよび左側39Lに赤外光を向かわせる。
エミッター35Lおよび35Rおよびベゼル27は、視界31Lおよび31Rの中ではない(図2)。
したがって、図2に示されるようなウェブカメラモードポジションにおける反射器33Lおよび33Rで、エミッター35Lおよび35Rにより放射された赤外光34も、ベゼル27により反射された赤外光36も、カメラ11Lおよび11Rに影響を与えることはない。
赤外線カットフィルタ41Lおよび41R(図2)は、カメラ11Lおよび11Rに到着している光を、カメラ11Lおよび11Rが、人間が見るものおよび赤外光によりつぶされていないものにより近い画像を供給するような可視光に制限する。
カメラ11Lおよび11Rは、ビデオプロセッサ19に接続され、ビデオプロセッサ19は、カメラからのデジタル信号処理を行う。
ビデオプロセッサ19は、反射器33Lおよび33Rの位置を検出し、タッチスクリーンモードおよびウェブカメラモードを区別する。
ビデオプロセッサ19は、内部USB接続を使用して、他のコンピュータコンポーネントと通信する。
代替の実施形態において、IEEE1394(ファイアワイヤー)または他のプロトコル接続が用いられる。
3Dジェスチャーサブモードにおいて、処理は、ステレオイメージを、コンピュータAP1が、そのときに、命令として解釈し、命令として対応し得る変位マップ(a displacement map)(距離情報)に削減する。
ディスプレイスクリーン21に沿って伝送している光は、接触している、または、そうでなければディスプレイスクリーン21に十分に近いオブジェクトによりブロックされ得る。
コンピュータAP1が、タッチスクリーンモード(視界31Lおよび31Rを遮蔽している反射器33Lおよび33Rを備えた)であるときに、ビデオプロセッサ19は、現れた影を検出し、位置付けることができる。
ビデオプロセッサ19は、カメラ11Lおよび11Rにより見られる変わり目(breaks)(影)の位置を比較することにより、オブジェクトの2Dディスプレイスクリーンの位置を三角法的に決定する。
媒体17は、コンピュータ可読のデータ、および、メディア上でエンコードされたコンピュータが実行可能な命令のプログラムを有する。
このようなプログラムの1つは、タッチスクリーン/ウェブカメラモードのコントローラ43であり、コントローラ43は、ユーザがコンピュータAP1に対するウェブカメラモードと、タッチスクリーンモードとの間を切り換えるインタフェースを提供する。
ユーザがタッチスクリーンモードに切り替えるときに、反射器33Lおよび33Rは、11Rとなるよう視界31Lおよび31Rに移動し、そして、視界31Lおよび31Rを遮蔽する。
ユーザは、反射器33Lおよび33Rを、ウェブカメラ位置(図2)、視界31Lおよび31Rの外に移動させることにより、ウェブカメラモードを選択することができる。
例示された実施形態において、反射器33Lおよび33Rは、ユーザにより手動で移動し、その移動は、モードコントローラ(mode controller)43により検出される。
代替の実施形態においては、反射器は、モードコントローラソフトウェアにより、モーター化(motorized)され、制御される。
ユーザは、ビデオプロセッサ19により提供されるいくつかのモード間を選択することができ、1)タッチスクリーンモードにおいて、ビデオプロセッサ19は、接触位置を判断する;2)ローモード(raw mode)において、ビデオプロセッサ19は、1組の未加工のビデオ信号を提供する;2Dウェブカメラモードにおいて、1組の未加工のビデオ画像(多くはウェブカメラモードのため);3)2Dウェブカメラモードにおいて、ビデオプロセッサ19は、未加工の画像を組み合わせて、結合された2Dビデオ画像を提供する;4)3Dウェブカメラモードにおいて、ビデオプロセッサ19は、未加工のビデオ画像を組み合わせて、3D画像を提供する;5)3D命令モードにおいて、ビデオプロセッサ19は、未加工のビデオ画像を組み合わせて、どれが命令に変換され得るかをジェスチャーする。
後者のモードは、タッチスクリーンコントロールの代替としてコンピュータAP1のジェスチャーベースのコントロールを提供する。
このジェスチャーベースのコントロールは、モードレス(反射器33Lおよび33Rを位置に移動させる必要がない)であることができ、タッチスクリーンコントロール(長期間タッチスクリーン操作のために腕を伸ばしているときに、不快に感じ始めている人々がいる)よりも快適であり得る。
本発明に応じた方法ME1が、図4においてフローチャートとされる。
ステップM1において、ユーザは、タッチスクリーンモードM11と、ウェブカメラモードM21との間でモードを切り替える(例えば、反射器33Lおよび33Rを手動で移動させることにより)。
タッチスクリーンモードM11への切り替えの場合に、ステップM12において、反射器33Lおよび33Rは、カメラ11Lおよび11Rの視界31Lおよび31Rそれぞれを遮蔽するように移動する。
加えて、赤外線エミッター35Lおよび35Rが作動し得る。
ステップM13において、反射器33Lおよび33Rは、ディスプレイスクリーン21に沿った経路、したがって、ディスプレイスクリーン21に対して直角よりも、より平行な経路から、ディスプレイスクリーン21に対して平行よりも、より直角な経路まで、光をリダイレクトする。
もし、指またはスタイラスペンまたは類似のオブジェクトが、ディスプレイスクリーンに接触する、または、少なくともディスプレイスクリーンに接近すると、指またはスタイラスペンまたは類似のオブジェクトは、ディスプレイスクリーンに直角よりも、より平行に伝送されている光を遮断する。
このような場合、ステップM14において、影はビデオ画像の中で検出され得る。
ステップM15において、それぞれのカメラ画像における影の位置は、ディスプレイスクリーンに対するオブジェクトの2D位置を位置付けるために用いられ得る。
ステップM16において、この位置情報は、2次元ジェスチャー(タッチ、スライドなど)が命令に解釈(命令に変換)され得るように、ジェスチャーを解釈するために用いられ得る。
ステップM1において、ユーザがウェブカメラモードM21に切り替える場合に、ステップM22において、反射器33Lおよび33Rは、それぞれのカメラの視界31Lおよび31Rの外に移動する。
加えて、エミッター35Lおよび35Rが止められ得る。
反射器33Lおよび33Rを除去することは、ディスプレイスクリーンに平行よりも、より直角に伝送された光が、ステップM23において、リダイレクトされることなくカメラ11Lおよび11Rに到達することを可能にする。
これは、ステップM24において、末端部の(distal)オブジェクト、例えば、ユーザの頭の複数のビデオ画像が生成されることを可能にする。
ステップM25において、複数の画像が組み合わせられ、統合された2Dまたは3Dのビデオ画像を生成し得る。
加えて、ステップM26において、ビデオ画像において検出された3Dジェスチャーは、命令("select","move"など)に変換され得る。
ここに記載された技術は、1)タッチスクリーン技術に対して広く利用可能で経済的な(ウェブカメラ)カメラを使用すること、および、2)他の目的(例えば、3Dジェスチャー入力を加えたウェブカメラの機能性)に対して用いられるべきタッチスクリーンコンポーネント(例えば、カメラ)を手配することによって、タッチスクリーン技術の限界費用の削減を提供する。
タッチスクリーンおよびジェスチャー機能性の両方を提供することによって、類似のタッチスクリーンコントロールと、新たなジェスチャーコントロール技術との間の架け橋が提供される。
前述の記載は、説明の目的で、特定の実施形態に関して記載されている。
しかしながら、例示の議論は、包括的であることも、発明を開示された厳密な形式に限定することも意図していない。
開示された教示を考えると、多くの変更およびバリエーションが可能である。
実施形態は、発明の本質およびその実用的応用の最善の説明のために選択され、記述され、それによって、他の当業者が、予定された特定の使用に適するような様々な変更を有する発明および様々な実施形態の最善な利用を可能にする。
ここで使用されているように、「タッチスクリーン」は、指、スタイラスペンまたは類似のオブジェクトによって接触されるディスプレイスクリーン上の位置を識別するために用いられる任意の技術に言及する。
いくつかのタッチスクリーン技術が、実際に接触を検出する一方、ここに記載された画像ベースの技術は、その意味で接触ベースではない。
代わりに、本発明は、イメージングにより位置を検出し、画像化されたオブジェクトが、実際にディスプレイスクリーンに接触しているか否かも、ディスプレイスクリーンに十分近いだけでディスプレイスクリーンに沿って伝送された光を遮断するか否かも問題ではない。
ここで、「末端部」は、タッチスクリーンモードにおいて、2D位置を位置付けるために用いられる光により検出されないディスプレイスクリーンから十分離れていることを意味し、実際には、これは、ディスプレイスクリーンから1センチメートルまたはそれ以上であり得る。
ここで、「近位部」は、タッチスクリーンモードにおいて、2D位置を位置付けるために用いられる光により検出されるべく接触または十分に近いことを意味する。
一般的には、近位部は、1センチメートル以下である。
本発明は、例示の実施形態に対する多くの代替を提供する。
本発明は、オールインワンおよび分離したコンピュータおよびディスプレイの実施形態を提供する。
本発明は、一般的にコンピュータ(これらはコンピュータコンポーネントを含めてもよいが)であるとみなされていない電化製品、例えば、テレビおよびプリンタのような他のデバイス上のディスプレイパネルに適用され得る。
カメラは、他の場所、例えば、ディスプレイの下方角またはディスプレイの両端に沿った場所に位置されてもよい。
2つ以上のカメラが用いられてもよい。例えば、中央上部または中央下部の第3のカメラが、ディスプレイに接触しているオブジェクトの位置を解決する助けとなり得る。
基準の中心ウェブカメラは、ステレオカメラと組み合わせることができ、タッチスクリーンモードおいて2つの接触の曖昧さを排除する、または、インタフェース論理回路および回路基板のコストを節約するだけでなく、変位マップを改良する。
反射器の形は、当業者により、ベゼルの反対側が反射器によって修正されたカメラの視界の範囲内でなければならないことを前提として決定され得る。
実施形態に依存して、反射器は位置間を平行移動または回転できる。
代替的に、移動不可能な反射器が用いられ得る。
例えば、反射器は、より反射し、より透過的であるように電気的に制御され得る物質であり得る。
他の実施形態において、反射器は、いくつかの光を通し(タッチスクリーンの使用に対して)、いくつかの光が伝送される(ウェブカメラの使用に対して)ことを許可する半透鏡またはビームスプリッターのように作用する。
例示の実施形態において、赤外線放射は、タッチスクリーンモードにおいて用いられ、可視光は、ウェブカメラモードにおいて用いられる。
他の実施形態は、分割スペクトルを活用して、モードレス動作を許可する、または、スペクトルを切り替えることによって、モード切り替えを提供する。
例示の実施形態において、反射器は赤外線カットフィルタとカメラとの間の位置に移動し得る。
代替の実施形態において、エミッターおよびタッチスクリーン機能性は、赤外線スペクトルよりも可視スペクトルを活用する。
このことは、赤外線カットフィルタが、反射器によってカメラから分離されるよりも、カメラと連結することを可能にする。
カメラと共同設置されたエミッターの代わりに、ベゼルが放射性(emissive)(赤外線スペクトルまたは可視スペクトルのいずれか一方)であり得る。
他の実施形態においては、カメラはモードに応じて回転される。この実施形態において、反射器は必要とされない。
例示の実施形態に対するこれらおよび他のバリエーションおよび改良は、本発明によって提供され、本発明の範囲は次の請求項により定義される。
11L,11R・・・ステレオカメラ,
13・・・筺体,
15・・・プロセッサ,
17・・・媒体,
19・・・マルチイメージビデオプロセッサ,
21・・・ディスプレイスクリーン,
23・・・フレーム,
25・・・ガラス板,
27・・・ベゼル,
29L,29R・・・上方角,
33L,33R・・・反射器,
35L,35R・・・赤外線エミッター,
37L,37R・・・装置,
41L,41R・・・赤外線カットフィルタ,
43・・・タッチスクリーン/ウェブカメラモードコントローラ

Claims (9)

  1. 2次元に拡張する平面ディスプレイスクリーンと、
    末端部のオブジェクトを見るための前記ディスプレイスクリーンに対して平行よりも、より直角に拡張する視界を有する複数のカメラと、
    タッチスクリーンの光を、前記ディスプレイスクリーンに沿った方向から、前記カメラに向かう方向へリダイレクトするための反射器と、
    前記タッチスクリーンの光に応答して、前記カメラによって生成された画像の機能として前記ディスプレイスクリーンに最も近いオブジェクトの前記ディスプレイスクリーンに関連する2D位置を位置付けるビデオプロセッサと
    備え、
    前記反射器は、
    タッチスクリーン状態およびウェブカメラ状態を有し、
    前記タッチスクリーン状態においてのみ、前記タッチスクリーンの光をリダイレクトし、
    前記ウェブカメラ状態のときに、末端部のオブジェクトからのオブジェクトの光を検出する
    ディスプレイシステム。
  2. 前記タッチスクリーン状態は、前記反射器のタッチスクリーンの位置に関与し、タッチスクリーンの位置において、反射器が前記視界を遮蔽し、
    前記ウェブカメラ状態は、前記反射器のウェブカメラの位置に関与し、ウェブカメラの位置において、反射器が前記視界を遮蔽しない
    請求項に記載のディスプレイシステム。
  3. 前記反射器は、ユーザが、前記タッチスクリーンの位置と、前記ウェブカメラの位置との間を移動させるように移動可能である
    請求項に記載のディスプレイシステム。
  4. 前記ビデオプロセッサは、3Dジェスチャーを命令として解釈することを提供する
    請求項に記載のディスプレイシステム。
  5. ウェブカメラモードと、タッチスクリーンモードのと間を切り換えることを含み、
    前記ウェブカメラモードにおいて、
    2つ以上のカメラを用いるディスプレイスクリーンからオブジェクトの末端部をイメージングし、
    前記オブジェクトのビデオ画像を生成し、
    前記タッチスクリーンモードにおいて、
    前記ディスプレイスクリーンに対して直角よりも、より平行に移動している光を反射させ、前記光移動が前記ディスプレイスクリーンに対して平行よりも、より直角にリダイレクトされるようにし、光移動が前記カメラに影響を与えるようにし、
    前記カメラに影響を与える前記光の機能として、オブジェクトによって接触された前記ディスプレイスクリーンの表面上の位置を決定する
    方法。
  6. 前記切り替えることは、
    a)反射器が、前記カメラのそれぞれの視界を遮蔽する位置と、
    b)反射器が、前記カメラのそれぞれの視界を遮蔽しない位置と
    の間で反射器を移動させることを含む
    請求項に記載の方法。
  7. 前記ウェブカメラモードにおいて、前記オブジェクトによる3Dジェスチャーを、前記カメラによって取り込まれた複数のビデオ画像の機能として命令に変換すること
    をさらに含む請求項に記載の方法。
  8. 前記カメラモードから前記タッチスクリーンモードに切り替えるときに、赤外線エミッターを止めることと、
    前記タッチスクリーンモードから前記カメラモードに切り替えるときに、前記エミッターを作動させることと
    をさらに含む請求項に記載の方法。
  9. 前記カメラは、前記ディスプレイスクリーンの向かい合う上方角に位置付けられる
    請求項に記載の方法。
JP2011526843A 2008-09-15 2008-09-15 複数のカメラを有するタッチスクリーンディスプレイ Expired - Fee Related JP5331887B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/076469 WO2010030296A1 (en) 2008-09-15 2008-09-15 Touchscreen display with plural cameras

Publications (2)

Publication Number Publication Date
JP2012503230A JP2012503230A (ja) 2012-02-02
JP5331887B2 true JP5331887B2 (ja) 2013-10-30

Family

ID=42005377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011526843A Expired - Fee Related JP5331887B2 (ja) 2008-09-15 2008-09-15 複数のカメラを有するタッチスクリーンディスプレイ

Country Status (8)

Country Link
US (1) US8593434B2 (ja)
JP (1) JP5331887B2 (ja)
CN (1) CN102160018B (ja)
BR (1) BRPI0822675B1 (ja)
DE (1) DE112008003983T5 (ja)
GB (1) GB2475212B (ja)
TW (1) TW201011616A (ja)
WO (1) WO2010030296A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100177162A1 (en) * 2009-01-15 2010-07-15 Charles Macfarlane Method and system for enabling 3d video and image processing using one full resolution video stream and one lower resolution video stream
US8558804B2 (en) * 2009-12-14 2013-10-15 Silicon Motion, Inc. Touch control apparatus and touch point detection method
TWI569174B (zh) 2010-06-01 2017-02-01 林卓毅 可攜式光學觸控系統
US9250749B2 (en) 2010-06-01 2016-02-02 Cho-Yi Lin Electrical apparatus
US9377903B2 (en) 2010-06-01 2016-06-28 Cho-Yi Lin Portable optical touch system
CN109559148A (zh) 2011-01-04 2019-04-02 Aq株式会社 广告信息提供系统
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
TWI452510B (zh) * 2011-12-23 2014-09-11 Innolux Corp 顯示裝置及其偵測遠端物體移動之方法
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9507462B2 (en) * 2012-06-13 2016-11-29 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-dimensional image detection apparatus
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9069414B2 (en) 2012-08-02 2015-06-30 Nano-Optic Devices, Llc Touchscreen sensor for touchscreen display unit
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
JP2014102668A (ja) * 2012-11-20 2014-06-05 Toshiba Corp 表示装置
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
TWI492114B (zh) 2013-02-05 2015-07-11 Quanta Comp Inc 光學式多點觸控裝置與其光學觸控模組
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
CN103780812A (zh) * 2013-11-26 2014-05-07 广东欧珀移动通信有限公司 显示装置及其摄像显示方法
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
CN103744596A (zh) * 2014-01-20 2014-04-23 联想(北京)有限公司 显示控制方法和电子设备
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN106681496A (zh) * 2016-12-07 2017-05-17 南京仁光电子科技有限公司 基于多侦测面的控制方法和装置
DE102017223674A1 (de) * 2017-12-22 2019-06-27 BSH Hausgeräte GmbH Gargerät und Verfahren zum Betreiben desselben
CN112188181B (zh) * 2019-07-02 2023-07-04 中强光电股份有限公司 图像显示设备、立体图像处理电路及其同步信号校正方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4847606A (en) * 1987-08-25 1989-07-11 Oak Industries Inc. Control and display system
US4990901A (en) * 1987-08-25 1991-02-05 Technomarket, Inc. Liquid crystal display touch screen having electronics on one side
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP2003087876A (ja) * 2001-09-14 2003-03-20 Takenaka Komuten Co Ltd 機器利用支援装置及び方法
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
KR101035253B1 (ko) * 2003-02-14 2011-05-19 넥스트 홀딩즈 리미티드 터치 스크린 신호 처리
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US20060044282A1 (en) 2004-08-27 2006-03-02 International Business Machines Corporation User input apparatus, system, method and computer program for use with a screen having a translucent surface
US7355594B2 (en) * 2004-09-30 2008-04-08 Symbol Technologies, Inc. Optical touch screen arrangement
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
JP4570145B2 (ja) 2004-12-07 2010-10-27 株式会社シロク 位置検出平面外に撮像部を有する光学式位置検出装置
DE102007021537B4 (de) * 2006-12-13 2020-01-02 Lg Display Co., Ltd. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
CN101971128B (zh) 2007-12-05 2013-07-17 阿尔梅瓦股份公司 屏幕与指针对象之间交互用的交互装置
US8213914B2 (en) * 2008-08-04 2012-07-03 Lg Electronics Inc. Mobile terminal capable of providing web browsing function and method of controlling the mobile terminal
US8111247B2 (en) * 2009-03-27 2012-02-07 Sony Ericsson Mobile Communications Ab System and method for changing touch screen functionality

Also Published As

Publication number Publication date
GB201104407D0 (en) 2011-04-27
WO2010030296A1 (en) 2010-03-18
GB2475212A (en) 2011-05-11
DE112008003983T5 (de) 2011-07-21
US8593434B2 (en) 2013-11-26
GB2475212B (en) 2013-03-20
BRPI0822675B1 (pt) 2019-09-17
BRPI0822675A2 (pt) 2015-06-30
JP2012503230A (ja) 2012-02-02
TW201011616A (en) 2010-03-16
CN102160018A (zh) 2011-08-17
CN102160018B (zh) 2014-09-24
US20110134036A1 (en) 2011-06-09

Similar Documents

Publication Publication Date Title
JP5331887B2 (ja) 複数のカメラを有するタッチスクリーンディスプレイ
RU2579952C2 (ru) Система и способ мультисенсорного взаимодействия и подсветки на основе камеры
US8970478B2 (en) Autostereoscopic rendering and display apparatus
US9454260B2 (en) System and method for enabling multi-display input
TWI559174B (zh) 以手勢爲基礎之三維影像操控技術
US8963883B2 (en) Touchless interactive display system
TWI446249B (zh) 光學影像式觸控裝置
US20190265841A1 (en) 3d touch interaction device, touch interaction method thereof, and display device
KR102052752B1 (ko) 텍스트 입력장치와 포인터 위치정보 입력장치가 구비된 복합 휴먼 인터페이스 장치
US20170090518A1 (en) Electronic apparatus
TWI470511B (zh) 雙模輸入裝置
US10481733B2 (en) Transforming received touch input
JP2012531638A (ja) 対話型ディスプレイ装置
US20130162597A1 (en) Optical touch control module
TWI573043B (zh) The virtual two - dimensional positioning module of the input device
US20130161491A1 (en) Optical touch control module
KR20200019637A (ko) 텍스트 입력장치와 포인터 위치정보 입력장치가 구비된 복합 휴먼 인터페이스 장치
TW201506741A (zh) 觸控顯示面板
Gruhlke et al. 74.2: A Novel Three Dimensional User Interface Technology
WO2017116426A1 (en) Detachable electronic device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130729

R150 Certificate of patent or registration of utility model

Ref document number: 5331887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees