JP5331887B2 - 複数のカメラを有するタッチスクリーンディスプレイ - Google Patents
複数のカメラを有するタッチスクリーンディスプレイ Download PDFInfo
- Publication number
- JP5331887B2 JP5331887B2 JP2011526843A JP2011526843A JP5331887B2 JP 5331887 B2 JP5331887 B2 JP 5331887B2 JP 2011526843 A JP2011526843 A JP 2011526843A JP 2011526843 A JP2011526843 A JP 2011526843A JP 5331887 B2 JP5331887 B2 JP 5331887B2
- Authority
- JP
- Japan
- Prior art keywords
- touch screen
- camera
- display screen
- mode
- reflector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/53—Constructional details of electronic viewfinders, e.g. rotatable or detachable
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/58—Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Input (AREA)
- Closed-Circuit Television Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
タッチスクリーンの能力は、抵抗、弾性表面波、容量性、赤外線、歪みゲージ、拡散レーザイメージング、光学イメージング、分散信号技術および音響パルス認識を含む技術範囲により可能にされる。
タッチスクリーンは、マウスまたはトラックパッドのような別のデバイスを必要とすることなくユーザ入力を可能にする。
これらのデバイスとは異なり、タッチスクリーンは、ユーザが、間接的よりむしろ、スクリーン上に直接表示されるものと、それが表示されている場所でやりとりすることを可能にする。
大きなタッチスクリーンディスプレイもまた、キオスクおよび他の商業環境において急速に普及している。
しかしながら、デスクトップコンピュータ用のディスプレイは、通常タッチスクリーンの能力を提供していない。
タッチスマートコンピュータは、タッチスクリーンディスプレイを含み、タッチスクリーンディスプレイにより、視覚的に特徴付けられている。
ディスプレイの上方角の赤外線エミッターは、反対方向のディスプレイベゼルにより通常反射される光を放射する。
線形検出器アレイ(Linear detector arrays)は、その反射およびあらゆる影を検出し、接触を三角法的に(trigonometrically)位置付ける。
タッチスクリーンの能力は、コンピュータのコストを著しく増大させる。
コスト削減は、規模の経済(economies of scale)によって達成される。ウェブカメラセンサーは、例えば、いくつかのタッチスクリーンの実装に用いられる線形アレイセンサーよりも費用が少なくてすむ。
カメラもまた、ウェブカメラとして利用されることができ、ステレオイメージング(stereo imaging)および3Dジェスチャーコントロール(3D gesture control)を提供するので、コストパフォーマンスはさらに向上される。
コンピュータAP1は、ステレオカメラ11Lおよび11Rを有し、ステレオカメラ11Lおよび11Rは、1)タッチスクリーンの機能性、および、2)ウェブカメラの機能性、言い換えれば、イメージング、および、ディスプレイ上の指またはスタイラスペン(stylus)の位置の追跡のために用いられる。
例示の実施形態は、オールインワンコンピュータ(モノリシック(monolithic)なユニットとしてのコンピュータおよびディスプレイ)に関連する一方、他の実施形態は、コンピュータそのものとは分離したディスプレイに関連する。
筺体13は、ディスプレイスクリーン21のためのフレーム23を提供し、フレーム23は、図2および図3で示されるガラス板25を含む。
フレーム23およびディスプレイスクリーン21は、逆反射のベゼル27により架橋される。
カメラ11Lおよび11R(図1)は、それぞれ視界31Lおよび31R(図2)を有する。
視界31Lおよび31Rは、通常外側に向いていて、ステレオウェブカメラとしての使用および3Dジェスチャーコントロールに要求されるような予期されたユーザの位置に向かって視界が集中するように、視界の共通の中心に向かう傾斜を伴う。
たとえ傾斜していても、視界31Lおよび31Rは、ディスプレイスクリーン21(の2D表面)に対して平行よりも、より直角である。
これは、カメラ11Lおよび11Rが、オブジェクトが撮像され得るようにディスプレイスクリーン21に対して中心にあり、ディスプレイスクリーン21から少なくとも1歩離れたオブジェクトから「オブジェクトの光」を検出することを可能にする。
これらの位置において、反射器33Lおよび33Rは、ディスプレイスクリーン21(そして、視界31Lおよび31Rの範囲内ではない)に沿ったベゼル27から到着する「タッチスクリーン」の光を引き起こし、カメラ11Lおよび11Rそれぞれに向かってリダイレクトされる。
一実施形態において、この光は、放射性(emissive)のベゼル表面により与えられる。
例示の実施形態において、この光は、カメラ11Lおよび11Rそれぞれとおおむね共同設置された点光源の赤外線エミッター35Lおよび35Rにより与えられる。
この場合、ベゼル27は、エミッター35L,35Rからの入射光34が、最小の散乱でベゼルによりエミッターに向かって戻るタッチスクリーンの光36として反射するという点において、逆反射である。
アイリッド反射器33Lおよび33Rは、それぞれ装置37Lおよび37R(図3)を有し、装置37Lおよび37Rを介して、エミッター35Lおよび35Rからの光が、逆反射のベゼル27の反対側に向かってリダイレクトされる。
より具体的には、エミッター35Lは、逆反射のベゼル27の下側38B(図1)および右側39Rに赤外光を向かわせる一方、エミッター35Rは、ベゼル27の下側39Bおよび左側39Lに赤外光を向かわせる。
エミッター35Lおよび35Rおよびベゼル27は、視界31Lおよび31Rの中ではない(図2)。
したがって、図2に示されるようなウェブカメラモードポジションにおける反射器33Lおよび33Rで、エミッター35Lおよび35Rにより放射された赤外光34も、ベゼル27により反射された赤外光36も、カメラ11Lおよび11Rに影響を与えることはない。
赤外線カットフィルタ41Lおよび41R(図2)は、カメラ11Lおよび11Rに到着している光を、カメラ11Lおよび11Rが、人間が見るものおよび赤外光によりつぶされていないものにより近い画像を供給するような可視光に制限する。
ビデオプロセッサ19は、反射器33Lおよび33Rの位置を検出し、タッチスクリーンモードおよびウェブカメラモードを区別する。
ビデオプロセッサ19は、内部USB接続を使用して、他のコンピュータコンポーネントと通信する。
代替の実施形態において、IEEE1394(ファイアワイヤー)または他のプロトコル接続が用いられる。
3Dジェスチャーサブモードにおいて、処理は、ステレオイメージを、コンピュータAP1が、そのときに、命令として解釈し、命令として対応し得る変位マップ(a displacement map)(距離情報)に削減する。
コンピュータAP1が、タッチスクリーンモード(視界31Lおよび31Rを遮蔽している反射器33Lおよび33Rを備えた)であるときに、ビデオプロセッサ19は、現れた影を検出し、位置付けることができる。
ビデオプロセッサ19は、カメラ11Lおよび11Rにより見られる変わり目(breaks)(影)の位置を比較することにより、オブジェクトの2Dディスプレイスクリーンの位置を三角法的に決定する。
このようなプログラムの1つは、タッチスクリーン/ウェブカメラモードのコントローラ43であり、コントローラ43は、ユーザがコンピュータAP1に対するウェブカメラモードと、タッチスクリーンモードとの間を切り換えるインタフェースを提供する。
ユーザがタッチスクリーンモードに切り替えるときに、反射器33Lおよび33Rは、11Rとなるよう視界31Lおよび31Rに移動し、そして、視界31Lおよび31Rを遮蔽する。
ユーザは、反射器33Lおよび33Rを、ウェブカメラ位置(図2)、視界31Lおよび31Rの外に移動させることにより、ウェブカメラモードを選択することができる。
例示された実施形態において、反射器33Lおよび33Rは、ユーザにより手動で移動し、その移動は、モードコントローラ(mode controller)43により検出される。
代替の実施形態においては、反射器は、モードコントローラソフトウェアにより、モーター化(motorized)され、制御される。
後者のモードは、タッチスクリーンコントロールの代替としてコンピュータAP1のジェスチャーベースのコントロールを提供する。
このジェスチャーベースのコントロールは、モードレス(反射器33Lおよび33Rを位置に移動させる必要がない)であることができ、タッチスクリーンコントロール(長期間タッチスクリーン操作のために腕を伸ばしているときに、不快に感じ始めている人々がいる)よりも快適であり得る。
ステップM1において、ユーザは、タッチスクリーンモードM11と、ウェブカメラモードM21との間でモードを切り替える(例えば、反射器33Lおよび33Rを手動で移動させることにより)。
タッチスクリーンモードM11への切り替えの場合に、ステップM12において、反射器33Lおよび33Rは、カメラ11Lおよび11Rの視界31Lおよび31Rそれぞれを遮蔽するように移動する。
加えて、赤外線エミッター35Lおよび35Rが作動し得る。
ステップM13において、反射器33Lおよび33Rは、ディスプレイスクリーン21に沿った経路、したがって、ディスプレイスクリーン21に対して直角よりも、より平行な経路から、ディスプレイスクリーン21に対して平行よりも、より直角な経路まで、光をリダイレクトする。
もし、指またはスタイラスペンまたは類似のオブジェクトが、ディスプレイスクリーンに接触する、または、少なくともディスプレイスクリーンに接近すると、指またはスタイラスペンまたは類似のオブジェクトは、ディスプレイスクリーンに直角よりも、より平行に伝送されている光を遮断する。
このような場合、ステップM14において、影はビデオ画像の中で検出され得る。
ステップM15において、それぞれのカメラ画像における影の位置は、ディスプレイスクリーンに対するオブジェクトの2D位置を位置付けるために用いられ得る。
ステップM16において、この位置情報は、2次元ジェスチャー(タッチ、スライドなど)が命令に解釈(命令に変換)され得るように、ジェスチャーを解釈するために用いられ得る。
加えて、エミッター35Lおよび35Rが止められ得る。
反射器33Lおよび33Rを除去することは、ディスプレイスクリーンに平行よりも、より直角に伝送された光が、ステップM23において、リダイレクトされることなくカメラ11Lおよび11Rに到達することを可能にする。
これは、ステップM24において、末端部の(distal)オブジェクト、例えば、ユーザの頭の複数のビデオ画像が生成されることを可能にする。
ステップM25において、複数の画像が組み合わせられ、統合された2Dまたは3Dのビデオ画像を生成し得る。
加えて、ステップM26において、ビデオ画像において検出された3Dジェスチャーは、命令("select","move"など)に変換され得る。
タッチスクリーンおよびジェスチャー機能性の両方を提供することによって、類似のタッチスクリーンコントロールと、新たなジェスチャーコントロール技術との間の架け橋が提供される。
しかしながら、例示の議論は、包括的であることも、発明を開示された厳密な形式に限定することも意図していない。
開示された教示を考えると、多くの変更およびバリエーションが可能である。
実施形態は、発明の本質およびその実用的応用の最善の説明のために選択され、記述され、それによって、他の当業者が、予定された特定の使用に適するような様々な変更を有する発明および様々な実施形態の最善な利用を可能にする。
いくつかのタッチスクリーン技術が、実際に接触を検出する一方、ここに記載された画像ベースの技術は、その意味で接触ベースではない。
代わりに、本発明は、イメージングにより位置を検出し、画像化されたオブジェクトが、実際にディスプレイスクリーンに接触しているか否かも、ディスプレイスクリーンに十分近いだけでディスプレイスクリーンに沿って伝送された光を遮断するか否かも問題ではない。
ここで、「近位部」は、タッチスクリーンモードにおいて、2D位置を位置付けるために用いられる光により検出されるべく接触または十分に近いことを意味する。
一般的には、近位部は、1センチメートル以下である。
本発明は、オールインワンおよび分離したコンピュータおよびディスプレイの実施形態を提供する。
本発明は、一般的にコンピュータ(これらはコンピュータコンポーネントを含めてもよいが)であるとみなされていない電化製品、例えば、テレビおよびプリンタのような他のデバイス上のディスプレイパネルに適用され得る。
カメラは、他の場所、例えば、ディスプレイの下方角またはディスプレイの両端に沿った場所に位置されてもよい。
2つ以上のカメラが用いられてもよい。例えば、中央上部または中央下部の第3のカメラが、ディスプレイに接触しているオブジェクトの位置を解決する助けとなり得る。
基準の中心ウェブカメラは、ステレオカメラと組み合わせることができ、タッチスクリーンモードおいて2つの接触の曖昧さを排除する、または、インタフェース論理回路および回路基板のコストを節約するだけでなく、変位マップを改良する。
実施形態に依存して、反射器は位置間を平行移動または回転できる。
代替的に、移動不可能な反射器が用いられ得る。
例えば、反射器は、より反射し、より透過的であるように電気的に制御され得る物質であり得る。
他の実施形態において、反射器は、いくつかの光を通し(タッチスクリーンの使用に対して)、いくつかの光が伝送される(ウェブカメラの使用に対して)ことを許可する半透鏡またはビームスプリッターのように作用する。
他の実施形態は、分割スペクトルを活用して、モードレス動作を許可する、または、スペクトルを切り替えることによって、モード切り替えを提供する。
例示の実施形態において、反射器は赤外線カットフィルタとカメラとの間の位置に移動し得る。
代替の実施形態において、エミッターおよびタッチスクリーン機能性は、赤外線スペクトルよりも可視スペクトルを活用する。
このことは、赤外線カットフィルタが、反射器によってカメラから分離されるよりも、カメラと連結することを可能にする。
カメラと共同設置されたエミッターの代わりに、ベゼルが放射性(emissive)(赤外線スペクトルまたは可視スペクトルのいずれか一方)であり得る。
他の実施形態においては、カメラはモードに応じて回転される。この実施形態において、反射器は必要とされない。
例示の実施形態に対するこれらおよび他のバリエーションおよび改良は、本発明によって提供され、本発明の範囲は次の請求項により定義される。
13・・・筺体,
15・・・プロセッサ,
17・・・媒体,
19・・・マルチイメージビデオプロセッサ,
21・・・ディスプレイスクリーン,
23・・・フレーム,
25・・・ガラス板,
27・・・ベゼル,
29L,29R・・・上方角,
33L,33R・・・反射器,
35L,35R・・・赤外線エミッター,
37L,37R・・・装置,
41L,41R・・・赤外線カットフィルタ,
43・・・タッチスクリーン/ウェブカメラモードコントローラ
Claims (9)
- 2次元に拡張する平面ディスプレイスクリーンと、
末端部のオブジェクトを見るための前記ディスプレイスクリーンに対して平行よりも、より直角に拡張する視界を有する複数のカメラと、
タッチスクリーンの光を、前記ディスプレイスクリーンに沿った方向から、前記カメラに向かう方向へリダイレクトするための反射器と、
前記タッチスクリーンの光に応答して、前記カメラによって生成された画像の機能として前記ディスプレイスクリーンに最も近いオブジェクトの前記ディスプレイスクリーンに関連する2D位置を位置付けるビデオプロセッサと
を備え、
前記反射器は、
タッチスクリーン状態およびウェブカメラ状態を有し、
前記タッチスクリーン状態においてのみ、前記タッチスクリーンの光をリダイレクトし、
前記ウェブカメラ状態のときに、末端部のオブジェクトからのオブジェクトの光を検出する
ディスプレイシステム。 - 前記タッチスクリーン状態は、前記反射器のタッチスクリーンの位置に関与し、タッチスクリーンの位置において、反射器が前記視界を遮蔽し、
前記ウェブカメラ状態は、前記反射器のウェブカメラの位置に関与し、ウェブカメラの位置において、反射器が前記視界を遮蔽しない
請求項1に記載のディスプレイシステム。 - 前記反射器は、ユーザが、前記タッチスクリーンの位置と、前記ウェブカメラの位置との間を移動させるように移動可能である
請求項1に記載のディスプレイシステム。 - 前記ビデオプロセッサは、3Dジェスチャーを命令として解釈することを提供する
請求項1に記載のディスプレイシステム。 - ウェブカメラモードと、タッチスクリーンモードのと間を切り換えることを含み、
前記ウェブカメラモードにおいて、
2つ以上のカメラを用いるディスプレイスクリーンからオブジェクトの末端部をイメージングし、
前記オブジェクトのビデオ画像を生成し、
前記タッチスクリーンモードにおいて、
前記ディスプレイスクリーンに対して直角よりも、より平行に移動している光を反射させ、前記光移動が前記ディスプレイスクリーンに対して平行よりも、より直角にリダイレクトされるようにし、光移動が前記カメラに影響を与えるようにし、
前記カメラに影響を与える前記光の機能として、オブジェクトによって接触された前記ディスプレイスクリーンの表面上の位置を決定する
方法。 - 前記切り替えることは、
a)反射器が、前記カメラのそれぞれの視界を遮蔽する位置と、
b)反射器が、前記カメラのそれぞれの視界を遮蔽しない位置と
の間で反射器を移動させることを含む
請求項5に記載の方法。 - 前記ウェブカメラモードにおいて、前記オブジェクトによる3Dジェスチャーを、前記カメラによって取り込まれた複数のビデオ画像の機能として命令に変換すること
をさらに含む請求項5に記載の方法。 - 前記カメラモードから前記タッチスクリーンモードに切り替えるときに、赤外線エミッターを止めることと、
前記タッチスクリーンモードから前記カメラモードに切り替えるときに、前記エミッターを作動させることと
をさらに含む請求項5に記載の方法。 - 前記カメラは、前記ディスプレイスクリーンの向かい合う上方角に位置付けられる
請求項5に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2008/076469 WO2010030296A1 (en) | 2008-09-15 | 2008-09-15 | Touchscreen display with plural cameras |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012503230A JP2012503230A (ja) | 2012-02-02 |
JP5331887B2 true JP5331887B2 (ja) | 2013-10-30 |
Family
ID=42005377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011526843A Expired - Fee Related JP5331887B2 (ja) | 2008-09-15 | 2008-09-15 | 複数のカメラを有するタッチスクリーンディスプレイ |
Country Status (8)
Country | Link |
---|---|
US (1) | US8593434B2 (ja) |
JP (1) | JP5331887B2 (ja) |
CN (1) | CN102160018B (ja) |
BR (1) | BRPI0822675B1 (ja) |
DE (1) | DE112008003983T5 (ja) |
GB (1) | GB2475212B (ja) |
TW (1) | TW201011616A (ja) |
WO (1) | WO2010030296A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100177162A1 (en) * | 2009-01-15 | 2010-07-15 | Charles Macfarlane | Method and system for enabling 3d video and image processing using one full resolution video stream and one lower resolution video stream |
US8558804B2 (en) * | 2009-12-14 | 2013-10-15 | Silicon Motion, Inc. | Touch control apparatus and touch point detection method |
TWI569174B (zh) | 2010-06-01 | 2017-02-01 | 林卓毅 | 可攜式光學觸控系統 |
US9250749B2 (en) | 2010-06-01 | 2016-02-02 | Cho-Yi Lin | Electrical apparatus |
US9377903B2 (en) | 2010-06-01 | 2016-06-28 | Cho-Yi Lin | Portable optical touch system |
CN109559148A (zh) | 2011-01-04 | 2019-04-02 | Aq株式会社 | 广告信息提供系统 |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
TWI452510B (zh) * | 2011-12-23 | 2014-09-11 | Innolux Corp | 顯示裝置及其偵測遠端物體移動之方法 |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US9507462B2 (en) * | 2012-06-13 | 2016-11-29 | Hong Kong Applied Science and Technology Research Institute Company Limited | Multi-dimensional image detection apparatus |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US8934675B2 (en) | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
US9069414B2 (en) | 2012-08-02 | 2015-06-30 | Nano-Optic Devices, Llc | Touchscreen sensor for touchscreen display unit |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
JP2014102668A (ja) * | 2012-11-20 | 2014-06-05 | Toshiba Corp | 表示装置 |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
TWI492114B (zh) | 2013-02-05 | 2015-07-11 | Quanta Comp Inc | 光學式多點觸控裝置與其光學觸控模組 |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
CN103780812A (zh) * | 2013-11-26 | 2014-05-07 | 广东欧珀移动通信有限公司 | 显示装置及其摄像显示方法 |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CN103744596A (zh) * | 2014-01-20 | 2014-04-23 | 联想(北京)有限公司 | 显示控制方法和电子设备 |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
CN106681496A (zh) * | 2016-12-07 | 2017-05-17 | 南京仁光电子科技有限公司 | 基于多侦测面的控制方法和装置 |
DE102017223674A1 (de) * | 2017-12-22 | 2019-06-27 | BSH Hausgeräte GmbH | Gargerät und Verfahren zum Betreiben desselben |
CN112188181B (zh) * | 2019-07-02 | 2023-07-04 | 中强光电股份有限公司 | 图像显示设备、立体图像处理电路及其同步信号校正方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4847606A (en) * | 1987-08-25 | 1989-07-11 | Oak Industries Inc. | Control and display system |
US4990901A (en) * | 1987-08-25 | 1991-02-05 | Technomarket, Inc. | Liquid crystal display touch screen having electronics on one side |
JP3795647B2 (ja) * | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
US6531999B1 (en) * | 2000-07-13 | 2003-03-11 | Koninklijke Philips Electronics N.V. | Pointing direction calibration in video conferencing and other camera-based system applications |
US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
JP2003087876A (ja) * | 2001-09-14 | 2003-03-20 | Takenaka Komuten Co Ltd | 機器利用支援装置及び方法 |
US7629967B2 (en) | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
KR101035253B1 (ko) * | 2003-02-14 | 2011-05-19 | 넥스트 홀딩즈 리미티드 | 터치 스크린 신호 처리 |
US7492357B2 (en) * | 2004-05-05 | 2009-02-17 | Smart Technologies Ulc | Apparatus and method for detecting a pointer relative to a touch surface |
US20060044282A1 (en) | 2004-08-27 | 2006-03-02 | International Business Machines Corporation | User input apparatus, system, method and computer program for use with a screen having a translucent surface |
US7355594B2 (en) * | 2004-09-30 | 2008-04-08 | Symbol Technologies, Inc. | Optical touch screen arrangement |
EP1645944B1 (en) | 2004-10-05 | 2012-08-15 | Sony France S.A. | A content-management interface |
JP4570145B2 (ja) | 2004-12-07 | 2010-10-27 | 株式会社シロク | 位置検出平面外に撮像部を有する光学式位置検出装置 |
DE102007021537B4 (de) * | 2006-12-13 | 2020-01-02 | Lg Display Co., Ltd. | Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion |
CN101971128B (zh) | 2007-12-05 | 2013-07-17 | 阿尔梅瓦股份公司 | 屏幕与指针对象之间交互用的交互装置 |
US8213914B2 (en) * | 2008-08-04 | 2012-07-03 | Lg Electronics Inc. | Mobile terminal capable of providing web browsing function and method of controlling the mobile terminal |
US8111247B2 (en) * | 2009-03-27 | 2012-02-07 | Sony Ericsson Mobile Communications Ab | System and method for changing touch screen functionality |
-
2008
- 2008-09-15 DE DE112008003983T patent/DE112008003983T5/de not_active Ceased
- 2008-09-15 GB GB1104407.0A patent/GB2475212B/en not_active Expired - Fee Related
- 2008-09-15 BR BRPI0822675-0A patent/BRPI0822675B1/pt not_active IP Right Cessation
- 2008-09-15 WO PCT/US2008/076469 patent/WO2010030296A1/en active Application Filing
- 2008-09-15 JP JP2011526843A patent/JP5331887B2/ja not_active Expired - Fee Related
- 2008-09-15 CN CN200880131120.8A patent/CN102160018B/zh not_active Expired - Fee Related
- 2008-09-15 US US13/056,977 patent/US8593434B2/en active Active
-
2009
- 2009-08-17 TW TW098127586A patent/TW201011616A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
GB201104407D0 (en) | 2011-04-27 |
WO2010030296A1 (en) | 2010-03-18 |
GB2475212A (en) | 2011-05-11 |
DE112008003983T5 (de) | 2011-07-21 |
US8593434B2 (en) | 2013-11-26 |
GB2475212B (en) | 2013-03-20 |
BRPI0822675B1 (pt) | 2019-09-17 |
BRPI0822675A2 (pt) | 2015-06-30 |
JP2012503230A (ja) | 2012-02-02 |
TW201011616A (en) | 2010-03-16 |
CN102160018A (zh) | 2011-08-17 |
CN102160018B (zh) | 2014-09-24 |
US20110134036A1 (en) | 2011-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5331887B2 (ja) | 複数のカメラを有するタッチスクリーンディスプレイ | |
RU2579952C2 (ru) | Система и способ мультисенсорного взаимодействия и подсветки на основе камеры | |
US8970478B2 (en) | Autostereoscopic rendering and display apparatus | |
US9454260B2 (en) | System and method for enabling multi-display input | |
TWI559174B (zh) | 以手勢爲基礎之三維影像操控技術 | |
US8963883B2 (en) | Touchless interactive display system | |
TWI446249B (zh) | 光學影像式觸控裝置 | |
US20190265841A1 (en) | 3d touch interaction device, touch interaction method thereof, and display device | |
KR102052752B1 (ko) | 텍스트 입력장치와 포인터 위치정보 입력장치가 구비된 복합 휴먼 인터페이스 장치 | |
US20170090518A1 (en) | Electronic apparatus | |
TWI470511B (zh) | 雙模輸入裝置 | |
US10481733B2 (en) | Transforming received touch input | |
JP2012531638A (ja) | 対話型ディスプレイ装置 | |
US20130162597A1 (en) | Optical touch control module | |
TWI573043B (zh) | The virtual two - dimensional positioning module of the input device | |
US20130161491A1 (en) | Optical touch control module | |
KR20200019637A (ko) | 텍스트 입력장치와 포인터 위치정보 입력장치가 구비된 복합 휴먼 인터페이스 장치 | |
TW201506741A (zh) | 觸控顯示面板 | |
Gruhlke et al. | 74.2: A Novel Three Dimensional User Interface Technology | |
WO2017116426A1 (en) | Detachable electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130703 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5331887 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |